JP7083863B2 - Monitoring method, computer program for realizing the monitoring method, and monitoring system - Google Patents

Monitoring method, computer program for realizing the monitoring method, and monitoring system Download PDF

Info

Publication number
JP7083863B2
JP7083863B2 JP2020072453A JP2020072453A JP7083863B2 JP 7083863 B2 JP7083863 B2 JP 7083863B2 JP 2020072453 A JP2020072453 A JP 2020072453A JP 2020072453 A JP2020072453 A JP 2020072453A JP 7083863 B2 JP7083863 B2 JP 7083863B2
Authority
JP
Japan
Prior art keywords
snow
feature points
jam
snow jam
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020072453A
Other languages
Japanese (ja)
Other versions
JP2021170182A (en
Inventor
恵 角田
壯則 土増
一紀 高橋
俊二 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kansai Electric Power Co Inc
Original Assignee
Kansai Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kansai Electric Power Co Inc filed Critical Kansai Electric Power Co Inc
Priority to JP2020072453A priority Critical patent/JP7083863B2/en
Publication of JP2021170182A publication Critical patent/JP2021170182A/en
Application granted granted Critical
Publication of JP7083863B2 publication Critical patent/JP7083863B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、水路の浮遊物を検知する技術に関し、より特定的には、浮遊物の誤検知を抑制する技術に関する。 The present disclosure relates to a technique for detecting suspended matter in a waterway, and more specifically to a technique for suppressing false detection of suspended matter.

従来、河川から発電所に発電用水を供給する水路には、冬季等においてスノージャムが発生し得る。また、海水を冷却水として用いる発電所の水路には、クラゲが流入することもある。 Conventionally, snow jam may occur in a waterway that supplies power generation water from a river to a power plant in winter or the like. In addition, jellyfish may flow into the waterways of power plants that use seawater as cooling water.

特許文献1には、スノージャム検出装置が開示されている。また、非特許文献1には、監視カメラの映像を利用してクラゲの流入を検知するシステムが開示されている。 Patent Document 1 discloses a snow jam detection device. Further, Non-Patent Document 1 discloses a system for detecting the inflow of jellyfish by using an image of a surveillance camera.

特開2001-64952号公報Japanese Unexamined Patent Publication No. 2001-64952

川角 浩亮 外2名 “監視カメラの映像を利用したクラゲ流入検知システム”、[online]、2001年、T.IEE Japan, Vol.121-C No.5、[平成30年5月28日検索]、インターネット〈URL:https://www.jstage.jst.go.jp/article/ieejeiss1987/121/5/121_5_854/_pdf>Hiroaki Kawasumi "Jellyfish Inflow Detection System Using Surveillance Camera Images", [online], 2001, T.IEE Japan, Vol.121-C No.5, [Searched May 28, 2018 ], Internet <URL: https://www.jstage.jst.go.jp/article/ieejeiss1987/121/5/121_5_854/_pdf>

スノージャム、葉、クラゲその他の浮遊物を早期に検出したいという要請がある。スノージャムの検知に関し、例えば、オプティカルフローを用いた検知方法も考えられるが、使用環境によっては、誤検知する場合も有り得る。したがって、誤検知を抑制しつつ早期にオプティカルフローを検知する技術が必要とされている。 There is a demand for early detection of snow jams, leaves, jellyfish and other suspended matter. Regarding the detection of snow jam, for example, a detection method using an optical flow can be considered, but erroneous detection may occur depending on the usage environment. Therefore, there is a need for a technique for detecting optical flow at an early stage while suppressing false detection.

本開示は上述のような背景に鑑みてなされたものであって、誤検知を抑制しつつ早期に浮遊物を検知する技術が開示される。 The present disclosure has been made in view of the above background, and discloses a technique for detecting suspended matter at an early stage while suppressing false detection.

ある実施の形態に従う監視方法は、水路を撮影することにより得られた連続する複数のフレーム画像の入力を受けるステップと、複数のフレーム画像のうちの最初のフレーム画像において設定された予め定められた個数の特徴点の移動を、複数のフレーム画像にわたり特徴点毎に検出するステップと、予め準備された学習済みモデルを用いて、複数のフレーム画像のうちの1つのフレーム画像を構成する各画素が、水路における浮遊物に該当するか否かを判定するステップと、判定の結果に基づいて、1つのフレーム画像において浮遊物が存在すると判定された画素数の比率を算出するステップと、特徴点の個数と予め定められた個数との大小関係と、画素数の比率とに基づいて、浮遊物が水路に存在しているか否かを判定するステップとを含む。 A monitoring method according to an embodiment is a predetermined step set in a step of receiving input of a plurality of consecutive frame images obtained by photographing a water channel and a first frame image of the plurality of frame images. Using a step of detecting the movement of a number of feature points for each feature point over a plurality of frame images and a trained model prepared in advance, each pixel constituting one frame image of the plurality of frame images , A step of determining whether or not it corresponds to a floating substance in a water channel, a step of calculating the ratio of the number of pixels determined to have a floating substance in one frame image based on the result of the determination, and a feature point. It includes a step of determining whether or not a suspended matter is present in the water channel based on the magnitude relationship between the number and a predetermined number and the ratio of the number of pixels.

ある局面において、浮遊物が水路に存在しているか否かを判定するステップは、特徴点の個数が予め定められた個数以上であることと、画素数の比率が予め定められた比率以上であることとに基づいて、浮遊物が水路に存在していると判定することを含む。 In a certain aspect, the step of determining whether or not a floating substance is present in a water channel is that the number of feature points is equal to or greater than a predetermined number and the ratio of the number of pixels is equal to or greater than a predetermined ratio. It includes determining that a suspended matter is present in the waterway based on the fact.

ある局面において、当該監視方法は、複数のフレーム画像のうち所定数のフレーム画像を用いた判定処理を、判定処理に使用される先頭のフレーム画像を次のフレーム画像にずらすことにより、予め定められた回数だけ行なって得られた結果を蓄積して、特徴点の個数の合計値を算出するステップと、合計値を算出する処理を予め定められた回数繰り返すことにより得られた特徴点の個数の合計値を累積するステップとをさらに含む。特徴点の個数が予め定められた個数以上であることは、特徴点の個数の合計値が予め定められた閾値以上であることを含む。 In a certain aspect, the monitoring method is predetermined by shifting the determination process using a predetermined number of frame images out of a plurality of frame images to the next frame image by shifting the first frame image used for the determination process to the next frame image. The number of feature points obtained by repeating the step of accumulating the results obtained by performing the number of times and calculating the total value of the number of feature points and the process of calculating the total value a predetermined number of times. It further includes a step to accumulate the total value. The fact that the number of feature points is equal to or greater than a predetermined number includes that the total value of the number of feature points is equal to or greater than a predetermined threshold value.

他の実施の形態に従うと、上記のいずれかに記載の監視方法を実現するためのコンピュータプログラムが提供される。 According to other embodiments, a computer program for realizing the monitoring method described in any of the above is provided.

さらに他の実施の形態に従うと、上記コンピュータプログラムを格納したメモリと、コンピュータプログラムを実行する1つ以上のプロセッサとを備える、監視システムが提供される。 According to still another embodiment, a monitoring system is provided that includes a memory that stores the computer program and one or more processors that execute the computer program.

ある実施の形態に従うと、誤検知を抑制しつつ早期に浮遊物を検知することができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
According to a certain embodiment, it is possible to detect suspended matter at an early stage while suppressing false detection.
The above and other objects, features, aspects and advantages of the invention will become apparent from the following detailed description of the invention as understood in connection with the accompanying drawings.

浮遊物を早期に検出する監視システムとして作動するコンピュータシステムのプロセッサが実行する処理の一部を表わすフローチャートである。It is a flowchart which shows a part of the processing performed by the processor of the computer system which operates as a monitoring system which detects a floating substance at an early stage. スノージャムを説明するための図である。It is a figure for demonstrating snow jam. 発電設備(発電所)に水を供給する水路を撮像することにより得られた画像を表した図である。It is a figure showing the image obtained by taking an image of the water channel which supplies water to a power generation facility (power plant). 監視システムのシステム構成を説明するための図である。It is a figure for demonstrating the system configuration of a monitoring system. 特徴点を設定するために用いる複数の基準座標(位置)を説明するための図である。It is a figure for demonstrating a plurality of reference coordinates (positions) used for setting a feature point. 特徴点の初期位置の設定方法の一例を説明するための図である。It is a figure for demonstrating an example of the setting method of the initial position of a feature point. 特徴点の初期座標Ei[1]を表した図である。It is a figure showing the initial coordinate Ei [1] of a feature point. 50番目のフレーム画像F50を表した図である。It is a figure showing the 50th frame image F50. 100番目のフレーム画像F100を表した図である。It is a figure showing the 100th frame image F100. 特徴点の初期座標Ei[1]を表した図である。It is a figure showing the initial coordinate Ei [1] of a feature point. 100番目のフレーム画像F100’を表した図である。It is a figure showing the 100th frame image F100'. 夜間における動画像データに基づく検証結果を説明するための図である。It is a figure for demonstrating the verification result based on the moving image data at night. 昼間における動画像データに基づく検証結果を説明するための図である。It is a figure for demonstrating the verification result based on the moving image data in the daytime. 監視システム1のサーバ装置100の機能的構成を説明するための機能ブロック図である。It is a functional block diagram for demonstrating the functional configuration of the server apparatus 100 of the monitoring system 1. サーバ装置100において実行される処理の前半部分の流れを説明するためのフロー図である。It is a flow diagram for demonstrating the flow of the first half part of the process executed in a server apparatus 100. サーバ装置100において実行される処理の後半部分の流れを説明するためのフロー図である。It is a flow diagram for demonstrating the flow of the latter half part of the process executed in a server apparatus 100. サーバ装置100のハードウェア構成の典型例を表した図である。It is a figure which showed the typical example of the hardware composition of the server apparatus 100. 誤検知要因を表わす図である。It is a figure which shows the false positive factor. オプティカルフローを用いた検出における特徴点の基準座標および枠の配置の一例を表わす図である。It is a figure which shows an example of the reference coordinate of a feature point and the arrangement of a frame in the detection using an optical flow. 監視システムとして機能するサーバ装置100のプロセッサ151が実行する処理の一部を表わすフローチャートである。It is a flowchart which shows a part of the processing executed by the processor 151 of the server apparatus 100 which functions as a monitoring system. ある発電所において12時30分に保安停止された場合においてスノージャムが検知されたタイミングを表わす図である。It is a figure which shows the timing when the snow jam was detected when the security was stopped at 12:30 in a certain power plant. ある発電所において、保安停止がなかったもののカメラに水滴が付着したことによりスノージャムが発生したと誤検知された場合も含む検知結果の一例を表わす図である。It is a figure which shows an example of the detection result including the case where it was erroneously detected that the snow jam occurred by the water droplets adhering to the camera though there was no security stop in a certain power plant. 誤検知要因が有った場合における検知結果を表わす図である。It is a figure which shows the detection result when there is a false detection factor. 2018年12月29日に観測された雪面積比率(5分間の平均)の推移を表わす図である。It is a figure which shows the transition of the snow area ratio (average for 5 minutes) observed on December 29, 2018. 誤検知要因が有った場合における検知結果を表わす図である。It is a figure which shows the detection result when there is a false detection factor. 2018年12月29日に観測された雪面積比率(前回値との差分)の推移を表わす図である。It is a figure which shows the transition of the snow area ratio (difference from the previous value) observed on December 29, 2018. ある実施の形態に従う監視システムが誤検知対策として採用する手法の一例を概念的に表わす図である。It is a figure which conceptually shows an example of the method adopted as a measure against false positives by a monitoring system according to a certain embodiment. 監視システムが、閾値10%として、雪面積比率をそのまま判定に使用した場合における検知結果を表わす図である。It is a figure which shows the detection result in the case where the monitoring system uses the snow area ratio as it is for determination with a threshold value of 10%. 監視システムが、閾値140%として、雪面積比率の累積値を判定に使用した場合における検知結果を表わす図である。It is a figure which shows the detection result in the case where the monitoring system uses the cumulative value of the snow area ratio for determination with a threshold value of 140%. PoC(Proof of Concept)1モデルのみ、オプティカルフローのみ、および、PoC1モデル&オプティカルフローの併用、の各々の方式による検知特性を表わす図である。It is a figure which shows the detection characteristic by each method of PoC (Proof of Concept) 1 model only, optical flow only, and PoC1 model & optical flow combined use. 学習済みモデルの評価結果とオプティカルフローとの組み合わせを説明するための図である。It is a figure for demonstrating the combination of the evaluation result of a trained model, and an optical flow. 2018年12月28日にスノージャムにより取水が停止した場合におけるスノージャムの発生の検知のタイミングを表わす図である。It is a figure which shows the timing of the detection of the occurrence of the snow jam when the water intake is stopped by the snow jam on December 28, 2018. 2019年1月24日にスノージャムにより取水が停止した場合におけるスノージャムの発生の検知のタイミングを表わす図である。It is a figure which shows the timing of the detection of the occurrence of a snow jam when the water intake is stopped by the snow jam on January 24, 2019. 2019年1月15日に、スノージャムが発生していないにもかかわらずスポットライトの光による誤検知が発生した場合の状態を表わす図である。It is a figure which shows the state when the false detection by the light of a spotlight occurs on January 15, 2019 even though the snow jam does not occur. 2019年1月27日に、スノージャムが発生していないにもかかわらず、水面へ映りこんだ壁面の雪や雲などによる誤検知が発生した場合の状態を表わす図である。It is a figure which shows the state when the false detection by the snow and the cloud of the wall surface reflected on the water surface occurred on January 27, 2019, even though the snow jam did not occur. 2019年2月13日の昼間における、監視システムによる検知結果を表わす図である。It is a figure which shows the detection result by the monitoring system in the daytime of February 13, 2019. オプティカルフローモデルが採用された場合に誤検知し易い状況下において、PoC1モデルが誤検知しない画像と、そのオリジナルの画像とを表わす図である。It is a figure which shows the image which the PoC1 model does not erroneously detect, and the original image, under the situation that erroneous detection is easy when the optical flow model is adopted.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of them will not be repeated.

図1を参照して、本開示に係る技術思想の概要について説明する。図1は、浮遊物を早期に検出する監視システムとして作動するコンピュータシステムのプロセッサが実行する処理の一部を表わすフローチャートである。 The outline of the technical idea according to the present disclosure will be described with reference to FIG. FIG. 1 is a flowchart showing a part of processing executed by a processor of a computer system operating as a monitoring system for detecting suspended matter at an early stage.

まず、監視システムは、検査対象を撮影することによって得られたフレーム画像の入力を受け付けて、オプティカルフローの処理を準備する。より具体的には、ステップS110にて、プロセッサは、カメラによって撮影された画像として、フレーム画像を取得する。ステップS120にて、プロセッサは、期間uの第v番目のフレーム画像中の第1領域に複数の特徴点を設定する。ステップS125にて、プロセッサは、各特徴点を追跡する。 First, the monitoring system accepts the input of the frame image obtained by photographing the inspection target and prepares the processing of the optical flow. More specifically, in step S110, the processor acquires a frame image as an image taken by the camera. In step S120, the processor sets a plurality of feature points in the first region in the v-th frame image of the period u. In step S125, the processor tracks each feature point.

監視システムは、オプティカルフローに基づく判定基準を設定する。より具体的には、ステップS130にて、プロセッサは、フレーム画像中の第2領域に含まれている特徴点の個数を算出する。ステップS135にて、プロセッサは、オプティカルフローに基づく判断基準Aを設定する。 The monitoring system sets criteria based on optical flow. More specifically, in step S130, the processor calculates the number of feature points included in the second region in the frame image. In step S135, the processor sets the judgment criterion A based on the optical flow.

次に、監視システムは、学習済みモデル又は画素数比率に基づく判定基準Bを設定する。より具体的には、ステップS140にて、プロセッサは、フレーム画像中の各画素毎に浮遊物の判定処理を実行する。ステップS145にて、プロセッサは、浮遊物と判定された画素数の比率を算出する。ステップS150にて、プロセッサは、学習済みモデル又は画素数比率に基づく判定基準Bを設定する。 Next, the monitoring system sets the determination criterion B based on the trained model or the pixel count ratio. More specifically, in step S140, the processor executes a floating object determination process for each pixel in the frame image. In step S145, the processor calculates the ratio of the number of pixels determined to be floating matter. In step S150, the processor sets the determination criterion B based on the trained model or the pixel count ratio.

次に、監視システムは、浮遊物の検出処理を実行する。より具体的には、ステップS160にて、プロセッサは、浮遊物の判定処理の結果が判定基準Aを充足し、かつ、学習済みモデル又は画素数の比率が判定基準Bを充足しているか否かを判断する。ステップS170にて、プロセッサは、浮遊物が存在していると判定する。ステップS180にて、プロセッサは、所定の通知処理を実行する。ステップS190にて、プロセッサは、次のフレーム画像を処理の対象に設定する。 Next, the monitoring system executes the detection process of suspended matter. More specifically, in step S160, the processor determines whether or not the result of the determination process of the suspended matter satisfies the determination criterion A, and the trained model or the ratio of the number of pixels satisfies the determination criterion B. To judge. In step S170, the processor determines that suspended matter is present. In step S180, the processor executes a predetermined notification process. In step S190, the processor sets the next frame image as the processing target.

なお、判定基準Aが設定される順序と、判定基準Bが設定される順序とは逆であっても良い。したがって、ステップS130,S135は、ステップS140~S150の後に行なわれてもよい。 The order in which the determination criteria A are set may be reversed from the order in which the determination criteria B are set. Therefore, steps S130 and S135 may be performed after steps S140 to S150.

次に、図2~図17を参照して、スノージャムの検出の詳細について説明する。
以下の実施の形態では、水路を流れる浮遊物(水路を詰まらせる要因となる物体)として、スノージャムを例に挙げて説明する。ただし、浮遊物は、スノージャムに限定されず、たとえば、海水を冷却手段として使用する発電所の場合には、浮遊物はクラゲの群れであってもよい。さらに、以下に示す、枚数、個数、および閾値等の各数値は、例示であって、記載された具体的数値に限定されるものではない。
Next, the details of the detection of snow jam will be described with reference to FIGS. 2 to 17.
In the following embodiment, snow jam will be described as an example as a floating substance (an object that causes clogging of the waterway) flowing through the waterway. However, the suspended matter is not limited to snow jam, and for example, in the case of a power plant using seawater as a cooling means, the suspended matter may be a group of jellyfish. Further, the numerical values such as the number of sheets, the number of sheets, and the threshold value shown below are examples and are not limited to the specific numerical values described.

図2は、スノージャムを説明するための図である。
図2を参照して、状態(i)に示すように、山に積もった雪が落ちる。次いで、状態(ii)に示すように、落ちた雪が水路に流れ込む。これにより、スノージャムが発生する。さらに、状態(iii)に示すように、発電所の上流に設けられた上部水槽が、スノージャムにより詰まる。これにより、状態(iv)に示すように、水路から水が溢れる。その結果、発電所に水路の水(冷却水)が供給されなくなり、状態(v)に示すように、発電が停止する。したがって、スノージャムの発生を早期に検出することができれば、発電が停止することを防ぐことができる。
FIG. 2 is a diagram for explaining snow jam.
With reference to FIG. 2, as shown in state (i), the snow on the mountain falls. Then, as shown in state (ii), the fallen snow flows into the waterway. This causes snow jam. Further, as shown in the state (iii), the upper water tank provided upstream of the power plant is clogged with snow jam. This causes water to overflow from the channel, as shown in state (iv). As a result, the water in the channel (cooling water) is no longer supplied to the power plant, and power generation is stopped as shown in the state (v). Therefore, if the occurrence of snow jam can be detected at an early stage, it is possible to prevent the power generation from stopping.

また、スノージャムが発生する場所は、通常、発電所の作業員が常駐していない場所である。それゆえ、本例においては、水路をカメラによって撮像された映像を用いて、スノージャムの発生を検出する。 In addition, the place where snow jam occurs is usually a place where the workers of the power plant are not stationed. Therefore, in this example, the occurrence of snow jam is detected by using the image of the waterway captured by the camera.

ところで、スノージャムの発生初期から中期にかけては、水路がスノージャムによって詰まっておらず、水流がある。それゆえ、スノージャムは水路を流れる。その一方、スノージャムの発生後期においては、水路が詰まり、雪が一ヶ所に滞り始める。本例では、このような特徴を考慮し、スノージャムの発生初期から発生中期におけるスノージャムの検出を行う。 By the way, from the early stage to the middle stage of the occurrence of snow jam, the waterway is not clogged by the snow jam and there is a water flow. Therefore, snow jam flows through the waterways. On the other hand, in the latter part of the snow jam, the waterways are clogged and the snow begins to stay in one place. In this example, in consideration of such characteristics, snow jam is detected from the early stage to the middle stage of the occurrence of snow jam.

図3は、発電設備(発電所)に水を供給する水路を撮像することにより得られた画像を表した図である。具体的には、当該画像G1は、映像(動画像)のある時点の画像(静止画、1枚のフレーム画像)を表した図である。より詳しくは、画像G1は、冬季において、水路のうち取水口が設けられた場所を撮像したものである。 FIG. 3 is a diagram showing an image obtained by imaging a water channel that supplies water to a power generation facility (power plant). Specifically, the image G1 is a diagram showing an image (still image, one frame image) at a certain point in time of a moving image (moving image). More specifically, the image G1 is an image of a place where an intake port is provided in the waterway in winter.

図3を参照して、水路には、複数のスノージャム(白色で表示した物体)が水面に浮遊している。また、取水口の上部(画像G1の左上部分)には、雪が積もっている。 With reference to FIG. 3, a plurality of snow jams (objects displayed in white) are floating on the surface of the water in the waterway. In addition, snow is piled up on the upper part of the intake (upper left part of the image G1).

このような水路では、水の流れ自体や風によって波が立つことにより、水面の状態が変化する。また、夜間の照明によって水面が照らされ、水底においても夜間照明の反射が起こる。また、降雪なども発生する。このように、水路においては、昼夜を含めた日照条件の違いを含む気象条件の違いによって、撮像される画像も画一的ではない。 In such a waterway, the state of the water surface changes due to the waves generated by the water flow itself or the wind. In addition, the water surface is illuminated by nighttime lighting, and nighttime lighting is reflected even at the bottom of the water. In addition, snowfall will occur. As described above, in the waterway, the images captured are not uniform due to the difference in weather conditions including the difference in sunshine conditions including day and night.

本例では、このような条件下においてもスノージャムの発生を精度良く検出可能なシステムを説明する。 In this example, a system capable of accurately detecting the occurrence of snow jam even under such conditions will be described.

<A.システム構成>
図4は、監視システムのシステム構成を説明するための図である。
<A. System configuration>
FIG. 4 is a diagram for explaining the system configuration of the monitoring system.

図4を参照して、監視システム1は、サーバ装置100と、端末装置200と、監視カメラ300とを備える。監視カメラ300は、サーバ装置100と通信可能に接続されている。端末装置200は、ネットワークを介して通信可能にサーバ装置100に接続されている。 With reference to FIG. 4, the surveillance system 1 includes a server device 100, a terminal device 200, and a surveillance camera 300. The surveillance camera 300 is communicably connected to the server device 100. The terminal device 200 is connected to the server device 100 so as to be able to communicate via the network.

監視カメラ300は、水路500を撮像するために水路500の傍に設置されている。本例では、監視カメラ300は、水路500のうち取水口700の状態を監視するために、取水口700が設けられた場所を撮像するように設置されている。なお、取水口700には、一定形状をした大きな異物(流木等)が発電設備に流れ込まないように、柵が設けられている。 The surveillance camera 300 is installed near the water channel 500 in order to image the water channel 500. In this example, the surveillance camera 300 is installed so as to take an image of a place where the intake port 700 is provided in order to monitor the state of the intake port 700 in the water channel 500. The water intake 700 is provided with a fence so that large foreign substances (driftwood, etc.) having a certain shape do not flow into the power generation facility.

監視カメラ300によって撮像された映像(動画像)は、サーバ装置100に送られる。当該映像は、たとえば端末装置200等の装置で見ることができる。つまり、発電所の作業員等は、取水口700の状態を映像によって監視することができる。 The image (moving image) captured by the surveillance camera 300 is sent to the server device 100. The image can be viewed on a device such as a terminal device 200, for example. That is, the worker of the power plant or the like can monitor the state of the water intake 700 by the image.

さらに、監視システム1では、このような監視カメラ300によって撮像された映像を利用して、サーバ装置100がスノージャムの発生を検出する。詳しくは、動体検出の分野で一般的に用いられているオプティカルフロー(optical flow)を本実施の形態で用いることにより、後述する特徴点の移動を追跡する。これにより、サーバ装置100がスノージャムの発生を検出する。なお、オプティカルフローは公知の技術であるため、ここでは繰り返し説明しない。 Further, in the surveillance system 1, the server device 100 detects the occurrence of snow jam by using the image captured by the surveillance camera 300. Specifically, by using an optical flow, which is generally used in the field of motion detection, in this embodiment, the movement of feature points, which will be described later, is tracked. As a result, the server device 100 detects the occurrence of snow jam. Since optical flow is a known technique, it will not be described repeatedly here.

詳しくは、以下では、連続する100枚のフレーム画像を1つの判定単位として、スノージャムの発生の有無を判定する構成を例に挙げて説明する。すなわち、サーバ装置100は、最初の100枚のフレーム画像に基づきスノージャムの発生の有無を判定した後、次の100枚のフレーム画像に基づきスノージャムの発生の有無を判定する。この後、サーバ装置100は、このような判定処理を繰り返す。 More specifically, in the following, a configuration for determining the presence or absence of snow jam using 100 consecutive frame images as one determination unit will be described as an example. That is, the server device 100 determines whether or not snow jam has occurred based on the first 100 frame images, and then determines whether or not snow jam has occurred based on the next 100 frame images. After that, the server device 100 repeats such a determination process.

<B.特徴点の設定および移動検出>
図5は、特徴点を設定するために用いる複数の基準座標(位置)を説明するための図である。
<B. Feature point setting and movement detection>
FIG. 5 is a diagram for explaining a plurality of reference coordinates (positions) used for setting feature points.

図5を参照して、本例の場合、サーバ装置100において、40個の基準座標D1~D40が予め設定(指定)されている。当該基準座標の設定は、たとえば、スノージャムの判定に用いるプログラムのユーザ(端末装置200のユーザ)によってなされる。あるいは、当該プログラムを設計者が、デフォルトで事前に基準座標を設定しておいてもよい。 With reference to FIG. 5, in the case of this example, 40 reference coordinates D1 to D40 are preset (designated) in the server device 100. The reference coordinates are set, for example, by a user (user of the terminal device 200) of the program used for determining snow jam. Alternatively, the designer may set the reference coordinates in advance by default for the program.

基準座標の設定は、撮像対象および撮像方向によって、適宜変更可能である。本例の場合、水路500の上流側(画像の右下の領域)に、略等間隔に40個の基準座標が設定されている。たとえばユーザが端末装置200からサーバ装置100にアクセスすることにより、サーバ装置100での基準座標の設定あるいは基準座標の設定の変更を行うことができる。なお、以下では、iを1~40の自然数として、基準座標を「Di」を用いて表記する。 The setting of the reference coordinates can be appropriately changed depending on the image pickup target and the image pickup direction. In the case of this example, 40 reference coordinates are set at substantially equal intervals on the upstream side (the lower right region of the image) of the water channel 500. For example, when the user accesses the server device 100 from the terminal device 200, the reference coordinates can be set or the reference coordinates can be changed in the server device 100. In the following, i is a natural number from 1 to 40, and the reference coordinates are expressed using "Di".

図6は、特徴点の初期位置の設定方法の一例を説明するための図である。
図6を参照して、サーバ装置100は、基準座標Diに基づき特徴点の初期座標Ei[1]を設定する。典型的には、サーバ装置100は、基準座標Diを含む予め定められた大きさの要素領域Aiにおいて、1つの特徴点の初期座標Ei[1]を設定する。特徴点の初期座標Eiが重複しないようにするため、要素領域Ai同士は重複しないことが好ましい。
FIG. 6 is a diagram for explaining an example of a method of setting an initial position of a feature point.
With reference to FIG. 6, the server device 100 sets the initial coordinates Ei [1] of the feature points based on the reference coordinates Di. Typically, the server device 100 sets the initial coordinates Ei [1] of one feature point in the element region Ai of a predetermined size including the reference coordinate Di. In order to prevent the initial coordinates Ei of the feature points from overlapping, it is preferable that the element regions Ai do not overlap with each other.

サーバ装置100は、たとえば、監視カメラ300による撮像により得られたフレーム画像に対して所定の画像処理を実行することにより、特徴点の初期座標Ei[1]を設定する。たとえば、サーバ装置100は、要素領域Ai内において、輝度の勾配(変化)の最も強い位置を特徴点の初期座標Eiに設定する。このような処理によって、40個の基準座標Diから40個の特徴点の初期座標Ei[1]が設定される。 The server device 100 sets the initial coordinates Ei [1] of the feature points by, for example, performing predetermined image processing on the frame image obtained by the image pickup by the surveillance camera 300. For example, the server device 100 sets the position where the gradient (change) of the luminance is strongest in the element region Ai to the initial coordinates Ei of the feature point. By such processing, the initial coordinates Ei [1] of 40 feature points are set from the 40 reference coordinates Di.

特徴点の初期座標Ei[1]の設定は、たとえば、オープンソースのコンピュータビジョン向けライブラリであるOpenCV(Open Source Computer Vision Library)を用いることにより実現できる。詳しくは、サーバ装置100は、OpenCVによって提供されている関数“cv2.cornerSubPix()”を利用して、初期座標Eiを設定する。より詳しくは、サーバ装置100は、当該関数の引数を“self.gray_next”とし(つまり、画像をグレー画像とし)、隣接する各画素の明るさの違いからコーナを設定(認識)する。特徴点の初期座標Ei[1]の設定は、このような公知の技術を用いればよいため、これ以上の詳細な説明については、ここでは繰り返さない。 The setting of the initial coordinates Ei [1] of the feature points can be realized by using, for example, OpenCV (Open Source Computer Vision Library), which is a library for open source computer vision. Specifically, the server device 100 sets the initial coordinates Ei by using the function "cv2.cornerSubPix ()" provided by OpenCV. More specifically, the server device 100 sets the argument of the function to "self.gray_next" (that is, the image is a gray image), and sets (recognizes) the corner from the difference in the brightness of each adjacent pixel. Since the setting of the initial coordinates Ei [1] of the feature points may be performed by using such a known technique, further detailed description will not be repeated here.

次に、特徴点の移動態様を、例を挙げて説明する。
(b1.第1のケース)
スノージャムが数珠繋状態となっている場合における特徴点の移動の態様を説明する。
Next, the movement mode of the feature points will be described with an example.
(B1. First case)
The mode of movement of the feature points when the snow jam is in a beaded state will be described.

図7は、特徴点の初期座標Ei[1]を表した図である。
図7を参照して、サーバ装置100は、1番目のフレーム画像F1において、各基準座標Diに基づき、40個の特徴点の初期座標E1[1],E2[1],…,E8[1],…,E16[1],…,E33[1],…,E40[1]を設定する。なお、各要素領域Aiが事前に設定されているため、特徴点の初期座標E1[1]~E40[1]は、予め定めされた領域Q2(第2の領域の例)において設定される。なお、「1番目のフレーム画像」とは、100枚のうちの最初のフレーム画像を意味する。
FIG. 7 is a diagram showing the initial coordinates Ei [1] of the feature points.
With reference to FIG. 7, in the first frame image F1, the server device 100 has initial coordinates E1 [1], E2 [1], ..., E8 [1] of 40 feature points based on each reference coordinate Di. ], ..., E16 [1], ..., E33 [1], ..., E40 [1] are set. Since each element area Ai is set in advance, the initial coordinates E1 [1] to E40 [1] of the feature points are set in the predetermined area Q2 (example of the second area). The "first frame image" means the first frame image out of 100 images.

また、領域Q2は、領域Q1(第1の領域の例)と重複しないように設定されている。領域Q1は、設備に水路500の水を取り込む取水口700の画像が表示された領域と少なくとも一部が重複するように事前に設定されている。領域Q2の設定もユーザあるいはプログラムの設計者によってなされる。 Further, the area Q2 is set so as not to overlap with the area Q1 (example of the first area). The region Q1 is preset so that at least a part of the region Q1 overlaps with the region where the image of the intake port 700 that takes in the water of the water channel 500 into the equipment is displayed. The area Q2 is also set by the user or the designer of the program.

図8は、50番目のフレーム画像F50を表した図である。
図8を参照して、複数の特徴点が領域Q1内に移動している。このような特徴点の移動は、上述したように、オプティカルフロー(optical flow)を用いることにより検出できる。なお、図7におけるEi[50]は、50番目のフレーム画像F50における特徴点の各座標を表している。
FIG. 8 is a diagram showing the 50th frame image F50.
With reference to FIG. 8, a plurality of feature points are moved within the region Q1. As described above, the movement of such feature points can be detected by using an optical flow. Note that Ei [50] in FIG. 7 represents the coordinates of the feature points in the 50th frame image F50.

図9は、100番目のフレーム画像F100を表した図である。
図9を参照して、図8の状態よりも多くの特徴点が領域Q1内に移動している。図7,図8,図9に基づけば、100枚のフレーム画像の期間において時間の経過とともに、領域Q2よりも下流側の領域Q1に特徴点が移動していることが分かる。なお、図9におけるEi[100]は、100番目のフレーム画像F100における特徴点の各座標を表している。
FIG. 9 is a diagram showing the 100th frame image F100.
With reference to FIG. 9, more feature points have moved into the region Q1 than in the state of FIG. Based on FIGS. 7, 8 and 9, it can be seen that the feature points move to the region Q1 on the downstream side of the region Q2 with the passage of time in the period of 100 frame images. Note that Ei [100] in FIG. 9 represents the coordinates of the feature points in the 100th frame image F100.

具体的には、フレーム画像F100では、40個の特徴点のうち、15個の特徴点が領域Q1内に移動している。また、40個の特徴点のうち、8個の特徴点が途中で追跡できなくなり、消滅している。 Specifically, in the frame image F100, 15 of the 40 feature points are moved into the region Q1. Further, of the 40 feature points, 8 feature points cannot be tracked on the way and disappear.

(b2.第2のケース)
スノージャムが水面を覆っている状態における特徴点の移動の態様を説明する。
(B2. Second case)
The mode of movement of the feature points in the state where the snow jam covers the water surface will be described.

図10は、特徴点の初期座標Ei[1]を表した図である。
図10を参照して、サーバ装置100は、1番目のフレーム画像F1’において、各基準座標Diに基づき、領域Q2内において、40個の特徴点の初期座標E1[1],E2[1],…,E8[1],E9[1],…,E33[1],…,E40[1]を設定する。
FIG. 10 is a diagram showing the initial coordinates Ei [1] of the feature points.
With reference to FIG. 10, in the first frame image F1', the server device 100 has the initial coordinates E1 [1] and E2 [1] of 40 feature points in the region Q2 based on each reference coordinate Di. , ..., E8 [1], E9 [1], ..., E33 [1], ..., E40 [1] are set.

図11は、100番目のフレーム画像F100’を表した図である。
図11を参照して、多くの特徴点が領域Q1内に移動している。100枚のフレーム画像の期間において時間の経過とともに、領域Q2よりも下流側の領域Q1に特徴点が移動している。
FIG. 11 is a diagram showing the 100th frame image F100'.
With reference to FIG. 11, many feature points have moved into the region Q1. With the passage of time in the period of 100 frame images, the feature points move to the region Q1 on the downstream side of the region Q2.

具体的には、フレーム画像F100’では、40個の特徴点のうち、33個の特徴点が領域Q1内に移動している。また、40個の特徴点のうち、37個の特徴点が消滅することなく残存している。スノージャムが水面を覆っている状態では、消滅する特徴点が少ないといった傾向がある。 Specifically, in the frame image F100', 33 of the 40 feature points are moved into the region Q1. Further, of the 40 feature points, 37 feature points remain without disappearing. When snow jam covers the surface of the water, there is a tendency that there are few characteristic points that disappear.

(b3.第3のケース)
スノージャムの発生初期時には、100番目のフレーム画像において領域Q1に移動する特徴点の数は、第1のケースよりも少なくなる。また、途中で消滅する特徴点の数も、第1のケースよりも多くなる。
(B3. Third case)
At the initial stage of snow jam, the number of feature points moved to the region Q1 in the 100th frame image is smaller than that in the first case. In addition, the number of feature points that disappear on the way is also larger than that in the first case.

<C.判定基準の設定>
サーバ装置100は、「A:スノージャムの発生初期状態」(以下、「A状態」とも称する)と、「B:スノージャムが数珠繋状態」(以下、「B状態」とも称する)と、「C:スノージャムが水面を覆っている状態」(以下、「C状態」とも称する)とを判定するように構成されている。
<C. Judgment criteria setting>
The server device 100 includes "A: initial state of occurrence of snow jam" (hereinafter, also referred to as "A state"), "B: state in which snow jam is connected in beads" (hereinafter, also referred to as "B state"), and ". C: It is configured to determine "a state in which the snow jam covers the water surface" (hereinafter, also referred to as "C state").

詳しくは、サーバ装置100は、100番目のフレーム画像における領域Q1内の特徴点の個数Rと、100番目のフレーム画像全体での特徴点の個数Z(以下、「残存個数Z」とも称する)と、個数Rに関する閾値Tha,Thbと、残存個数Zに関する閾値Thcとに基づき、スノージャムの発生状態を判定する。 Specifically, the server device 100 has the number R of feature points in the region Q1 in the 100th frame image and the number Z of feature points in the entire 100th frame image (hereinafter, also referred to as “remaining number Z”). , The occurrence state of snow jam is determined based on the threshold values Tha and Thb regarding the number R and the threshold values Thc regarding the remaining number Z.

以下では、「A:スノージャムの発生初期状態」の検出、「B:スノージャムが数珠繋状態」の検出、「C:スノージャムが水面を覆っている状態」の検出の順に、検出すべき優先度が高くなるように設定されている構成を例に挙げて説明する。 In the following, it should be detected in the order of "A: Initial state of snow jam occurrence", "B: Snow jam is connected in beads", and "C: Snow jam is covering the water surface". An example of a configuration set to have a high priority will be described.

本例の場合、残存個数Zに関する閾値Thcを、30個に設定する。また、個数Rに関する閾値Thbを15個に設定する。さらに、個数Rに関する閾値Thaを5個に設定する。 In the case of this example, the threshold value Thc regarding the remaining number Z is set to 30. Further, the threshold value Thb regarding the number R is set to 15. Further, the threshold value Th regarding the number R is set to 5.

100番目のフレーム画像において特徴点の残存個数が30個以上(閾値Thc以上)であれば、他の条件に関わらず、サーバ装置100は、「C:スノージャムが水面を覆っている状態」と判定する。この判定がなされた場合、サーバ装置100は、取水口700からの取水を停止させる制御を実行する。 If the number of remaining feature points in the 100th frame image is 30 or more (threshold value Thc or more), the server device 100 states that "C: Snow jam covers the water surface" regardless of other conditions. judge. When this determination is made, the server device 100 executes control to stop the water intake from the water intake port 700.

100番目のフレーム画像において領域Q1における特徴点の個数が15個以上(閾値Thb以上)であれば、「C:スノージャムが水面を覆っている状態」でないことを条件に、サーバ装置100は、「B:スノージャムが数珠繋状態」と判定する。この判定がなされた場合も、サーバ装置100は、取水口700からの取水を停止させる制御を実行する。 If the number of feature points in the region Q1 in the 100th frame image is 15 or more (threshold value Thb or more), the server device 100 is subjected to the condition that "C: Snow jam is not covering the water surface". Judged as "B: Snow jam is connected in a row". Even when this determination is made, the server device 100 executes control to stop the water intake from the water intake port 700.

100番目のフレーム画像において領域Q1における特徴点の個数が5個以上かつ15個未満(閾値Tha以上かつ閾値Thb未満)であれば、「C:スノージャムが水面を覆っている状態」ではないことを条件に、サーバ装置100は、「A:スノージャムの発生初期状態」と判定する。この判定がなされた場合、サーバ装置100は、所定の警告を端末装置200に通知する。なお、警告の通知先は、予め登録された機器であればよく、端末装置200に限定されるものではない。 If the number of feature points in the region Q1 in the 100th frame image is 5 or more and less than 15 (threshold value Th or more and less than the threshold value Thb), it means that "C: Snow jam covers the water surface". On the condition of, the server device 100 determines "A: initial state of occurrence of snow jam". When this determination is made, the server device 100 notifies the terminal device 200 of a predetermined warning. The notification destination of the warning may be any device registered in advance, and is not limited to the terminal device 200.

<D.検証>
監視カメラ300を用いた過去の撮像により得られた動画像データ(連続する複数のフレーム画像からなる動画像データ)を利用して、監視システム1の有効性(オプティカルフローによる検出の精度)について検証した。なお、本例では、監視カメラ300は、毎秒10回の撮像を行うものとする。
<D. Verification>
Verification of the effectiveness of the surveillance system 1 (accuracy of detection by optical flow) using the moving image data (moving image data consisting of a plurality of continuous frame images) obtained by past imaging using the surveillance camera 300. did. In this example, the surveillance camera 300 is assumed to perform imaging 10 times per second.

(d1.第1の検証結果)
図12は、夜間における動画像データに基づく検証結果を説明するための図である。
(D1. First verification result)
FIG. 12 is a diagram for explaining the verification result based on the moving image data at night.

(1)水路日誌
図12を参照して、水路日誌には、期間T5内の午前4時5分にスノージャムが発生していることが記録されている。水路日誌への記録は、現場の監視員が監視カメラ300によって得られた動画像をリアルタイムに目視で確認することにより行われる。
(1) Waterway diary With reference to FIG. 12, it is recorded in the waterway diary that snow jam occurred at 4:05 am within the period T5. The recording in the waterway diary is performed by the on-site observer visually confirming the moving image obtained by the surveillance camera 300 in real time.

(2)後日の確認結果
後日、別の者がこのような動画像を注視することにより、スノージャムの発生状態を確認した結果を、「目視確認」の時系列表に記載している。
(2) Confirmation result at a later date The result of confirming the occurrence state of snow jam by another person watching such a moving image at a later date is described in the time series table of "visual confirmation".

期間T1(17289フレーム画像分:約28.8分間)においては、注視の結果、「A:スノージャムの発生初期状態」が断続的に継続していることが判明した。期間T1の直後の期間T2(372フレーム画像分:約0.6分間)においては、注視の結果、状態が「B:スノージャムが数珠繋状態」となっていることが判明した。期間T2の直後の期間T3(1355フレーム画像分:約2.2分間)においては、状態が「C:スノージャムが水面を覆っている状態」となっていることが判明した。 During the period T1 (17289 frame image: about 28.8 minutes), as a result of gazing, it was found that "A: initial state of snow jam occurrence" was intermittently continued. In the period T2 (372 frame images: about 0.6 minutes) immediately after the period T1, as a result of gazing, it was found that the state was "B: Snow jam is connected in a row". In the period T3 (1355 frame image: about 2.2 minutes) immediately after the period T2, it was found that the state was "C: Snow jam covering the water surface".

期間T3の直後の期間T4(1806フレーム画像分:約3分間)においては、状態が「B:スノージャムが数珠繋状態」となっていることが判明した。つまり、スノージャムの発生量が、一旦、減少したが判明した。期間T4の直後の期間T5(703フレーム画像分:約1.2分間)においては、状態が、再度、「C:スノージャムが水面を覆っている状態」となっていることが判明した。水路日誌によれば、この期間T5においてスノージャムの発生が記録されている。期間T5の直後の期間T6(1054フレーム画像分:約1.8分間)においては、状態が「B:スノージャムが数珠繋状態」となっていることが判明した。つまり、スノージャムの発生量が、再度、減少したことが判明した。 In the period T4 (1806 frame image: about 3 minutes) immediately after the period T3, it was found that the state was "B: Snow jam is connected in beads". In other words, it was found that the amount of snow jam was once reduced. In the period T5 (703 frame image: about 1.2 minutes) immediately after the period T4, it was found that the state was again "C: a state in which the snow jam covers the water surface". According to the waterway diary, the occurrence of snow jam was recorded during this period T5. In the period T6 (1054 frame image: about 1.8 minutes) immediately after the period T5, it was found that the state was "B: Snow jam is connected in beads". In other words, it was found that the amount of snow jam generated decreased again.

期間T6の直後の期間T7(8893フレーム画像分:約14.8分間)においては、注視の結果、状態が、再度、「C:スノージャムが水面を覆っている状態」となっていることが判明した。 In the period T7 (8893 frame image: about 14.8 minutes) immediately after the period T6, as a result of gazing, the state is again "C: the state where the snow jam covers the water surface". found.

なお、期間T7の直後の期間T8(408フレーム画像分:約0.7分間)においては、監視カメラ300を意図的に移動させ、取水口700以外を撮像した。それゆえ、スノージャムが派生している状態にかかわらず、A状態,B状態,C状態の何れかの判定が行われていない。なお、期間T8の直後に監視カメラ300の位置を元の位置に戻した。 In the period T8 (408 frame images: about 0.7 minutes) immediately after the period T7, the surveillance camera 300 was intentionally moved to take an image other than the intake port 700. Therefore, regardless of the state in which the snow jam is derived, any of the A state, the B state, and the C state is not determined. Immediately after the period T8, the position of the surveillance camera 300 was returned to the original position.

期間T8の直後の期間T9(4190フレーム画像分:約7分間)においては、状態が、「C:スノージャムが水面を覆っている状態」となっていることが判明した。 In the period T9 (4190 frame image: about 7 minutes) immediately after the period T8, it was found that the state was "C: Snow jam covering the water surface".

なお、人間の目視では、フレーム画像の各々を識別できないため、上述したフレーム数は参考値である。 Since each of the frame images cannot be discriminated by human eyes, the above-mentioned number of frames is a reference value.

(3)オプティカルフローを用いた検出結果
期間T1においては、上述した特徴点の移動に基づく状態判定によって、「A:スノージャムの発生初期状態」が断続的に継続していることが検出された。具体的には、約172回ないし173回(≒17289フレーム÷100フレーム)の検出において、A状態であることが21回検出された。
(3) Detection result using optical flow During the period T1, it was detected that "A: Initial state of snow jam occurrence" was intermittently continued by the state determination based on the movement of the feature points described above. .. Specifically, in the detection of about 172 to 173 times (≈17289 frames ÷ 100 frames), the A state was detected 21 times.

期間T2においては、「A:スノージャムの発生初期状態」と、「C:スノージャムが水面を覆っている状態」とが検出された。具体的には、4回の検出において、A状態であることが3回、C状態であることが1回検出された。なお、図11では、A状態とC状態とが同じタイミングで生じているかのような記載となっているが、これは便宜的なものであって、A状態とC状態との発生検出タイミングは重複するものではない。このことは、以降の期間T3~T9においても同様である。 During the period T2, "A: initial state of occurrence of snow jam" and "C: state of snow jam covering the water surface" were detected. Specifically, in the four detections, the A state was detected three times and the C state was detected once. In FIG. 11, it is described as if the A state and the C state occur at the same timing, but this is for convenience, and the occurrence detection timing of the A state and the C state is There is no duplication. This also applies to the subsequent periods T3 to T9.

期間T3においては、「A:スノージャムの発生初期状態」と、「B:スノージャムが数珠繋状態」と、「C:スノージャムが水面を覆っている状態」とが検出された。具体的には、14回の検出において、A状態であることが3回、B状態であることが8回、C状態であることが3回検出された。 During the period T3, "A: initial state of occurrence of snow jam", "B: state of beaded snow jam", and "C: state of snow jam covering the water surface" were detected. Specifically, in the 14 detections, the A state was detected 3 times, the B state was detected 8 times, and the C state was detected 3 times.

期間T4においては、A状態であることが6回、B状態であることが10回、C状態であることが2回検出された。期間T5においては、A状態であることが1回、B状態であることが4回、C状態であることが1回検出された。水路日誌によれば、上述したように、この期間T5においてスノージャムの発生が記録されている。 In the period T4, the A state was detected 6 times, the B state was detected 10 times, and the C state was detected 2 times. In the period T5, the A state was detected once, the B state was detected four times, and the C state was detected once. According to the waterway diary, as mentioned above, the occurrence of snow jam is recorded during this period T5.

以下、同様に、期間T6においては、A状態であることが4回、B状態であることが6回検出された。期間T7においては、A状態であることが13回、B状態であることが65回、C状態であることが6回検出された。期間T8では、上述したように、監視カメラ300を意図的に移動させ、取水口700以外を撮像したため、A状態,B状態,C状態の何れかの検出が行われていない。期間T9においては、A状態であることが3回、B状態であることが27回、C状態であることが10回検出された。 Hereinafter, similarly, in the period T6, the A state was detected 4 times and the B state was detected 6 times. In the period T7, the A state was detected 13 times, the B state was detected 65 times, and the C state was detected 6 times. In the period T8, as described above, since the surveillance camera 300 was intentionally moved to take an image other than the intake port 700, any one of the A state, the B state, and the C state was not detected. In the period T9, the A state was detected 3 times, the B state was detected 27 times, and the C state was detected 10 times.

後日の目視による確認結果と比較すれば明らかなように、オプティカルフローによる検出結果は、概ね正しい結果を示していると言える。特に、水路日誌に記載されたスノージャムの発生時刻よりも前に、スノージャムの発生を検出することができている。このように、監視システム1によれば、スノージャムの発生を自動的に検出することができる。 As is clear from the comparison with the visual confirmation results at a later date, it can be said that the detection results by optical flow generally show correct results. In particular, the occurrence of snow jam can be detected before the time of occurrence of snow jam described in the waterway diary. As described above, according to the monitoring system 1, the occurrence of snow jam can be automatically detected.

また、スノージャムが数珠繋になった場合、設備にスノージャムが取り込まれると、上述したように、設備での発電が停止してしまう。しかしながら、監視システム1では、「B:スノージャムが数珠繋状態」になったことと、「C:スノージャムが水面を覆っている状態」になったこととを検出できるため、これらの検出タイミングで取水(設備への給水)の停止を停止する制御を行うことより、スノージャムの設備への流れ込によって発電が停止してしまうことを防止できる。 In addition, when the snow jam is connected in a row, if the snow jam is taken into the equipment, the power generation in the equipment is stopped as described above. However, since the monitoring system 1 can detect that "B: snow jam is in a beaded state" and "C: snow jam is in a state of covering the water surface", these detection timings. By controlling to stop the stop of water intake (water supply to the equipment), it is possible to prevent the power generation from stopping due to the inflow of snow jam into the equipment.

(d2.第2の検証結果)
図13は、昼間における動画像データに基づく検証結果を説明するための図である。
(D2. Second verification result)
FIG. 13 is a diagram for explaining the verification result based on the moving image data in the daytime.

(1)水路日誌
図13を参照して、水路日誌には、期間T14内の15時5分~6分の間に取水を停止したことが記載されている。さらに、水路日誌には、期間T15内の15時6分~7分の間に放流を開始したことが記載されている。
(1) Waterway diary With reference to FIG. 13, it is described in the waterway diary that water intake was stopped between 15:05 and 6 minutes within the period T14. Furthermore, it is stated in the waterway diary that the discharge was started between 15:06 and 7 minutes within the period T15.

(2)後日の確認結果
図12と同様、後日、別の者がこのような動画像を注視することにより、スノージャムの発生状態を確認した結果を、「目視確認」の時系列表に記載している。
(2) Confirmation result at a later date As in FIG. 12, the result of confirming the occurrence state of snow jam by another person watching such a moving image at a later date is described in the time series table of "visual confirmation". is doing.

期間T11および期間T13は、監視カメラ300を意図的に移動させ、取水口700以外を撮像した期間である。それゆえ、スノージャムの発生状態を判定できていない。 The period T11 and the period T13 are periods in which the surveillance camera 300 is intentionally moved and images other than the intake port 700 are imaged. Therefore, the state of occurrence of snow jam cannot be determined.

期間T11と期間T13との間の期間T12(724フレーム画像分:約1.2分間)においては、注視の結果、状態が「C:スノージャムが水面を覆っている状態」となっていることが判明した。また、期間T13の直後の期間T14(4250フレーム画像分:約7分間)においても、期間T12と同様、状態が「C:スノージャムが水面を覆っている状態」となっていることが判明した。 In the period T12 (724 frame image: about 1.2 minutes) between the period T11 and the period T13, the state is "C: Snow jam covering the water surface" as a result of gaze. There was found. Also, in the period T14 (4250 frame image: about 7 minutes) immediately after the period T13, it was found that the state was "C: the state where the snow jam covers the water surface" as in the period T12. ..

期間T15では、C状態からの放流が開始されたため、スノージャムの状態ではないが、スノージャムに類似した状態が発生していることが視認された。期間T15の直後では、スノージャムの発生が視認されず、水が流れている状態となっていることが判明した。 In the period T15, since the discharge from the C state was started, it was confirmed that a state similar to the snow jam occurred, although it was not in the snow jam state. Immediately after the period T15, the occurrence of snow jam was not visually recognized, and it was found that water was flowing.

(3)オプティカルフローを用いた検出結果
期間T12において、A状態であることが1回、B状態であることが4回、C状態であることが2回検出された。期間T14においては、A状態であることが12回、B状態であることが23回、C状態であることが2回検出された。
(3) Detection result using optical flow During the period T12, the A state was detected once, the B state was detected four times, and the C state was detected twice. During the period T14, the A state was detected 12 times, the B state was detected 23 times, and the C state was detected twice.

放流が開始された直後の期間T15においては、A状態,B状態,C状態の何れかの状態も検出されなかった。このように、オプティカルフローを利用した監視システム1によれば、「スノージャムの状態ではないが、スノージャムに類似した状態」(期間T15の状態)であっても、「スノージャムの状態である」との誤検出はなされない。このように、監視システム1によれば、放流がなされた場合であっても、精度の高い検出を行うことが可能となる。 In the period T15 immediately after the start of discharge, none of the A state, B state, and C state was detected. As described above, according to the monitoring system 1 using the optical flow, even if it is "a state similar to snow jam, although it is not a snow jam state" (a state of period T15), it is a "snow jam state". Is not falsely detected. As described above, according to the monitoring system 1, it is possible to perform highly accurate detection even when the water is discharged.

<E.機能的構成>
図14は、監視システム1のサーバ装置100の機能的構成を説明するための機能ブロック図である。
<E. Functional configuration>
FIG. 14 is a functional block diagram for explaining the functional configuration of the server device 100 of the monitoring system 1.

図14を参照して、サーバ装置100は、監視カメラ300と、取水装置400と、端末装置200とに通信可能に接続されている。サーバ装置100は、通信IF(Interface)部101と、制御部102とを備える。 With reference to FIG. 14, the server device 100 is communicably connected to the surveillance camera 300, the water intake device 400, and the terminal device 200. The server device 100 includes a communication IF (Interface) unit 101 and a control unit 102.

通信IF部101は、サーバ装置100が他の装置と通信するためのインターフェイスである。通信IF部101は、受信部111と、送信部112とを含む。 The communication IF unit 101 is an interface for the server device 100 to communicate with another device. The communication IF unit 101 includes a receiving unit 111 and a transmitting unit 112.

制御部102は、サーバ装置100の全体的な動作を制御する。制御部102は、典型的には、プロセッサ151(図16参照)がプログラムを実行することによって実現される。制御部102は、基準座標設定部141と、特徴点設定部142と、検出部143と、判定部144と、給水制御部145と、報知部146とを含む。 The control unit 102 controls the overall operation of the server device 100. The control unit 102 is typically realized by the processor 151 (see FIG. 16) executing a program. The control unit 102 includes a reference coordinate setting unit 141, a feature point setting unit 142, a detection unit 143, a determination unit 144, a water supply control unit 145, and a notification unit 146.

受信部111は、設備に水を供給する水路500を撮像する監視カメラ300から、連続してフレーム画像を受信する。 The receiving unit 111 continuously receives frame images from the surveillance camera 300 that images the water channel 500 that supplies water to the equipment.

基準座標設定部141は、外部入力(たとえば、ユーザ操作)に基づき、複数の基準座標Diを設定する。なお、基準座標Diがデフォルトで設定されている場合等には、外部入力は必ずしも必要でない。各基準座標Diは、特徴点設定部142に送られる。 The reference coordinate setting unit 141 sets a plurality of reference coordinates Di based on an external input (for example, a user operation). In addition, when the reference coordinate Di is set by default, external input is not always necessary. Each reference coordinate Di is sent to the feature point setting unit 142.

制御部102が、スノージャムの検出処理の開始を指示する入力(たとえば、ユーザ操作)を受け付けると、特徴点設定部142は、当該入力の時点で受信されたフレーム画像を最初のフレーム画像(100枚中の1枚目のフレーム画像)として、当該最初のフレーム画像の領域Q2において40個の特徴点を設定する(図6参照)。設定された特徴点の座標Eiは、検出部143に送られる。 When the control unit 102 receives an input (for example, a user operation) instructing the start of the snow jam detection process, the feature point setting unit 142 sets the frame image received at the time of the input as the first frame image (100). As the first frame image in the sheet), 40 feature points are set in the area Q2 of the first frame image (see FIG. 6). The coordinates Ei of the set feature points are sent to the detection unit 143.

検出部143は、撮像により得られた連続する100枚のフレーム画像のうちの最初のフレーム画像において設定された40個の特徴点の移動を、100枚のフレーム画像にわたり特徴点毎に検出する。つまり、検出部143により特徴点の追跡がなされる。なお、「100枚のフレーム画像にわたり特徴点毎に検出する」とは、99回(100枚のフレーム画像におけるフレーム画像間の個数に相当)の移動を追跡することを意味する。 The detection unit 143 detects the movement of 40 feature points set in the first frame image out of 100 consecutive frame images obtained by imaging for each feature point over 100 frame images. That is, the detection unit 143 tracks the feature points. Note that "detecting each feature point over 100 frame images" means tracking 99 movements (corresponding to the number of frames between frame images in 100 frame images).

検出部143は、検出結果を判定部144に送る。具体的には、検出部143は、100番目のフレーム画像全体における残存個数Zと、100番目のフレーム画像の領域Q1における特徴点の個数Rとを、判定部144に送る。 The detection unit 143 sends the detection result to the determination unit 144. Specifically, the detection unit 143 sends the remaining number Z in the entire 100th frame image and the number R of feature points in the region Q1 of the 100th frame image to the determination unit 144.

判定部144は、スノージャムの発生状態が、「A:スノージャムの発生初期状態」と、「B:スノージャムが数珠繋状態」と、「C:スノージャムが水面を覆っている状態」とのいずれの状態であるかを判定する。 The determination unit 144 states that the snow jam occurrence state is "A: initial state of snow jam occurrence", "B: snow jam is connected in beads", and "C: snow jam is covering the water surface". Which state is determined.

判定部144は、上述したB状態に関し、100枚のフレーム画像のうちの最後のフレーム画像における領域Q1に存在する特徴点の個数が、閾値Thb(15個)以上と判定されたことに基づき、水路500にスノージャムが存在していると判定する。詳しくは、判定部144は、スノージャムの発生状態が「B:スノージャムが数珠繋状態」(B状態)であると判定する。 The determination unit 144 is based on the determination that the number of feature points existing in the region Q1 in the last frame image of the 100 frame images is the threshold value Thb (15) or more in relation to the above-mentioned B state. It is determined that snow jam exists in the water channel 500. Specifically, the determination unit 144 determines that the snow jam occurrence state is "B: the snow jam is in a beaded state" (B state).

また、判定部144は、上述したC状態に関し、最後のフレーム画像における特徴点の個数が閾値Thc(30個)以上であると判定された場合には、水路500にスノージャムが存在していると判定する。詳しくは、判定部144は、スノージャムの発生状態が「C:スノージャムが水面を覆っている状態」(C状態)であると判定する。より詳しくは、判定部144は、最後のフレーム画像における領域Q1に存在する特徴点の個数が閾値Thb(15個)未満と判定された場合であっても、最後のフレーム画像における特徴点の個数が閾値Thc(30個)以上であると判定された場合には、水路500にスノージャムが存在していると判定する。なお、本実施の形態の例では、C状態の方がB状態よりもスノージャムの発生度合いが大きいため、C状態の判定をB状態の判定よりも優先する。 Further, when the determination unit 144 determines that the number of feature points in the last frame image is the threshold value Thc (30) or more in relation to the above-mentioned C state, snow jam is present in the water channel 500. Is determined. Specifically, the determination unit 144 determines that the snow jam occurrence state is "C: a state in which the snow jam covers the water surface" (C state). More specifically, the determination unit 144 determines that the number of feature points existing in the region Q1 in the last frame image is less than the threshold value Thb (15), but the number of feature points in the last frame image. When it is determined that the threshold value is Thc (30 pieces) or more, it is determined that snow jam is present in the water channel 500. In the example of the present embodiment, since the degree of occurrence of snow jam is larger in the C state than in the B state, the determination of the C state has priority over the determination of the B state.

さらに、判定部144は、最後のフレーム画像(100番目のフレーム画像)における領域Q1に存在する特徴点の個数が、閾値Thb(15個)未満かつ閾値Tha(5個)以上の場合、スノージャムの発生状態が「A:スノージャムの発生初期状態」(A状態)であると判定する。 Further, the determination unit 144 snow jams when the number of feature points existing in the region Q1 in the last frame image (100th frame image) is less than the threshold Thb (15) and the threshold Tha (5) or more. It is determined that the occurrence state of is "A: initial state of occurrence of snow jam" (A state).

判定部144は、B状態またはC状態と判定すると、給水制御部145に所定の指示を送信する。この場合、給水制御部145は、判定部144から上記指示を受け付けると、設備の取水装置400に対し、送信部112を介して取水停止命令を送信する。取水装置400は、取水停止命令を受信すると、水路500から設備への水の給水(取水)を停止する。 When the determination unit 144 determines that the state is B or C, the determination unit 144 transmits a predetermined instruction to the water supply control unit 145. In this case, when the water supply control unit 145 receives the above instruction from the determination unit 144, the water supply control unit 145 transmits a water intake stop command to the water intake device 400 of the equipment via the transmission unit 112. Upon receiving the water intake stop command, the water intake device 400 stops the water supply (water intake) from the water channel 500 to the equipment.

また、判定部144は、A状態と判定すると、報知部146に対し、予め定められた指示を送信する。この場合、報知部146は、判定部144から上記指示を受け付けると、端末装置200に対し、送信部112を介して予め定められた報知を行う。典型的には、報知部146は、端末装置200に対して、スノージャムが発生したことを通知する。 Further, when the determination unit 144 determines that the state is A, the determination unit 144 transmits a predetermined instruction to the notification unit 146. In this case, when the notification unit 146 receives the above instruction from the determination unit 144, the notification unit 146 performs a predetermined notification to the terminal device 200 via the transmission unit 112. Typically, the notification unit 146 notifies the terminal device 200 that a snow jam has occurred.

<F.制御構造>
図15は、サーバ装置100において実行される処理の前半部分の流れを説明するためのフロー図である。
<F. Control structure>
FIG. 15 is a flow chart for explaining the flow of the first half of the processing executed by the server device 100.

図15を参照して、ステップS101において、サーバ装置100(詳しくは、プロセッサ151)は、監視カメラ300によって得られたフレーム画像の取得を開始する。ステップS102において、サーバ装置100は、予め定められた変数u,vの値を1にリセットする。 With reference to FIG. 15, in step S101, the server device 100 (specifically, the processor 151) starts acquiring the frame image obtained by the surveillance camera 300. In step S102, the server device 100 resets the values of the predetermined variables u and v to 1.

ステップS103において、サーバ装置100は、第uの期間におけるv番目のフレーム画像の領域Q2内において、40個の特徴点を設定する。ステップS104において、サーバ装置100は、変数vの値をインクリメントする。すなわち、サーバ装置100は、vの値を1だけ増加させる。 In step S103, the server device 100 sets 40 feature points in the area Q2 of the v-th frame image in the u-th period. In step S104, the server device 100 increments the value of the variable v. That is, the server device 100 increases the value of v by 1.

ステップS105において、サーバ装置100は、第uの期間におけるv番目のフレーム画像における各特徴点を追跡する。ステップS106において、サーバ装置100は、変数vの値が100以上になったか否かを判断する。 In step S105, the server device 100 tracks each feature point in the vth frame image in the uth period. In step S106, the server device 100 determines whether or not the value of the variable v is 100 or more.

サーバ装置100は、vの値が100未満であると判断すると(ステップS106においてNO)、処理をステップS104に進める。サーバ装置100は、vの値が100以上であると判断すると(ステップS106においてYES)、ステップS107において、v番目のフレーム画像全体に含まれている特徴点の個数(すなわち、残存個数Z)を算出する。次いで、ステップS108において、サーバ装置100は、v番目のフレーム画像の領域Q1に含まれている特徴点の個数Rを算出する。その後、サーバ装置100は、処理をステップS109(図15)に進める。 When the server device 100 determines that the value of v is less than 100 (NO in step S106), the server device 100 proceeds to the process in step S104. When the server device 100 determines that the value of v is 100 or more (YES in step S106), in step S107, the number of feature points included in the entire v-th frame image (that is, the remaining number Z) is determined. calculate. Next, in step S108, the server device 100 calculates the number R of feature points included in the area Q1 of the v-th frame image. After that, the server device 100 advances the process to step S109 (FIG. 15).

図16は、サーバ装置100において実行される処理の後半部分の流れを説明するためのフロー図である。 FIG. 16 is a flow chart for explaining the flow of the latter half of the processing executed by the server device 100.

図16を参照して、ステップS109において、サーバ装置100(詳しくは、プロセッサ151)は、残存個数Zが30個(閾値Thc)以上であるか否かを判断する。サーバ装置100は、残存個数Zが30個以上であると判断すると(ステップS109においてYES)、ステップS114において、スノージャムの発生状態が「C:スノージャムが水面を覆っている状態」であると判定する。その後、サーバ装置100は、処理をステップS112に進める。 With reference to FIG. 16, in step S109, the server device 100 (specifically, the processor 151) determines whether or not the remaining number Z is 30 (threshold value Thc) or more. When the server device 100 determines that the remaining number Z is 30 or more (YES in step S109), the server device 100 determines that the snow jam generation state is "C: a state in which the snow jam covers the water surface" in step S114. judge. After that, the server device 100 advances the process to step S112.

サーバ装置100は、残存個数Zが30個未満であると判断すると(ステップS109においてNO)、ステップS110において、領域Q1に含まれる特徴点の個数Rが15個(閾値Thb)以上であるか否かを判断する。サーバ装置100は、個数Rが15個以上であると判断すると(ステップS110においてYES)、ステップS115において、スノージャムの発生状態が「B:スノージャムが数珠繋状態」であると判定する。その後、サーバ装置100は、処理をステップS112に進める。 When the server device 100 determines that the remaining number Z is less than 30 (NO in step S109), whether or not the number R of the feature points included in the region Q1 is 15 (threshold value Thb) or more in step S110. To judge. When the server device 100 determines that the number R is 15 or more (YES in step S110), the server device 100 determines in step S115 that the snow jam generation state is "B: the snow jam is in a beaded state". After that, the server device 100 advances the process to step S112.

サーバ装置100は、個数Rが15個未満であると判断すると(ステップS110においてNO)、ステップS111において、領域Q1に含まれる特徴点の個数Rが5個(閾値Tha)以上であるか否かを判断する。サーバ装置100は、個数Rが5個以上であると判断すると(ステップS111においてYES)、ステップS116において、スノージャムの発生状態が「A:スノージャムの発生初期状態」であると判定する。その後、サーバ装置100は、処理をステップS112に進める。 When the server device 100 determines that the number R is less than 15 (NO in step S110), whether or not the number R of the feature points included in the region Q1 is 5 (threshold value Tha) or more in step S111. To judge. When the server device 100 determines that the number R is 5 or more (YES in step S111), the server device 100 determines that the snow jam occurrence state is "A: snow jam occurrence initial state" in step S116. After that, the server device 100 advances the process to step S112.

ステップS112において、サーバ装置100は、変数uの値をインクリメントする。ステップS113において、サーバ装置100は、変数vの値を1にリセットする。その後、サーバ装置100は、処理をステップS103(図14)に進めることにより、次の100枚のフレーム画像を用いたスノージャムの検出処理を実行する。 In step S112, the server device 100 increments the value of the variable u. In step S113, the server device 100 resets the value of the variable v to 1. After that, the server device 100 executes the snow jam detection process using the next 100 frame images by advancing the process to step S103 (FIG. 14).

<G.ハードウェア構成>
図17は、サーバ装置100のハードウェア構成の典型例を表した図である。
<G. Hardware configuration>
FIG. 17 is a diagram showing a typical example of the hardware configuration of the server device 100.

図17を参照して、サーバ装置100は、主たる構成要素として、プログラムを実行するプロセッサ151と、データを不揮発的に格納するROM152と、プロセッサ151によるプログラムの実行により生成されたデータ、又は入力装置を介して入力されたデータを揮発的に格納するRAM153と、データを不揮発的に格納するHDD154と、通信IF(Interface)155と、操作キー156と、電源回路157と、ディスプレイ158とを含む。各構成要素は、相互にデータバスによって接続されている。なお、通信IF155は、他の機器と間における通信を行なうためのインターフェイスである。 With reference to FIG. 17, the server device 100 has, as main components, a processor 151 for executing a program, a ROM 152 for storing data non-volatilely, and data or an input device generated by executing the program by the processor 151. It includes a RAM 153 that volatilely stores the data input via the data, an HDD 154 that stores the data non-volatilely, a communication IF (Interface) 155, an operation key 156, a power supply circuit 157, and a display 158. Each component is connected to each other by a data bus. The communication IF 155 is an interface for communicating with other devices.

サーバ装置100における処理は、各ハードウェアおよびプロセッサ151により実行されるソフトウェアによって実現される。このようなソフトウェアは、HDD154に予め記憶されている場合がある。また、ソフトウェアは、その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、読取装置によりその記憶媒体から読み取られて、あるいは、通信IF155等を介してダウンロードされた後、HDD154に一旦格納される。そのソフトウェアは、プロセッサ151によってHDD154から読み出され、RAM153に実行可能なプログラムの形式で格納される。プロセッサ151は、そのプログラムを実行する。 The processing in the server device 100 is realized by the software executed by each hardware and the processor 151. Such software may be stored in the HDD 154 in advance. In addition, the software may be stored in other storage media and distributed as a program product. Alternatively, the software may be provided as a downloadable program product by an information provider connected to the so-called Internet. Such software is read from the storage medium by a reading device, or downloaded via a communication IF 155 or the like, and then temporarily stored in the HDD 154. The software is read from the HDD 154 by the processor 151 and stored in the RAM 153 in the form of an executable program. Processor 151 executes the program.

同図に示されるサーバ装置100を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM153、HDD154、記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、サーバ装置100の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。 Each component constituting the server device 100 shown in the figure is a general one. Therefore, it can be said that an essential part of the present invention is RAM 153, HDD 154, software stored in a storage medium, or software that can be downloaded via a network. Since the operation of each hardware of the server device 100 is well known, the detailed description will not be repeated.

なお、端末装置200は、サーバ装置100と同様な構成を備えるため、端末装置200のハードウェア構成については、繰り返し説明しない。 Since the terminal device 200 has the same configuration as the server device 100, the hardware configuration of the terminal device 200 will not be repeatedly described.

<H.小括>
上述した処理の一部を抽出すると、以下のとおりである。
<H. Summary>
Extracting a part of the above-mentioned processing is as follows.

(1)監視システム1は、設備に水を供給する水路500を撮像する監視カメラ300と、上記撮像により得られた連続する複数のフレーム画像のうちの最初のフレーム画像において設定された予め定められた個数の特徴点の移動を、上記複数のフレーム画像にわたり上記特徴点毎に検出する検出部143と、上記複数のフレーム画像のうちの最後のフレーム画像における領域Q1に存在する上記特徴点の個数が、閾値Thb以上と判定されたことに基づき、水路500にスノージャムが存在していると判定する判定部144とを備える。このような構成によれば、水路500を流れるスノージャムを精度良く検出することが可能となる。 (1) The monitoring system 1 is predetermined by a surveillance camera 300 that images a water channel 500 that supplies water to the equipment, and a predetermined frame image that is set in the first frame image among a plurality of continuous frame images obtained by the imaging. The number of feature points existing in the detection unit 143 that detects the movement of the number of feature points for each feature point over the plurality of frame images and the region Q1 in the last frame image of the plurality of frame images. However, it is provided with a determination unit 144 for determining that snow jam is present in the water channel 500 based on the determination that the threshold value is Thb or higher. With such a configuration, it becomes possible to accurately detect the snow jam flowing through the water channel 500.

(2)また、判定部144は、上記最後のフレーム画像における領域Q1に存在する上記特徴点の個数が閾値Thb未満と判定された場合であっても、上記最後のフレーム画像における上記特徴点の個数が閾値Thc以上であると判定された場合には、水路500にスノージャムが存在していると判定する。この場合にも、水路500を流れるスノージャムを精度良く検出することが可能となる。 (2) Further, even when the determination unit 144 determines that the number of the feature points existing in the region Q1 in the last frame image is less than the threshold value Thb, the determination unit 144 of the feature points in the last frame image. When it is determined that the number is equal to or greater than the threshold value Thc, it is determined that snow jam is present in the water channel 500. Also in this case, it is possible to accurately detect the snow jam flowing through the water channel 500.

(3)監視システム1は、水路500にスノージャムが存在していると判断されたことに基づき、上記設備への水の供給を停止させる給水制御部145をさらに備える。このような構成によれば、設備が停止してしまうことを防止できる。 (3) The monitoring system 1 further includes a water supply control unit 145 that stops the supply of water to the above equipment based on the determination that snow jam exists in the water channel 500. With such a configuration, it is possible to prevent the equipment from stopping.

(4)監視システム1は、上記最後のフレーム画像における領域Q1に存在する上記特徴点の個数が、閾値Thb未満かつ閾値Tha以上と判定されたことに基づき、予め定められた報知を行う報知部146をさらに備える。このような構成によれば、設備の管理者等は、スノージャムの発生を早期に知ることができる。 (4) The monitoring system 1 is a notification unit that performs predetermined notification based on the determination that the number of the feature points existing in the region Q1 in the last frame image is less than the threshold value Thb and equal to or more than the threshold value Tha. Further equipped with 146. With such a configuration, the equipment manager and the like can know the occurrence of snow jam at an early stage.

(5)監視システム1は、上記最初のフレーム画像の領域Q2において上記予め定められた個数の特徴点を設定する特徴点設定部142をさらに備える。また、領域Q1は、領域Q2よりも水路500の下流側の領域である。 (5) The monitoring system 1 further includes a feature point setting unit 142 for setting the predetermined number of feature points in the area Q2 of the first frame image. Further, the region Q1 is a region on the downstream side of the water channel 500 with respect to the region Q2.

(6)特徴点設定部142は、領域Q2における上記予め定められた個数の予め指定された座標を基準として、上記複数の特徴点の各々を設定する。このような構成によれば、ユーザ等が座標を指定するだけで、サーバ装置100が自動的に特徴点を設定(探索)してくれる。 (6) The feature point setting unit 142 sets each of the plurality of feature points with reference to the predetermined number of predetermined coordinates in the area Q2. According to such a configuration, the server device 100 automatically sets (searches) the feature points only by the user or the like specifying the coordinates.

(7)特徴点設定部142は、上記指定された座標(基準座標)を含む予め定められた大きさの要素領域Aiにおいて、1つの上記特徴点を設定する。このような構成によれば、特徴点の座標が重複してしまうことを低減することができる。 (7) The feature point setting unit 142 sets one of the feature points in the element region Ai having a predetermined size including the designated coordinates (reference coordinates). According to such a configuration, it is possible to reduce the overlap of the coordinates of the feature points.

(8)領域Q1は、上記設備に水路500の水を取り込む取水口700の画像が表示された領域と少なくとも一部が重複する。取水口700には柵が設置されているため、スノージャムは取水口700に溜まりやすい。それゆえ、このような構成によれば、スノージャムの発生を精度良く検出可能となる。 (8) The area Q1 partially overlaps with the area where the image of the intake port 700 that takes in the water of the water channel 500 into the above equipment is displayed. Since a fence is installed at the intake 700, snow jam tends to collect at the intake 700. Therefore, according to such a configuration, the occurrence of snow jam can be detected with high accuracy.

<I.変形例>
(1)上記においては、取水口の場所を監視カメラ300により撮像したが、これに限定されるものではない。ただし、取水口には、作業員が取水口付近を映像によって確認する目的で監視カメラが設けられていることが多く、この監視カメラを利用することにより、コストを抑えることができる。また、取水口700では、柵によって浮遊物が滞留しやすいため、他の場所に比べて、浮遊物の存在の有無を検出するのに好適である。
<I. Modification example>
(1) In the above, the location of the water intake is imaged by the surveillance camera 300, but the present invention is not limited to this. However, the water intake is often provided with a surveillance camera for the purpose of allowing workers to check the vicinity of the water intake by video, and by using this surveillance camera, the cost can be suppressed. Further, since the floating matter is likely to stay in the intake port 700 due to the fence, it is suitable for detecting the presence or absence of the floating matter as compared with other places.

(2)水路500から水の供給を受ける設備は、発電設備(発電所)に限定されるものではない。 (2) The equipment that receives water from the waterway 500 is not limited to the power generation equipment (power plant).

<誤検知要因>
図18および図19を参照して、オプティカルフローまたは学習済みモデルを用いた場合の誤検知要因について説明する。
<False detection factor>
With reference to FIGS. 18 and 19, false positive factors when using an optical flow or a trained model will be described.

図18は、誤検知要因を表わす図である。写真Aにおいて、領域1800は、水の流れの方向に照明の反射が伸び縮みしている状態を示している。この伸び縮みは、オプティカルフローにおいて特徴点の誤検知の要因となり得る。写真Bは、昼間の水路の表面で光が反射している状態を表わす。画像Cは、写真Bの画像データを用いて学習済みモデル(「PoC1モデル」という場合もある)による2値化処理を行なって得られた画像である。写真Bに基づく画像Cの場合、瞬間値として、観察時の雪面積比率が35.2%であるとして誤検知されている。また、5分間の平均値をスノージャムの発生の検知に用いた場合には、雪面積比率が29.3%であるとして、誤検知されている。 FIG. 18 is a diagram showing a false positive factor. In Photo A, region 1800 shows a state in which the reflection of illumination expands and contracts in the direction of the flow of water. This expansion and contraction can be a factor in false detection of feature points in optical flow. Photo B shows a state in which light is reflected on the surface of the waterway in the daytime. The image C is an image obtained by performing binarization processing by a trained model (sometimes referred to as a “PoC1 model”) using the image data of the photograph B. In the case of the image C based on the photograph B, it is erroneously detected that the snow area ratio at the time of observation is 35.2% as an instantaneous value. Further, when the average value for 5 minutes is used for detecting the occurrence of snow jam, it is erroneously detected as the snow area ratio is 29.3%.

本実施の形態において、PoC1モデルとは、ある水路を撮影して得られた画像を用いてスノージャムを検知するために使用された画像を用いて学習させることにより得られた学習済みモデルをいう。PoC1モデルによれば、監視システム1は、流雪に敏感に反応するものの、水面からの反射をスノージャムと誤検知する場合もある。 In the present embodiment, the PoC1 model refers to a trained model obtained by training using an image used for detecting snow jam using an image obtained by photographing a certain waterway. .. According to the PoC1 model, the monitoring system 1 reacts sensitively to snow flow, but may erroneously detect reflections from the water surface as snow jam.

PoC2モデルとは、PoC1モデルに対して、誤検知要因が写った画像、あるいは、他の場所(例えば、発電所)のスノージャム画像を追加学習させることにより得られた学習済みモデルをいう。PoC2モデルによれば、PoC1モデルが使用される場合に生じた誤検知を大幅に削減できる。 The PoC2 model refers to a trained model obtained by additionally learning an image showing a false positive factor or a snow jam image of another place (for example, a power plant) on the PoC1 model. According to the PoC2 model, false positives that occur when the PoC1 model is used can be significantly reduced.

図19は、オプティカルフローを用いた検出における特徴点の基準座標および枠の配置の一例を表わす図である。状態(A)は、映像において浮遊物が横方向に流れる場合における特徴点および枠1910の配置の一例を表わす。状態(B)は、映像において浮遊物が斜め方向に流れる場合における特徴点および枠1920の配置の一例を表わす。 FIG. 19 is a diagram showing an example of reference coordinates of feature points and arrangement of frames in detection using optical flow. The state (A) represents an example of the arrangement of the feature points and the frame 1910 when the suspended matter flows in the lateral direction in the image. The state (B) represents an example of the arrangement of the feature points and the frame 1920 when the floating matter flows in the oblique direction in the image.

図19に示されるようなオプティカルフローモデルを採用する場合、浮遊物が流れる方向およびその流れる速さに応じて、領域Q1としての枠1910,1920の大きさ、形状および位置を設定する必要がある。しかしながら、浮遊物の流れる方向や速さは、観察対象となる水路の流れその他の実際の環境に大きく依存する。したがって、監視システムが稼働する前に事前チューニングを行なうことが難しい。 When adopting the optical flow model as shown in FIG. 19, it is necessary to set the size, shape and position of the frames 1910 and 1920 as the region Q1 according to the direction in which the suspended matter flows and the speed at which the suspended matter flows. .. However, the flow direction and speed of the suspended matter greatly depend on the flow of the channel to be observed and other actual environments. Therefore, it is difficult to perform pre-tuning before the monitoring system is in operation.

図20を参照して、ある実施の形態に従う監視システムの制御構造について説明する。図20は、監視システムとして機能するサーバ装置100のプロセッサ151が実行する処理の一部を表わすフローチャートである。 A control structure of a monitoring system according to an embodiment will be described with reference to FIG. FIG. 20 is a flowchart showing a part of the processing executed by the processor 151 of the server device 100 functioning as a monitoring system.

ステップS2010にて、プロセッサ151は、フレーム画像の取得を開始する。フレーム画像は、例えば、監視カメラ300による撮影画像として、サーバ装置100に送信される。 In step S2010, the processor 151 starts acquiring the frame image. The frame image is transmitted to the server device 100 as, for example, an image captured by the surveillance camera 300.

ステップS2015にて、プロセッサ151は、初期化のため、変数u,vの値を1にリセットする。 In step S2015, the processor 151 resets the values of the variables u and v to 1 for initialization.

ステップS2020にて、プロセッサ151は、第uの期間におけるv番目のフレーム画像の領域Q2内において、予め設定された数(例えば、40個)の特徴点を設定する。 In step S2020, the processor 151 sets a preset number (for example, 40) of feature points in the region Q2 of the v-th frame image in the u-th period.

ステップS2025にて、プロセッサ151は、変数vの値をインクリメントする(v←v+1)。 In step S2025, the processor 151 increments the value of the variable v (v ← v + 1).

ステップS2030にて、プロセッサ151は、第uの期間におけるv番目のフレーム画像における各特徴点を追跡し、各特徴点の座標を特定する。 In step S2030, the processor 151 tracks each feature point in the vth frame image in the uth period and identifies the coordinates of each feature point.

ステップS2035にて、プロセッサ151は、変数vの値が6以上であるか否かを判断する。変数vの値が6以上である場合には(ステップS2035にてYES)、プロセッサ151は、制御をステップS2040およびステップS2050に切り替える。そうでない場合には(ステップS2035にてNO)、プロセッサ151は、制御をステップS2025に戻す。 In step S2035, the processor 151 determines whether or not the value of the variable v is 6 or more. When the value of the variable v is 6 or more (YES in step S2035), the processor 151 switches the control to step S2040 and step S2050. Otherwise (NO in step S2035), processor 151 returns control to step S2025.

ステップS2040にて、プロセッサ151は、v番目のフレーム画像の領域Q1に含まれている特徴点の個数Rを算出する。 In step S2040, the processor 151 calculates the number R of feature points included in the area Q1 of the v-th frame image.

ステップS2041にて、プロセッサ151は、配列ac5の格納数が5であるか否かを判断する。プロセッサ151は、配列ac5の格納数が5であると判断すると(ステップS2041にてYES)、制御をステップS2042に切り替える。そうでない場合には(ステップS2041にてNO)、プロセッサ151は、制御をステップS2043に切り替える。 In step S2041, the processor 151 determines whether or not the number of stored array ac5 is 5. When the processor 151 determines that the number of stored array ac5 is 5 (YES in step S2041), the processor 151 switches the control to step S2042. If not (NO in step S2041), processor 151 switches control to step S2043.

ステップS2042にて、プロセッサ151は、配列ac5における5番目の値を削除し、初期化する。 In step S2042, the processor 151 deletes and initializes the fifth value in the array ac5.

ステップS2043にて、プロセッサ151は、個数Rを配列ac5の1番目に登録する。 In step S2043, the processor 151 registers the number R in the first array ac5.

ステップS2044にて、プロセッサ151は、配列ac5の合計値ac5sumを算出する。 In step S2044, the processor 151 calculates the total value ac5sum of the array ac5.

ステップS2045にて、プロセッサ151は、配列ac12の格納数が12であるか否かを判断する。プロセッサ151は、配列ac12の格納数が12であると判断すると(ステップS2045にてYES)、制御をステップS2046に切り替える。そうでない場合には(ステップS2045にてNO)、プロセッサ151は、制御をステップS2047に切り替える。 In step S2045, the processor 151 determines whether or not the number of stored array ac12 is 12. When the processor 151 determines that the number of stored array ac12 is 12 (YES in step S2045), the processor 151 switches the control to step S2046. If not (NO in step S2045), processor 151 switches control to step S2047.

ステップS2046にて、プロセッサ151は、配列ac12における12番目の値を削除し、初期化する。 In step S2046, the processor 151 deletes and initializes the twelfth value in the array ac12.

ステップS2047にて、プロセッサ151は、合計値ac5sumを配列ac12の1番目に登録する。 In step S2047, the processor 151 registers the total value ac5sum in the first array ac12.

ステップS2048にて、プロセッサ151は、配列ac12の合計値ac12sumを算出する。 In step S2048, the processor 151 calculates the total value ac12sum of the array ac12.

ステップS2050にて、プロセッサ151は、v番目のフレーム画像の各画素毎にPoC1モデルによるスノージャム判定を実施する。 In step S2050, the processor 151 performs a snow jam determination by the PoC1 model for each pixel of the v-th frame image.

ステップS2051にて、プロセッサ151は、v番目のフレーム画像でスノージャムと判定された画素数比率areaを算出する。 In step S2051, the processor 151 calculates the pixel number ratio area determined to be snow jam in the v-th frame image.

ステップS2052にて、プロセッサ151は、前回の判定結果pre_areaが登録されているか否かを判断する。前回の判定結果pre_areaが登録されている場合には(ステップS2052にてYES)、プロセッサ151は、制御をステップS2060に切り替える。そうでない場合には(ステップS2052にてNO)、プロセッサ151は、制御をステップS2053に切り替える。 In step S2052, the processor 151 determines whether or not the previous determination result pre_area is registered. If the previous determination result pre_area is registered (YES in step S2052), the processor 151 switches the control to step S2060. If not (NO in step S2052), processor 151 switches control to step S2053.

ステップS2053にて、プロセッサ151は、前回の判定結果pre_areaにステップS2051にて算出した画素数比率areaの値を入力する。 In step S2053, the processor 151 inputs the value of the pixel number ratio area calculated in step S2051 into the previous determination result pre_area.

ステップS2060にて、プロセッサ151は、配列ac12の合計値ac12sumが予め設定された閾値(たとえば115)よりも大きく、かつ、画素数比率areaと前回の判定結果pre_areaとの差が予め設定された閾値(例えば4)よりも大きいか否かを判断する。配列ac12の合計値ac12sumが予め設定された閾値(たとえば115)よりも大きく、かつ、画素数比率areaと前回の判定結果pre_areaとの差が予め設定された閾値(例えば4)よりも大きい場合には(ステップS2060にてYES)、プロセッサ151は、制御をステップS2070に切り替える。そうでない場合には(ステップS2070にてNO)、プロセッサ151は、制御をステップS2080に切り替える。 In step S2060, the processor 151 has a threshold value in which the total value ac12sum of the array ac12 is larger than a preset threshold value (for example, 115), and the difference between the pixel number ratio area and the previous determination result pre_area is preset. It is determined whether or not it is larger than (for example, 4). When the total value ac12sum of the array ac12 is larger than the preset threshold value (for example, 115), and the difference between the pixel number ratio area and the previous determination result pre_area is larger than the preset threshold value (for example, 4). (YES in step S2060), processor 151 switches control to step S2070. If not (NO in step S2070), processor 151 switches control to step S2080.

ステップS2070にて、プロセッサ151は、スノージャムが監視対象領域に発生していると判定する。プロセッサ151は、サーバ装置100のディスプレイ158に、スノージャムが発生している旨を表示する。他の局面において、プロセッサ151は、サーバ装置100に接続されている他の情報端末に、スノージャムが発生していることを通知する警告を送信する。当該警告は、例えば、当該監視対象領域の管理者が使用する携帯通信端末に送信される。 In step S2070, the processor 151 determines that snow jam has occurred in the monitored area. The processor 151 displays on the display 158 of the server device 100 that snow jam has occurred. In another aspect, the processor 151 sends a warning to other information terminals connected to the server device 100 notifying that snow jam has occurred. The warning is transmitted to, for example, a mobile communication terminal used by the administrator of the monitored area.

ステップS2080にて、プロセッサ151は、前回の判定結果pre_areaにステップS2051にて算出した画素数比率areaの値を入力する。 In step S2080, the processor 151 inputs the value of the pixel number ratio area calculated in step S2051 into the previous determination result pre_area.

ステップS2085にて、プロセッサ151は、変数uの値を1だけインクリメントする。 In step S2085, the processor 151 increments the value of the variable u by 1.

ステップS2090にて、プロセッサ151は、変数vの値を1にリセットする。
なお、図20では、オプティカルフローモデルに基づく判断基準を導出する処理(ステップS2040~S2048)と、学習済みモデル(PoC1またはPoC2)に基づく判断基準を導出する処理(ステップS2050~2053)とは、並行して実行される態様で例示されているが、他の局面において、これらの処理は、順次実行されてもよい。
In step S2090, the processor 151 resets the value of the variable v to 1.
In FIG. 20, the process of deriving the judgment criteria based on the optical flow model (steps S2040 to S2048) and the process of deriving the judgment criteria based on the trained model (PoC1 or PoC2) (steps S2050 to 2053) are Although exemplified in a mode in which they are executed in parallel, in other aspects, these processes may be executed sequentially.

本実施の形態に係る監視システム1を構成するサーバ装置100は、オプティカルフローモデルに基づく判断基準と、学習済みモデルに基づく判断基準とを併用することにより、スノージャムの判断時の誤検知を抑制しつつ、スノージャムを早期に検知することができる。以下、各モデルに基づく検知精度の相違について説明する。 The server device 100 constituting the monitoring system 1 according to the present embodiment suppresses erroneous detection at the time of snow jam judgment by using the judgment standard based on the optical flow model and the judgment standard based on the trained model in combination. However, snow jam can be detected at an early stage. The difference in detection accuracy based on each model will be described below.

<スノージャムの検知精度の比較>
図21および図22を参照して、スノージャムを検知する各方式の精度の比較結果について説明する。図21は、ある発電所において12時30分に保安停止された場合においてスノージャムが検知されたタイミングを表わす図である。
<Comparison of detection accuracy of snow jam>
A comparison result of the accuracy of each method for detecting snow jam will be described with reference to FIGS. 21 and 22. FIG. 21 is a diagram showing the timing at which snow jam is detected when the security is stopped at 12:30 at a certain power plant.

[PoC2モデル]
グラフ(A)は、PoC2モデルにおいて4秒ごとに推定し5分間の平均を採用した場合における検知のタイミングを表わす。この場合、サーバ装置100は、11時11分39秒にスノージャムを検知したと判断している。
[PoC2 model]
The graph (A) shows the detection timing when the PoC2 model is estimated every 4 seconds and the average of 5 minutes is adopted. In this case, the server device 100 determines that the snow jam was detected at 11:11:39.

グラフ(B)は、PoC2モデルにおいて4秒ごとに推定し前回の値との差分でスノージャムの検知の判定が行われた場合における検知のタイミングを表わす。この場合、サーバ装置100は、11時10分23秒にスノージャムを検知したと判断している。 The graph (B) shows the detection timing when the PoC2 model estimates every 4 seconds and the detection of snow jam is determined by the difference from the previous value. In this case, the server device 100 determines that the snow jam was detected at 11:10:23.

[PoC1モデル&オプティカルフロー]
グラフ(C)およびグラフ(D)は、PoC1モデルとオプティカルフローとの組み合わせでスノージャムの検知が行なわれた場合のタイミングを表わす。グラフ(C)とグラフ(D)との違いは、オプティカルフローにおけるチューニング(設定)の内容である。
[PoC1 model & optical flow]
The graph (C) and the graph (D) represent the timing when snow jam is detected by the combination of the PoC1 model and the optical flow. The difference between the graph (C) and the graph (D) is the content of tuning (setting) in the optical flow.

より具体的には、グラフ(C)は、PoC1モデルにおいて4秒ごとに推定し5分間の平均が採用され、かつ、「チューニング1」が行なわれたオプティカルフローによる判定結果が組み合わされた場合における検知のタイミングを表わす。この場合、サーバ装置100は、9時45分40秒および11時11分51秒に、スノージャムをそれぞれ検知したと判断している。チューニング1では、PoC1モデルの推論結果の5分間の平均値が使用された場合において、雪面積比率およびオプティカルフローの累積値が、閾値として採用される。 More specifically, the graph (C) shows the case where the PoC1 model estimates every 4 seconds and the average for 5 minutes is adopted, and the judgment result by the optical flow in which "tuning 1" is performed is combined. Represents the timing of detection. In this case, the server device 100 determines that the snow jam was detected at 9:45:40 and 11:11:51, respectively. In tuning 1, when the 5-minute average value of the inference result of the PoC1 model is used, the cumulative value of the snow area ratio and the optical flow is adopted as the threshold value.

グラフ(D)は、PoC1モデルにおいて4秒ごとに推定し5分間の平均が採用され、かつ、「チューニング2」が行なわれたオプティカルフローによる判定結果が組み合わされた場合における検知のタイミングを表わす。この場合、サーバ装置100は、9時45分20秒および11時11分51秒に、スノージャムをそれぞれ検知したと判断している。チューニング2では、PoC1モデルの推論結果の前回値との差分(変化量)が閾値として採用される。 The graph (D) shows the detection timing when the PoC1 model is estimated every 4 seconds and the average for 5 minutes is adopted, and the judgment result by the optical flow in which "tuning 2" is performed is combined. In this case, the server device 100 determines that the snow jam was detected at 9:45:20 and 11:11:51, respectively. In tuning 2, the difference (change amount) of the inference result of the PoC1 model from the previous value is adopted as the threshold value.

[オプティカルフロー]
グラフ(E)は、オプティカルフローのみが採用された場合におけるスノージャムの検知結果を表わす。すなわち、サーバ装置100は、9時45分40秒および11時11分59秒に、スノージャムをそれぞれ検知したと判断している。
[Optical flow]
The graph (E) shows the detection result of snow jam when only the optical flow is adopted. That is, it is determined that the server device 100 has detected the snow jam at 9:45:40 and 11:11:59, respectively.

グラフ(A)およびグラフ(B)から明らかなように、PoC2モデルのみが採用された場合には、スノージャムは、一度だけ検知されている。すなわち、9時45分過ぎのスノージャムは、PoC2モデルでは検知されていない。これに対して、グラフ(C)、グラフ(D)およびグラフ(E)から明らかなように、オプティカルフローが組み合わされた各方式によれば、いずれも、9時45分過ぎのスノージャムも検知されている。 As is clear from graphs (A) and (B), snow jam is detected only once when only the PoC2 model is adopted. That is, the snow jam after 9:45 is not detected by the PoC2 model. On the other hand, as is clear from the graphs (C), graphs (D) and graphs (E), according to each method in which optical flow is combined, snow jam after 9:45 is also detected. Has been done.

図22は、ある発電所において、保安停止がなかったもののカメラに水滴が付着したことによりスノージャムが発生したと誤検知された場合も含む検知結果の一例を表わす図である。すなわち、日誌によれば、8時8分47秒頃に水滴がカメラに付着していることが観察されている。スノージャムに至らない「流雪」は、10時14分31秒に観察されたことが記録されている。図22に示される観測が行なわれた発電所では、保安停止が行なわれていない。 FIG. 22 is a diagram showing an example of a detection result including a case where a snow jam is erroneously detected due to water droplets adhering to a camera even though there is no safety stop at a certain power plant. That is, according to the diary, it is observed that water droplets are attached to the camera at around 8:08:47. It is recorded that "dripping snow" that did not lead to snow jam was observed at 10:14:31. At the power plant where the observation shown in FIG. 22 was performed, no security suspension was performed.

グラフ(A)は、PoC2モデルにおいて4秒ごとに推定し5分間の平均を採用した場合における検知のタイミングを表わす。この場合、サーバ装置100は、8時13分42秒にスノージャムを検知したと判断している。その後の流雪が観測された時点では、サーバ装置100は、スノージャムを検知したとは判断しておらず、この時は誤検知が生じていない。 The graph (A) shows the detection timing when the PoC2 model is estimated every 4 seconds and the average of 5 minutes is adopted. In this case, the server device 100 determines that the snow jam was detected at 8:13:42. At the time when the subsequent snow flow was observed, the server device 100 did not determine that the snow jam was detected, and no erroneous detection occurred at this time.

グラフ(B)は、PoC2モデルにおいて4秒ごとに推定し前回の値との差分でスノージャムの検知の判定が行われた場合における検知のタイミングを表わす。この場合、サーバ装置100は、8時12分38秒にスノージャムを検知したと判断している。さらに、サーバ装置100は、10時16分6秒にスノージャムを検知したと判断している。 The graph (B) shows the detection timing when the PoC2 model estimates every 4 seconds and the detection of snow jam is determined by the difference from the previous value. In this case, the server device 100 determines that the snow jam was detected at 8:12:38. Further, it is determined that the server device 100 has detected the snow jam at 10:16:06.

[PoC1モデル&オプティカルフロー]
グラフ(C)およびグラフ(D)は、PoC1モデルとオプティカルフローとの組み合わせでスノージャムの検知が行なわれた場合のタイミングを表わす。グラフ(C)とグラフ(D)との違いは、PoC1モデルにおけるチューニングの内容である。
[PoC1 model & optical flow]
The graph (C) and the graph (D) represent the timing when snow jam is detected by the combination of the PoC1 model and the optical flow. The difference between the graph (C) and the graph (D) is the content of tuning in the PoC1 model.

グラフ(C)およびグラフ(D)から明らかなように、いずれの場合も、サーバ装置100は、8時12分54秒および10時16分59秒にスノージャムを検知したと判断している。 As is clear from the graphs (C) and (D), in both cases, the server device 100 determines that the snow jam was detected at 8:12:54 and 10:16:59.

[オプティカルフロー]
グラフ(E)は、オプティカルフローのみが採用された場合におけるスノージャムの検知結果を表わす。すなわち、サーバ装置100は、8時12分58秒に、スノージャムを検知したと判断している。
[Optical flow]
The graph (E) shows the detection result of snow jam when only the optical flow is adopted. That is, it is determined that the server device 100 has detected the snow jam at 8:12:58.

図23を参照して、スノージャムの検知結果についてさらに説明する。図23は、誤検知要因が有った場合における検知結果を表わす図である。 The snow jam detection result will be further described with reference to FIG. 23. FIG. 23 is a diagram showing a detection result when there is a false detection factor.

グラフAは、ある一日(2019年1月26日)に、従来の監視システムに映る水路に水滴が付着した場合において誤検知とスノージャムの検知とが行なわれたときの5分間の雪面積の平均値の比率の推移を表わす。この場合、監視システムは、7時8分24秒頃にスノージャムが発生したと誤検知した。このときの比率は1.735(%)であった。また、監視システムは、8時14分18秒頃に、スノージャムの発生を正しく検知している。 Graph A shows the snow area for 5 minutes when false detection and snow jam detection are performed when water droplets adhere to the waterway reflected in the conventional monitoring system on one day (January 26, 2019). Shows the transition of the ratio of the average value of. In this case, the monitoring system erroneously detected that a snow jam had occurred at around 7:08:24. The ratio at this time was 1.735 (%). In addition, the monitoring system correctly detects the occurrence of snow jam at around 8:14:18.

グラフBは、他の一日(2019年2月7日)に、従来の監視システムのレンズカバーに水滴が付着し、さらに風波が観測された場合において誤検知とスノージャムの検知とが行なわれたときの5分間の雪面積の平均値の比率の推移を表わす。この場合、監視システムは、17時35分35秒頃にスノージャムが発生したと誤検知した。このときの比率は1.736(%)であった。そこで、ある実施の形態に従う監視システムは、平均値の比率の閾値として、1.8(%)を採用し得る。 In Graph B, on the other day (February 7, 2019), when water droplets adhere to the lens cover of the conventional monitoring system and wind waves are observed, false detection and snow jam detection are performed. It shows the transition of the ratio of the average value of the snow area for 5 minutes at that time. In this case, the monitoring system erroneously detected that a snow jam had occurred at around 17:35:35. The ratio at this time was 1.736 (%). Therefore, the monitoring system according to a certain embodiment may adopt 1.8 (%) as the threshold value of the ratio of the average value.

図24を参照して、他の監視日における検知結果について説明する。図24は、2018年12月29日に観測された雪面積比率(5分間の平均)の推移を表わす図である。より具体的には、11時12分34秒頃から流雪が観測され始め、12時3分32秒には監視システムに映る水路は、雪で埋もれた状態となっている。 The detection results on other monitoring days will be described with reference to FIG. 24. FIG. 24 is a diagram showing changes in the snow area ratio (average for 5 minutes) observed on December 29, 2018. More specifically, snow flow began to be observed at around 11:12:34, and at 12:03:32, the waterway reflected in the monitoring system was buried in snow.

図25を参照して、スノージャムの検知結果についてさらに説明する。図25は、誤検知要因が有った場合における検知結果を表わす図である。 The snow jam detection result will be further described with reference to FIG. 25. FIG. 25 is a diagram showing a detection result when there is a false detection factor.

グラフAは、ある一日(2019年1月26日)に、従来の監視システムのレンズカバーに水滴が付着した場合において誤検知とスノージャムの検知とが行なわれたときの5分間の雪面積の比率(前回の計測値との差分)の推移を表わす。この場合、監視システムは、8時21分32秒頃および10時26分54秒頃にスノージャムが発生したと検知した。 Graph A shows the snow area for 5 minutes when false detection and snow jam detection are performed when water droplets adhere to the lens cover of a conventional monitoring system on one day (January 26, 2019). Shows the transition of the ratio (difference from the previous measurement value). In this case, the monitoring system detected that snow jam occurred at around 8:21:32 and around 10:26:54.

グラフBは、他の一日(2019年2月7日)に、従来の監視システムのレンズカバーに水滴が付着し、さらに風波が観測された場合において誤検知とスノージャムの検知とが行なわれたときの5分間の雪面積の比率(前回の計測値との差分)の推移を表わす。この場合、監視システムは、15時26分42秒頃と17時35分35秒頃に、スノージャムが発生したと誤検知した。このときの比率の最大値は、6.427(%)であった。そこで、ある実施の形態に従う監視システムは、雪面積の比率の前回値との差分の閾値として、6.5(%)を採用し得る。 In Graph B, on the other day (February 7, 2019), when water droplets adhere to the lens cover of the conventional monitoring system and wind waves are observed, false detection and snow jam detection are performed. It shows the transition of the ratio of the snow area (difference from the previous measurement value) for 5 minutes at that time. In this case, the monitoring system erroneously detected that snow jam had occurred at around 15:26:42 and around 17:35:35. The maximum value of the ratio at this time was 6.427 (%). Therefore, the monitoring system according to a certain embodiment may adopt 6.5 (%) as the threshold value of the difference between the ratio of the snow area and the previous value.

図26を参照して、他の監視日における検知結果について説明する。図26は、2018年12月29日に観測された雪面積比率(前回値との差分)の推移を表わす図である。より具体的には、11時12分34秒頃から流雪が観測され始め、12時3分32秒には監視システムに映る水路は、雪で埋もれた状態となっている。 The detection results on other monitoring days will be described with reference to FIG. 26. FIG. 26 is a diagram showing changes in the snow area ratio (difference from the previous value) observed on December 29, 2018. More specifically, snow flow began to be observed at around 11:12:34, and at 12:03:32, the waterway reflected in the monitoring system was buried in snow.

図27を参照して、監視システムの誤検知対策について説明する。図27は、ある実施の形態に従う監視システムが誤検知対策として採用する手法の一例を概念的に表わす図である。 With reference to FIG. 27, countermeasures against false positives in the monitoring system will be described. FIG. 27 is a diagram conceptually showing an example of a method adopted as a countermeasure against false positives by a monitoring system according to a certain embodiment.

例えば、ある一日において、監視システムがスノージャムを誤検知した場合において検出した特徴点の数が9個であるとき、閾値を10個以上と設定することが考えられる。しかしながら、このように設定すると、監視システムは、小規模なスノージャム(例えば検出した特徴点の個数が9以下)を検知できなくなる。そこで、本実施の形態に従う監視システムは、累積値を用いることにより、小規模なスノージャムを検知し得る。 For example, when the number of feature points detected when the monitoring system erroneously detects snow jam in a certain day is 9, it is conceivable to set the threshold value to 10 or more. However, when set in this way, the monitoring system cannot detect small-scale snow jams (for example, the number of detected feature points is 9 or less). Therefore, the monitoring system according to the present embodiment can detect a small-scale snow jam by using the cumulative value.

より具体的には、本実施の形態に従う監視システムは、5回分の判定結果を累積し、さらに、その累積を12回繰り返し、その結果を用いてスノージャムが発生しているか否かを検知する。 More specifically, the monitoring system according to the present embodiment accumulates the determination results for 5 times, repeats the accumulation 12 times, and detects whether or not snow jam has occurred using the results. ..

図28および図29を参照して、監視システムの精度の相違について説明する。図28は、監視システムが、閾値10として、検出した特徴点の個数をそのまま判定に使用した場合における検知結果を表わす図である。図29は、監視システムが、閾値140として、検出した特徴点個数の累積値を判定に使用した場合における検知結果を表わす図である。 The difference in accuracy of the monitoring system will be described with reference to FIGS. 28 and 29. FIG. 28 is a diagram showing a detection result when the monitoring system uses the number of detected feature points as they are for determination as the threshold value 10. FIG. 29 is a diagram showing a detection result when the monitoring system uses the cumulative value of the number of detected feature points as the threshold value 140 for determination.

図28のグラフAに示されるように、2018年12月29日において、監視システムは、11時13分21秒頃に、スノージャムを検知している。実際には、スノージャムは11時12分頃には観測されている。他方、グラフBに示されるように、2019年2月7日には、23時36分頃に検出した特徴点の個数が9となっているが、この時は実際にはスノージャムは観測されていない。 As shown in Graph A of FIG. 28, on December 29, 2018, the monitoring system detected the snow jam at around 11:13:21. In reality, snow jam has been observed around 11:12. On the other hand, as shown in Graph B, on February 7, 2019, the number of feature points detected at around 23:36 was 9, but at this time, snow jam was actually observed. Not.

図29のグラフAに示されるように、2018年12月29日において、監視システムは、11時11分59秒頃に、スノージャムを検知している。実際には、スノージャムは11時12分頃には観測されている。他方、グラフBに示されるように、2019年2月7日には、20時40分頃に検出した特徴点の個数の累積値が129となっているが、この時は実際にはスノージャムは観測されていない。 As shown in Graph A of FIG. 29, on December 29, 2018, the monitoring system detected the snow jam at around 11:11:59. In reality, snow jam has been observed around 11:12. On the other hand, as shown in Graph B, on February 7, 2019, the cumulative value of the number of feature points detected around 20:40 was 129, but at this time, it was actually snow jam. Has not been observed.

図29のグラフAから明らかなように、監視システムは、スノージャムの発生の判定に検出した特徴点の個数の累積値を用いることで、図28の場合のように検出した特徴点の個数をそのまま使用する場合に比べて、スノージャムを早期に検知することができる。 As is clear from Graph A in FIG. 29, the monitoring system uses the cumulative value of the number of detected feature points to determine the occurrence of snow jam, thereby determining the number of detected feature points as in the case of FIG. 28. Snow jam can be detected earlier than when it is used as it is.

図30を参照して、監視システムが採用する方式の相違による誤検知の可能性について説明する。図30は、PoC1モデルのみ、オプティカルフローのみ、および、PoC1モデル&オプティカルフローの併用、の各々の方式による検知特性を表わす図である。いずれの方式も、スノージャムを検知できる。ただし、PoC1モデル方式は、昼間において、水面からの反射に起因して誤検知する場合があり得る。オプティカルフロー方式は、夜間において、水面からの反射に起因して、スノージャムの発生を誤検知し得る(図18の画像Bおよび画像C参照)。これに対して、両方式を併用する方式は、そのような誤検知が生じない。 With reference to FIG. 30, the possibility of erroneous detection due to the difference in the method adopted by the monitoring system will be described. FIG. 30 is a diagram showing the detection characteristics of each method of PoC1 model only, optical flow only, and PoC1 model & optical flow combined use. Both methods can detect snow jam. However, the PoC1 model method may cause erroneous detection due to reflection from the water surface in the daytime. The optical flow method can erroneously detect the occurrence of snow jam at night due to reflections from the water surface (see images B and C in FIG. 18). On the other hand, the method in which both methods are used in combination does not cause such false detection.

本実施の形態において、2つの調整(チューニング1およびチューニング2)が監視システムに適用され得る。 In this embodiment, two adjustments (tuning 1 and tuning 2) can be applied to the monitoring system.

チューニング1では、PoC1モデルの推論結果の5分間の平均値が使用された場合において、雪面積比率およびオプティカルフローの累積値が、閾値として採用される。この時の関係は、一例として次式のように示され、PoC1モデルについては単独では難しかった閾値を設定でき、オプティカルフローについても図29で示した単独でチューニングした時の値より小さくすることが出来る。
・5分平均の雪面積比率>4% かつ オプティカルフローの累積値>115
チューニング2では、PoC1モデルの推論結果の前回値との差分(変化量)が閾値として採用される。この場合、雪面積の変化量およびオプティカルフローの累積値の関係は、一例として、次式のように示され、PoC1モデルについては単独では難しかった閾値を設定でき、オプティカルフローについても図29で示した単独でチューニングした時の値より小さくすることが出来る。
・雪面積変化量>4% かつ オプティカルフローの累積値>115
図31は、学習済みモデルの評価結果とオプティカルフローとの組み合わせを説明するための図である。画像A~画像Cは、20倍速(30fps)で保存されている。推論は、10fpsに1回(オリジナル時間で6.67秒に1回)実施され、監視システムは、5分間の平均値でスノージャームの発生の検知を行なう。この場合の検知の条件は、雪面積比率>9.48%、である。
In tuning 1, when the 5-minute average value of the inference result of the PoC1 model is used, the cumulative value of the snow area ratio and the optical flow is adopted as the threshold value. The relationship at this time is shown as an example by the following equation, a threshold value that was difficult to set by itself for the PoC1 model can be set, and the optical flow can be made smaller than the value when tuned by itself shown in FIG. 29. You can.
・ 5-minute average snow area ratio> 4% and cumulative optical flow> 115
In tuning 2, the difference (change amount) of the inference result of the PoC1 model from the previous value is adopted as the threshold value. In this case, the relationship between the amount of change in the snow area and the cumulative value of the optical flow is shown as an example by the following equation, a threshold value that was difficult to set by itself for the PoC1 model can be set, and the optical flow is also shown in FIG. It can be made smaller than the value when tuned independently.
・ Snow area change> 4% and cumulative optical flow> 115
FIG. 31 is a diagram for explaining a combination of the evaluation result of the trained model and the optical flow. Images A to C are stored at 20 times speed (30 fps). The inference is performed once every 10 fps (once every 6.67 seconds in the original time), and the monitoring system detects the occurrence of snow jam with an average value of 5 minutes. The detection condition in this case is snow area ratio> 9.48%.

画像Aは、ある局面においてスノージャムが発生した初期に撮影された画像および画像処理の結果を表わす。より具体的には、画像3100は、スノージャムが発生した初期におけるPoC1モデルによる検知結果を表わす。画像3110は、スノージャムが発生した初期におけるPoC2モデルによる検知結果を表わす。ある局面では、PoC1モデルは、スノージャムの発生を検知できているが、PoC2モデルは、スノージャムの発生を検知できていない。 Image A represents an image taken in the early stage when snow jam occurred in a certain aspect and the result of image processing. More specifically, the image 3100 shows the detection result by the PoC1 model in the early stage when the snow jam occurred. Image 3110 shows the detection result by the PoC2 model in the early stage when snow jam occurs. In one aspect, the PoC1 model can detect the occurrence of snow jam, but the PoC2 model cannot detect the occurrence of snow jam.

画像Bは、他の局面において、水面に映った壁面の雪や雲がスノージャムとして誤検知された場合の画像および画像処理の結果を表わす。より具体的には、画像3120は、PoC1モデルによる検知結果を表わす。画像3130は、PoC2モデルによる検知結果を表わす。この局面では、PoC1モデルによれば、監視システムは、水面に映った壁面の雪や雲をスノージャムが発生したと誤検知している。他方、PoC2モデルによれば、監視システムは、水路の表面を流れる雪と、水面に映った雪の識別とを区別できている。 Image B represents an image and the result of image processing when snow or clouds on the wall surface reflected on the water surface are erroneously detected as snow jam in other aspects. More specifically, the image 3120 represents the detection result by the PoC1 model. Image 3130 represents the detection result by the PoC2 model. In this aspect, according to the PoC1 model, the monitoring system erroneously detects that snow jam has occurred on the snow or clouds on the wall surface reflected on the water surface. On the other hand, according to the PoC2 model, the monitoring system can distinguish between the snow flowing on the surface of the channel and the snow reflected on the surface of the channel.

画像Cは、オプティカルフローによりスノージャムの発生を検知する場合の画像を表わす。オプティカルフローによる判定では、保存映像に対し12フレーム毎(オリジナル時間で8秒に1回)に判定が実施される。特徴点については、1フレーム目で42の基準座標が与えられ、監視システムは、12フレーム目の領域3140内の特徴点の個数でスノージャムの発生を判定する。この場合、例えば、領域3140内の特徴点が8個以上である場合、監視システムは、スノージャムが発生したと判定する。 Image C represents an image when the occurrence of snow jam is detected by optical flow. In the determination by the optical flow, the determination is performed every 12 frames (once every 8 seconds in the original time) for the stored video. For the feature points, 42 reference coordinates are given in the first frame, and the monitoring system determines the occurrence of snow jam based on the number of feature points in the region 3140 in the twelfth frame. In this case, for example, if there are eight or more feature points in the area 3140, the monitoring system determines that snow jam has occurred.

図32を参照して、スノージャムの発生のタイミングの相違について説明する。図32は、2018年12月28日にスノージャムにより取水が停止した場合におけるスノージャムの発生の検知のタイミングを表わす図である。この日の観測時には、監視システムのカメラについて、3回の画角変更が行なわれている。そのとき、特徴点の数が一時的に急変している。 The difference in the timing of occurrence of snow jam will be described with reference to FIG. 32. FIG. 32 is a diagram showing the timing of detecting the occurrence of snow jam when water intake is stopped due to snow jam on December 28, 2018. At the time of observation on this day, the angle of view of the camera of the surveillance system was changed three times. At that time, the number of feature points is temporarily changing suddenly.

グラフAは、雪面積比率が判定基準に用いられる場合における学習済みモデルの検知結果を表わす。閾値は、雪面積比率が9.48%以上である。PoC1モデルによれば、監視システムは、2018年12月28日の2時33分8秒頃にスノージャムの発生を検知している。PoC2モデルによれば、監視システムは、同日の2時36分15秒頃にスノージャムの発生を検知している。したがって、この場合は、PoC1モデルが、PoC2モデルよりも早期にスノージャムを検知できたことになる。 Graph A shows the detection result of the trained model when the snow area ratio is used as a criterion. The threshold is that the snow area ratio is 9.48% or more. According to the PoC1 model, the surveillance system has detected the occurrence of snow jam at around 2:33:08 on December 28, 2018. According to the PoC2 model, the monitoring system detects the occurrence of snow jam at around 2:36:15 on the same day. Therefore, in this case, the PoC1 model was able to detect the snow jam earlier than the PoC2 model.

グラフBは、オプティカルフローによる検知結果を表わす。閾値は、特徴点の数が8個である。画角変更が行なわれた時刻を除外すると、監視システムは、オプティカルフローによれば、2時24分頃にスノージャムの発生を検知できたことになる。 Graph B shows the detection result by the optical flow. The threshold has eight feature points. Excluding the time when the angle of view was changed, the monitoring system was able to detect the occurrence of snow jam at around 2:24 according to the optical flow.

図33は、2019年1月24日にスノージャムにより取水が停止した場合におけるスノージャムの発生の検知のタイミングを表わす図である。 FIG. 33 is a diagram showing the timing of detecting the occurrence of snow jam when water intake is stopped due to snow jam on January 24, 2019.

グラフAは、雪面積比率が判定基準に用いられる場合における学習済みモデルの検知結果を表わす。検知の条件(閾値)は、雪面積比率が9.48%以上である。PoC1モデルによれば、監視システムは、2019年1月24日の0時54分47秒頃にスノージャムの発生を検知している。PoC2モデルによれば、監視システムは、同日の0時56分56秒頃にスノージャムの発生を検知している。したがって、この場合は、PoC1モデルが、PoC2モデルよりも早期にスノージャムを検知できたことになる。 Graph A shows the detection result of the trained model when the snow area ratio is used as a criterion. The detection condition (threshold value) is that the snow area ratio is 9.48% or more. According to the PoC1 model, the monitoring system has detected the occurrence of snow jam at around 0:54:47 on January 24, 2019. According to the PoC2 model, the monitoring system detects the occurrence of snow jam at around 0:56:56 on the same day. Therefore, in this case, the PoC1 model was able to detect the snow jam earlier than the PoC2 model.

グラフBは、オプティカルフローによる検知結果を表わす。閾値は、特徴点の数が8個である。監視システムは、オプティカルフローによれば、0時54分頃にスノージャムの発生を検知できたことになる。 Graph B shows the detection result by the optical flow. The threshold has eight feature points. According to Optical Flow, the monitoring system was able to detect the occurrence of snow jam at around 0:54.

図34は、2019年1月15日に、スノージャムが発生していないにもかかわらずスポットライトの光による誤検知が発生した場合の状態を表わす。 FIG. 34 shows a state in which false detection by the light of the spotlight occurs on January 15, 2019 even though snow jam has not occurred.

グラフAは、雪面積比率が判定基準に用いられる場合における学習済みモデルの検知結果を表わす。検知の条件は、雪面積比率≧閾値(9.48%)である。PoC1モデルによれば、監視システムは、2019年1月15日の19時26分頃に、スノージャムが発生したと誤検知している。PoC2モデルによれば、監視システムは、スノージャムが発生したと判定していない。したがって、この場合は、PoC1モデルのみが、誤検知したことになる。 Graph A shows the detection result of the trained model when the snow area ratio is used as a criterion. The detection condition is snow area ratio ≧ threshold value (9.48%). According to the PoC1 model, the surveillance system falsely detects that a snow jam has occurred around 19:26 on January 15, 2019. According to the PoC2 model, the surveillance system has not determined that a snow jam has occurred. Therefore, in this case, only the PoC1 model is erroneously detected.

グラフBは、オプティカルフローによる検知結果を表わす。検知の条件は、特徴点の数≧閾値(8個)である。監視システムは、オプティカルフローによれば、現実と同様に、スノージャムが発生したと判定していないことになる。 Graph B shows the detection result by the optical flow. The detection condition is the number of feature points ≧ threshold value (8). According to the optical flow, the monitoring system does not determine that a snow jam has occurred, as in reality.

図35は、2019年1月27日に、スノージャムが発生していないにもかかわらず、水面へ映りこんだ壁面の雪や雲などによる誤検知が発生した場合の状態を表わす。 FIG. 35 shows a state in which a false detection occurs on January 27, 2019 due to snow or clouds on the wall surface reflected on the water surface even though no snow jam has occurred.

グラフAは、雪面積比率が判定基準に用いられる場合における学習済みモデルの検知結果を表わす。検知の条件は、雪面積比率≧閾値(9.48%)である。PoC1モデルによれば、監視システムは、2019年1月27日の11時36分頃に、スノージャムが発生したと誤検知している。PoC2モデルによれば、監視システムは、スノージャムが発生したと判定していない。したがって、この場合は、PoC1モデルのみが、誤検知したことになる。 Graph A shows the detection result of the trained model when the snow area ratio is used as a criterion. The detection condition is snow area ratio ≧ threshold value (9.48%). According to the PoC1 model, the surveillance system erroneously detects that a snow jam has occurred at around 11:36 on January 27, 2019. According to the PoC2 model, the surveillance system has not determined that a snow jam has occurred. Therefore, in this case, only the PoC1 model is erroneously detected.

グラフBは、オプティカルフローによる検知結果を表わす。検知の条件は、特徴点の数≧閾値(8個)である。監視システムは、オプティカルフローによれば、現実と同様に、スノージャムが発生したと判定していないことになる。 Graph B shows the detection result by the optical flow. The detection condition is the number of feature points ≧ threshold value (8). According to the optical flow, the monitoring system does not determine that a snow jam has occurred, as in reality.

図36は、2019年2月13日の昼間における、監視システムによる検知結果を表わす。スノーボードの検知の条件は、雪面積比率≧閾値(9.48%)である。PoC1モデルおよびPoC2モデルのいずれによっても、監視システムは、スノージャムが発生したと判定していない。 FIG. 36 shows the detection result by the monitoring system in the daytime on February 13, 2019. The condition for detecting the snowboard is the snow area ratio ≧ threshold value (9.48%). With neither the PoC1 model nor the PoC2 model, the monitoring system has determined that snow jam has occurred.

図37は、オプティカルフローモデルが採用された場合に誤検知し易い状況下において、PoC1モデルが誤検知しない画像と、そのオリジナルの画像とを表わす図である。 FIG. 37 is a diagram showing an image that the PoC1 model does not erroneously detect and an original image thereof under a situation where erroneous detection is likely to occur when the optical flow model is adopted.

画像Aは、図29のグラフBに示される累積値が129となった時点の撮影、すなわち、2019年2月7日20時41分頃の撮影によって取得された画像を表わす。画像Bは、その画像をPoC1モデルに適用した場合に得られた画像である。図37に例示される画像によれば、オプティカルフローモデルが誤検知し易い状況下において、PoC1モデルが検知した雪面積比率は、0.041%となり、PoC1モデルを採用する監視システムは、殆ど誤検知していないことが見て取れる。 The image A represents an image acquired by taking a picture at the time when the cumulative value shown in the graph B of FIG. 29 reaches 129, that is, taking a picture at about 20:41 on February 7, 2019. Image B is an image obtained when the image is applied to the PoC1 model. According to the image illustrated in FIG. 37, the snow area ratio detected by the PoC1 model is 0.041% under the situation where the optical flow model is easily erroneously detected, and the monitoring system adopting the PoC1 model is almost erroneous. It can be seen that it has not been detected.

以上のようにして、本開示によれば、学習済みモデルを用いた判定とオプティカルフローを用いた判定との組み合わせにより、スノージャムその他の浮遊物を早期に検知できる。また、各判定の基準が組み合わされるため、学習済みモデルを用いた検知の場合に生じ得る誤検知を抑制し得る。これにより、誤検知を抑制しつつ早期に浮遊物を検知できる監視システムを実現することができる。 As described above, according to the present disclosure, snow jam and other suspended matter can be detected at an early stage by combining the determination using the trained model and the determination using the optical flow. In addition, since the criteria for each determination are combined, it is possible to suppress false detections that may occur in the case of detection using a trained model. This makes it possible to realize a monitoring system that can detect suspended matter at an early stage while suppressing false detection.

ある局面において、監視システム1は、監視カメラ300、サーバ装置100および端末装置200を所有する事業者によって使用される。他の局面において、監視カメラ300によって撮影された画像が、監視サービスを運営する事業者のコンピュータに送られ、当該コンピュータが、サーバ装置100としてスノージャムの検知処理を実行することにより、監視システム1が構成されてもよい。この場合、当該事業者は、各電力会社からの画像を受信し、当該画像を用いた監視サービスを提供することができる。 In one aspect, the surveillance system 1 is used by a business operator who owns a surveillance camera 300, a server device 100, and a terminal device 200. In another aspect, the image taken by the surveillance camera 300 is sent to the computer of the operator operating the surveillance service, and the computer executes the snow jam detection process as the server device 100, whereby the surveillance system 1 May be configured. In this case, the business operator can receive an image from each electric power company and provide a monitoring service using the image.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

開示された技術的特徴は、雪、葉又はクラゲのような浮遊物を含む障害物の存在を検知する必要がある場所、例えば、発電所の取水口を監視する技術として適用可能である。 The disclosed technical features are applicable as techniques for monitoring places where the presence of obstacles, including suspended matter such as snow, leaves or jellyfish, need to be detected, eg, the intake of a power plant.

1 監視システム、100 サーバ装置、101 通信IF部、102 制御部、111 受信部、112 送信部、141 基準座標設定部、142 特徴点設定部、143 検出部、144 判定部、145 給水制御部、146 報知部、151 プロセッサ、152 ROM、153 RAM、156 操作キー、157 電源回路、158 ディスプレイ、200 端末装置、300 監視カメラ、400 取水装置、500 水路、700 取水口、800,Q1,Q2 領域、1910,1920 枠。 1 Monitoring system, 100 server device, 101 communication IF unit, 102 control unit, 111 receiver unit, 112 transmitter unit, 141 reference coordinate setting unit, 142 feature point setting unit, 143 detection unit, 144 judgment unit, 145 water supply control unit, 146 Notification unit, 151 processor, 152 ROM, 153 RAM, 156 operation key, 157 power supply circuit, 158 display, 200 terminal device, 300 surveillance camera, 400 water intake device, 500 water channel, 700 water intake, 800, Q1, Q2 area, 1910, 1920 frames.

Claims (5)

水路を撮影することにより得られた連続する複数のフレーム画像の入力を受けるステップと、
前記複数のフレーム画像のうちの最初のフレーム画像において設定された個数の特徴点の移動を、前記複数のフレーム画像にわたり前記特徴点毎に検出するステップと、
予め準備された学習済みモデルを用いて、前記複数のフレーム画像のうちの1つのフレーム画像を構成する各画素が、前記水路における浮遊物に該当するか否かを判定するステップと、
前記判定の結果に基づいて、前記1つのフレーム画像において浮遊物が存在すると判定された画素数の比率を算出するステップと、
前記特徴点の個数と予め定められた閾値との大小関係と、前記画素数の比率とに基づいて、前記浮遊物が所定の状態で前記水路に存在しているか否かを判定するステップとを含む、監視方法。
A step that receives input of multiple consecutive frame images obtained by photographing a waterway, and
A step of detecting the movement of a set number of feature points in the first frame image of the plurality of frame images for each feature point over the plurality of frame images.
Using a trained model prepared in advance, a step of determining whether or not each pixel constituting one frame image of the plurality of frame images corresponds to a floating object in the waterway is used.
Based on the result of the determination, a step of calculating the ratio of the number of pixels determined to have a floating substance in the one frame image, and
A step of determining whether or not the suspended matter exists in the water channel in a predetermined state based on the magnitude relationship between the number of feature points and a predetermined threshold value and the ratio of the number of pixels. Including, monitoring method.
前記浮遊物が所定の状態で前記水路に存在しているか否かを判定するステップは、
前記特徴点の個数が前記予め定められた閾値以上であることと、前記画素数の比率が予め定められた比率以上であることとに基づいて、前記浮遊物が所定の状態で前記水路に存在していると判定することを含む、請求項1に記載の監視方法。
The step of determining whether or not the suspended matter is present in the water channel in a predetermined state is
Based on the fact that the number of the feature points is equal to or greater than the predetermined threshold value and the ratio of the number of pixels is equal to or greater than the predetermined ratio, the suspended matter is present in the water channel in a predetermined state. The monitoring method according to claim 1, wherein the monitoring method includes determining that the image is being used.
前記複数のフレーム画像のうち所定数のフレーム画像を用いた判定処理を、前記判定処理に使用される先頭のフレーム画像を次のフレーム画像にずらすことにより、予め定められた回数だけ行なって得られた結果を蓄積して、特徴点の個数の合計値を算出するステップと、
前記合計値を算出する処理を予め定められた回数繰り返すことにより得られた前記特徴点の個数の合計値を累積するステップとをさらに含み、
前記特徴点の個数が前記予め定められた閾値以上であることは、前記特徴点の個数の合計値が予め定められた閾値以上であることを含む、請求項2に記載の監視方法。
It is obtained by performing a determination process using a predetermined number of frame images among the plurality of frame images by shifting the first frame image used for the determination process to the next frame image a predetermined number of times. The step of accumulating the results and calculating the total value of the number of feature points,
Further including a step of accumulating the total value of the number of the feature points obtained by repeating the process of calculating the total value a predetermined number of times.
The monitoring method according to claim 2, wherein the number of the feature points is equal to or more than the predetermined threshold value, the total value of the number of the feature points is equal to or more than the predetermined threshold value.
請求項1~3のいずれかに記載の監視方法を実現するためのコンピュータプログラム。 A computer program for realizing the monitoring method according to any one of claims 1 to 3. 請求項4に記載のコンピュータプログラムを格納したメモリと、
前記コンピュータプログラムを実行する1つ以上のプロセッサとを備える、監視システム。
The memory in which the computer program according to claim 4 is stored and
A monitoring system comprising one or more processors that execute the computer program.
JP2020072453A 2020-04-14 2020-04-14 Monitoring method, computer program for realizing the monitoring method, and monitoring system Active JP7083863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020072453A JP7083863B2 (en) 2020-04-14 2020-04-14 Monitoring method, computer program for realizing the monitoring method, and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020072453A JP7083863B2 (en) 2020-04-14 2020-04-14 Monitoring method, computer program for realizing the monitoring method, and monitoring system

Publications (2)

Publication Number Publication Date
JP2021170182A JP2021170182A (en) 2021-10-28
JP7083863B2 true JP7083863B2 (en) 2022-06-13

Family

ID=78149835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020072453A Active JP7083863B2 (en) 2020-04-14 2020-04-14 Monitoring method, computer program for realizing the monitoring method, and monitoring system

Country Status (1)

Country Link
JP (1) JP7083863B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019218771A (en) 2018-06-21 2019-12-26 関西電力株式会社 Monitoring system
JP2020033792A (en) 2018-08-31 2020-03-05 株式会社電制 Device, method, system and program for detecting flowing snow ice
JP2020060852A (en) 2018-10-05 2020-04-16 関西電力株式会社 Monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019218771A (en) 2018-06-21 2019-12-26 関西電力株式会社 Monitoring system
JP2020033792A (en) 2018-08-31 2020-03-05 株式会社電制 Device, method, system and program for detecting flowing snow ice
JP2020060852A (en) 2018-10-05 2020-04-16 関西電力株式会社 Monitoring system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山本 益生,電力会社における設備監視システムの現状と今後の画像利用,テレビジョン学会誌,1995年,Vol.49 No.3,pp.274-280
沖電気工業株式会社測機事業部,クラゲ検知装置,沖電気研究開発,沖電気工業株式会社,1993年,Vol.60 No.1

Also Published As

Publication number Publication date
JP2021170182A (en) 2021-10-28

Similar Documents

Publication Publication Date Title
JP6949988B2 (en) Domain identification method, device, storage medium and processor
KR101613740B1 (en) Runway Surveillance System and Method
CN107948465B (en) A kind of method and apparatus that detection camera is disturbed
KR102234697B1 (en) Fish net surveillance apparatus using Remotely-Operated underwater Vehicle, controlling method of the same
AU2018217437A1 (en) System for identifying a defined object
CN104123544A (en) Video analysis based abnormal behavior detection method and system
JP2009533778A (en) Video segmentation using statistical pixel modeling
JP7023803B2 (en) Monitoring system
CN111292371B (en) Intelligent water level detection equipment, intelligent water level monitoring management device and detection method
JP6776070B2 (en) Water surface boundary detection device, water surface boundary detection method and computer program
WO2021060077A1 (en) Fish counting system, fish counting method, and program
CN102024263A (en) Apparatus and method for detecting motion
CN112131951A (en) System for automatically identifying behaviors of illegal ladder use in construction
JP7042200B2 (en) Monitoring system
JP2002208075A (en) Method and device to predict generation of debris flow
CN113507577A (en) Target object detection method, device, equipment and storage medium
CN112800846A (en) High-altitude parabolic monitoring method and device, electronic equipment and storage medium
JP2007065878A (en) Moving object counting method on water surface or underwater, and counting device and counting program
JP7083863B2 (en) Monitoring method, computer program for realizing the monitoring method, and monitoring system
JP4697923B2 (en) Counting system and counting method for moving object in water or water surface
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP7271373B2 (en) VIDEO PROCESSING DEVICE, VIDEO PROCESSING SYSTEM AND VIDEO PROCESSING METHOD
CN117132768A (en) License plate and face detection and desensitization method and device, electronic equipment and storage medium
JP7528356B2 (en) AI-based monitoring of race tracks
JP7363289B2 (en) Information processing device, counting system, counting method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220601

R150 Certificate of patent or registration of utility model

Ref document number: 7083863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150