JP2020125618A - Information processing method, program, water intake control system, and learned model creation method - Google Patents

Information processing method, program, water intake control system, and learned model creation method Download PDF

Info

Publication number
JP2020125618A
JP2020125618A JP2019018042A JP2019018042A JP2020125618A JP 2020125618 A JP2020125618 A JP 2020125618A JP 2019018042 A JP2019018042 A JP 2019018042A JP 2019018042 A JP2019018042 A JP 2019018042A JP 2020125618 A JP2020125618 A JP 2020125618A
Authority
JP
Japan
Prior art keywords
image
learned model
intake
water
learned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019018042A
Other languages
Japanese (ja)
Other versions
JP7293687B2 (en
Inventor
悟 徳永
Satoru Tokunaga
悟 徳永
宜和 浜
Nobukazu Hama
宜和 浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Holdings Inc
Original Assignee
Tokyo Electric Power Co Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Holdings Inc filed Critical Tokyo Electric Power Co Holdings Inc
Priority to JP2019018042A priority Critical patent/JP7293687B2/en
Publication of JP2020125618A publication Critical patent/JP2020125618A/en
Application granted granted Critical
Publication of JP7293687B2 publication Critical patent/JP7293687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/20Hydro energy

Landscapes

  • Barrages (AREA)

Abstract

To provide an information processing method and the like capable of properly determining quality of water upon water intake from a river.SOLUTION: An information processing method comprises the steps of: acquiring images captured at a hydraulic power station to include a vicinity of a water intake inlet that takes water from a river; inputting the acquired images captured to include the vicinity of the intake inlet into a learned model which has learned through a deep learning to output a determination result determining whether quality of intake water is good, when inputting the images including the vicinity of the water intake inlet; and performing a process acquiring the determination result from the learned model using a computer.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理方法、プログラム、取水制御システム及び学習済みモデルの生成方法に関する。 The present invention relates to an information processing method, a program, a water intake control system, and a learned model generation method.

水力発電所等において、河川からの取水を行うにあたり現在の水質の良否度合を判定する手法が提案されている。例えば特許文献1では、工業用カラーテレビカメラ(ITV)で河川画像を撮影し、この画像データ及び数値データを画像処理装置に得、このデータを水質の良否データと共にデータ蓄積部に蓄積しておき、画像処理装置に得る現在のデータとデータ蓄積部から得る過去のデータとを水質判定部で比較することにより水質の良否を判定する。そして当該判定結果と水位検出器の検出水位とから取水判定部で取水ゲートのゲート開度及び取水停止/再開を判定し、ゲート制御指令部により取水ゲートを制御する取水制御システムが開示されている。 At a hydroelectric power plant, etc., a method for judging the current quality level of water quality when taking water from a river has been proposed. For example, in Patent Document 1, a river image is photographed by an industrial color television camera (ITV), the image data and numerical data are obtained by an image processing device, and this data is stored in a data storage unit together with water quality data. The quality of water is determined by comparing the current data obtained by the image processing apparatus with the past data obtained from the data storage unit by the water quality determination unit. A water intake control system is disclosed in which the water intake determination unit determines the gate opening of the water intake gate and water intake stop/restart based on the determination result and the water level detected by the water level detector, and the gate control command unit controls the water intake gate. ..

特開平6−346426号公報JP-A-6-346426

しかしながら、特許文献1に係る発明は、現在の河川画像と、データ蓄積部に蓄積した河川画像との比較により、水質の良否度合を判定するものであり、水質が良な状態であるとコンピュータが判定するためのルール、すなわち判定ロジックを人手で作成する必要があった。 However, the invention according to Patent Document 1 determines the quality level of water quality by comparing the current river image with the river image stored in the data storage unit, and the computer determines that the water quality is good. It was necessary to manually create a rule for making a judgment, that is, a judgment logic.

一つの側面では、河川からの取水を行うにあたり水質の良否を適切に判定することができる情報処理方法等を提供することを目的とする。 In one aspect, an object of the present invention is to provide an information processing method and the like capable of appropriately determining the quality of water when taking water from a river.

一つの側面では、情報処理方法は、水力発電所において河川から水を取水する取水口付近を含むように撮像した画像を取得し、前記取水口付近を含む画像を入力した場合に取水の良否を判定した判定結果を出力するよう深層学習により学習済みの学習済みモデルに、取得した前記取水口付近を含む画像を入力し、前記学習済みモデルから前記判定結果を取得する処理をコンピュータに実行させることを特徴とする。 In one aspect, the information processing method acquires an image captured so as to include the vicinity of an intake for taking water from a river in a hydroelectric power plant, and determines whether the intake is good or bad when an image including the vicinity of the intake is input. Inputting an image including the acquired vicinity of the intake to a learned model that has been learned by deep learning so as to output the determined determination result, and causing a computer to execute a process of acquiring the determination result from the learned model. Is characterized by.

一つの側面では、河川からの取水を行うにあたり水質の良否を適切に判定することができる。 According to one aspect, the quality of water can be appropriately determined when water is taken from a river.

実施形態1に係る取水制御システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the water intake control system which concerns on Embodiment 1. 情報処理装置(サーバ)の構成例を示すブロック図である。It is a block diagram showing an example of composition of an information processor (server). 学習済みモデルの生成処理に関する説明図である。It is explanatory drawing regarding the production|generation process of the learned model. 学習済みモデルの教師データのサンプルに関する説明図である。It is explanatory drawing regarding the sample of the teacher data of the learned model. 第2学習済みモデルの生成処理に関する説明図である。It is explanatory drawing regarding the production|generation process of a 2nd learned model. 情報処理装置(サーバ)の制御部に含まれる機能部を例示する機能ブロック図である。It is a functional block diagram which illustrates the functional part contained in the control part of an information processor (server). 情報処理装置(サーバ)の制御部による処理手順の一例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure by a control part of an information processor (server). 実施形態2(撮像条件)に係る制御部に含まれる機能部を例示する機能ブロック図である。9 is a functional block diagram illustrating a functional unit included in a control unit according to a second embodiment (imaging condition). FIG. 情報処理装置(サーバ)の制御部による処理手順の一例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure by a control part of an information processor (server). 実施形態3(撮像の時間帯)に係る制御部に含まれる機能部を例示する機能ブロック図である。It is a functional block diagram which illustrates the functional part contained in the control part concerning Embodiment 3 (imaging time zone). 情報処理装置(サーバ)の制御部による処理手順の一例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure by a control part of an information processor (server).

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施形態1)
図1は、実施形態1に係る取水制御システムSの構成例を示す模式図である。貯水式の水力発電所(図示せず)を運用するにあたり、水力発電所に設けられる発電機の水車を回転するための水は、取水口4から取水した河川Rの水が用いられる。図1に示すごとく、河川Rには、当該河川Rの流れに沿うように複数の取水口4を含む設備が設けられている。取水口4よりも下流側には、河川Rの流れ(水流)を堰き止める堰堤5が設けられている。堰堤5は、土砂を排出する排砂門51及び、堰堤5の上流側基部の近傍に設けられる越流部52を含む。
Hereinafter, the present invention will be described in detail with reference to the drawings showing an embodiment thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of a water intake control system S according to the first embodiment. When operating a water storage type hydroelectric power plant (not shown), the water of the river R taken from the intake 4 is used as the water for rotating the turbine of the generator provided in the hydroelectric power plant. As shown in FIG. 1, the river R is provided with equipment including a plurality of water intakes 4 along the flow of the river R. A dam 5 that dams the flow (water flow) of the river R is provided downstream of the water intake 4. The dam 5 includes a sand discharge gate 51 for discharging earth and sand, and an overflow portion 52 provided near the upstream base of the dam 5.

水力発電を行わない場合、堰堤5の排砂門51は開かれ(開門)、取水口4は閉められた(閉門)状態となっており、河川Rの水は、堰堤5を通過して下流に流れる。水力発電を行う場合、堰堤5の排砂門51は閉じられ(閉門)、取水口4は開けられた(開門)状態となっており、取水口4付近の河川Rの水は、取水口4を通過し、取水口4の下流側に位置する水力発電所に流れる。 When hydroelectric power generation is not performed, the sand removal gate 51 of the dam 5 is open (open) and the intake 4 is closed (closed), and the water of the river R passes through the dam 5 and reaches the downstream Flow to. When performing hydroelectric power generation, the sand discharge gate 51 of the dam 5 is closed (closed) and the intake 4 is open (open), and the water in the river R near the intake 4 is in the intake 4 To the hydroelectric power station located downstream of the intake 4.

取水制御システムは、堰堤5の排砂門51における異物等の有無及び、取水口4付近の河川Rの水の状態に基づき、排砂門51及び取水口4の開閉制御を行うものであり、情報処理装置1、撮像部2及び取水口制御盤3を含む。情報処理装置1と、撮像部2及び取水口制御盤3とは、通信可能に接続されている。 The water intake control system controls the opening and closing of the sand discharge gate 51 and the intake 4 based on the presence or absence of foreign matter in the sand discharge gate 51 of the dam 5, and the state of the water in the river R near the intake 4. The information processing apparatus 1, the imaging unit 2, and the water intake control panel 3 are included. The information processing device 1, the imaging unit 2, and the intake control panel 3 are communicably connected.

撮像部2は、例えばITV(industrial television/工業用テレビ)又はカメラによって構成され、動画を撮像し、又は周期的に静止画を撮像し、撮像した画像(動画又は静止画)を情報処理装置1に出力する。撮像部2は、取水口4付近の河川R及び排砂門51を含むように(フレーム内に納めるように)撮像する。すなわち撮像部2によって撮像された画像において、取水口4付近の河川R及び排砂門51が被写体として納められている。又は、撮像部2は複数台のITVにより構成されており、撮像部2は取水口4を含むように(フレーム内に納めるように)撮像するITV、及び排砂門51を含むように(フレーム内に納めるように)撮像するITVを含むものであってもよい。これらITV夫々は、撮像した画像夫々を情報処理装置1に出力する。 The image capturing unit 2 is configured by, for example, an ITV (industrial television) or a camera, captures a moving image, or periodically captures a still image, and captures the captured image (moving image or still image) as the information processing device 1 Output to. The image capturing unit 2 captures an image of the river R and the sand discharge gate 51 near the water intake 4 (so as to fit within the frame). That is, in the image captured by the image capturing unit 2, the river R and the sand discharging gate 51 near the water intake 4 are stored as subjects. Alternatively, the image pickup unit 2 is composed of a plurality of ITVs, and the image pickup unit 2 includes an ITV that captures an image so as to include the intake port 4 (to fit in the frame) and a sand removal gate 51 (the frame). It may also include the ITV to be imaged (to fit within). Each of these ITVs outputs each captured image to the information processing device 1.

情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置1であり、例えばサーバ装置、パーソナルコンピュータ等である。サーバ装置は、単体のサーバ装置のみならず、複数台のコンピュータによって構成されるクラウドサーバ装置、又は仮想サーバ装置を含む。本実施の形態では情報処理装置1がサーバ装置であるものとし、以下の説明では簡潔のためサーバ1と読み替える。サーバ1は、撮像部2が撮像した画像を取得し、当該画像から取水口4付近の河川Rの水の良否、及び堰堤5の排砂門51における異物等の有無を判定する処理を行う。サーバ1は、これら判定を行うにあたり、後述する学習済みモデル101及び第2学習済みモデル102を用いる。サーバ1は、これら判定結果に基づき、取水を開始するための信号を生成し、生成した信号を取水口制御盤3に出力する。 The information processing apparatus 1 is an information processing apparatus 1 capable of various information processing and information transmission/reception, and is, for example, a server device, a personal computer, or the like. The server device includes not only a single server device but also a cloud server device or a virtual server device configured by a plurality of computers. In the present embodiment, the information processing device 1 is assumed to be a server device, and will be read as server 1 for simplicity in the following description. The server 1 acquires an image captured by the image capturing unit 2 and performs processing to determine from the image whether the water in the river R near the intake 4 is good or not, and the presence or absence of foreign matter in the sand discharge gate 51 of the dam 5. The server 1 uses a learned model 101 and a second learned model 102, which will be described later, in making these determinations. The server 1 generates a signal for starting water intake based on these determination results, and outputs the generated signal to the water inlet control panel 3.

取水口制御盤3は、排砂門51を開閉するための排砂門駆動部(図示せず)、及び取水口4を開閉するための取水口駆動部(図示せず)と通信可能に接続してあり、排砂門駆動部及び取水口駆動部に駆動制御信号を出力することにより、排砂門51及び取水口4の開閉制御する。取水口制御盤3は、排砂門51及び取水口4の開閉制御を行いにあたり、情報処理装置1から出力された信号に基づき、駆動制御信号を出力する。 The intake control panel 3 is communicably connected to a sand removal gate drive unit (not shown) for opening and closing the sand removal gate 51 and an intake drive unit (not shown) for opening and closing the intake port 4. By controlling the opening and closing of the sand discharge gate 51 and the intake port 4 by outputting a drive control signal to the sand discharge gate drive unit and the intake port drive unit. The intake control panel 3 outputs a drive control signal based on the signal output from the information processing device 1 when controlling the opening and closing of the sand discharge gate 51 and the intake 4.

図2は、情報処理装置(サーバ1)の構成例を示すブロック図である。サーバ1は、制御部10、記憶部11及び通信部12を含む。 FIG. 2 is a block diagram showing a configuration example of the information processing device (server 1). The server 1 includes a control unit 10, a storage unit 11, and a communication unit 12.

制御部10は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、記憶部11に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。又は、制御部10は量子コンピュータ用チップで構成されており、サーバ1は量子コンピュータであってもよい。 The control unit 10 has an arithmetic processing unit such as one or more CPUs (Central Processing Units), MPUs (Micro-Processing Units), and GPUs (Graphics Processing Units), and reads the program P stored in the storage unit 11. By executing the above, various information processing, control processing, and the like related to the server 1 are performed. Alternatively, the control unit 10 may be composed of a quantum computer chip, and the server 1 may be a quantum computer.

記憶部11は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部11には、プログラムP及び処理時に参照するデータがあらかじめ記憶してある。記憶部11に記憶されたプログラムPは、サーバ1が読み取り可能な記録媒体(図示せず)から読み出された制御プログラムPを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラムPをダウンロードし、記憶部11に記憶させたものであってもよい。記憶部11には、学習済みモデル101及び第2学習済みモデル102を構成する実体ファイルが保存されている。これら実体ファイルは、プログラムPの一部位として構成されるものであってもよい。 The storage unit 11 includes a volatile storage area such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), and a flash memory, and a non-volatile storage area such as an EEPROM or a hard disk. The storage unit 11 stores a program P and data to be referred to during processing in advance. The program P stored in the storage unit 11 may be a program that stores the control program P read from a recording medium (not shown) readable by the server 1. Alternatively, the program P may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 11. The storage unit 11 stores entity files that form the learned model 101 and the second learned model 102. These substance files may be configured as one part of the program P.

通信部12は、有線又は無線により撮像部2及び取水口制御盤3と通信するための通信モジュール又は通信インターフェイスである。制御部10は、通信部12を介して、撮像部2から出力された画像を取得(受信)し、取水口制御盤3に対し信号を出力(送信)する。 The communication unit 12 is a communication module or a communication interface for communicating with the imaging unit 2 and the intake control panel 3 by wire or wirelessly. The control unit 10 acquires (receives) the image output from the imaging unit 2 via the communication unit 12 and outputs (transmits) a signal to the water intake control panel 3.

図3は、学習済みモデルの生成処理に関する説明図である。サーバ1は、取水口4付近の河川Rを撮像した画像内における当該河川Rの水の濁度、色調、濃淡等に関する画像特徴量を学習するディープラーニング(深層学習)を行うことで、撮像画像を入力とし、当該河川Rの水が取水に適するか否かの良否を示す情報を出力とするニューラルネットワークを構築(生成)する。又は、当該撮像画像を入力とし、当該河川Rの水の濁度に関する数値情報を出力とするニューラルネットワークを構築(生成)するものであってもよい。例えばニューラルネットワークはCNN(Convolution Neural Network)であり、撮像画像の入力を受け付ける入力層と、河川Rの水の良否を示す情報(識別結果)を出力する出力層と、撮像画像の画像特徴量を抽出する中間層とを有する。 FIG. 3 is an explanatory diagram regarding the generation processing of the learned model. The server 1 performs deep learning (deep learning) for learning the image feature amount regarding the turbidity, color tone, shading, etc. of the water of the river R in the image of the river R near the intake 4, thereby capturing the captured image. Is input, and a neural network that outputs information indicating whether the water of the river R is suitable for water intake is constructed (generated). Alternatively, a neural network that inputs the captured image and outputs numerical information regarding the turbidity of the water of the river R may be constructed (generated). For example, the neural network is a CNN (Convolution Neural Network), and an input layer that receives an input of a captured image, an output layer that outputs information (identification result) indicating the quality of water in the river R, and an image feature amount of the captured image are displayed. And an intermediate layer to be extracted.

入力層は、撮像画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、撮像画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。例えば学習済みモデル101がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、撮像画像の画素情報を圧縮しながら最終的に画像の特徴量を抽出する。出力層は、取水口4付近の河川Rの水の良否等を判定した判定結果を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、当該水の良否等すなわち取水口4付近の河川Rの水が取水に適するか否かを判定する。すなわち、学習済みモデル101は、取水口4付近の河川Rの水が取水に適するか否かを判定するものであり、取水口4の開制御を行うために用いられる。 The input layer has a plurality of neurons that receive the input of the pixel value of each pixel included in the captured image, and transfers the input pixel value to the intermediate layer. The intermediate layer has a plurality of neurons that extract the image feature amount of the captured image, and passes the extracted image feature amount to the output layer. For example, when the trained model 101 is CNN, the intermediate layer alternates between a convolution layer that convolves the pixel values of each pixel input from the input layer and a pooling layer that maps the pixel values convolved by the convolution layer. The feature amount of the image is finally extracted while compressing the pixel information of the captured image. The output layer has one or more neurons that output a determination result for determining the quality of the water in the river R near the water intake 4, and the quality of the water is determined based on the image feature amount output from the intermediate layer. Etc. That is, it is determined whether or not the water in the river R near the intake 4 is suitable for intake. That is, the learned model 101 is for determining whether or not the water in the river R near the intake 4 is suitable for intake, and is used for controlling the opening of the intake 4.

なお、本実施の形態では学習済みモデル101がCNNであるものとして説明するが、学習済みモデル101はCNNに限定されず、CNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された学習済みモデル101であってよい。 In the present embodiment, the learned model 101 is described as a CNN, but the learned model 101 is not limited to the CNN, and a neural network other than CNN, SVM (Support Vector Machine), Bayesian network, regression tree The learned model 101 constructed by another learning algorithm such as

サーバ1は、取水口4付近の河川Rを撮像した複数の画像と、各画像における河川Rの水の良否、当該水の濁度又は、当該水の良否及び濁度を示す情報とが、対応付けられた教師データを用いて学習を行う。河川Rの水の良否とは、当該河川Rの水が、水力発電のための取水として適するか否かを示す情報である。河川Rの水の濁度とは、例えばJIS K0101(工業用水試験方法)の規定に基づき決定される水の濁り度を示す値である。 The server 1 associates a plurality of images of the river R near the intake 4 with the quality of the water of the river R in each image, the turbidity of the water, or information indicating the quality of the water and the turbidity of the water. Learning is performed using the attached teacher data. The quality of the water of the river R is information indicating whether or not the water of the river R is suitable for intake of water for hydroelectric power generation. The turbidity of the water in the river R is a value indicating the turbidity of the water determined based on, for example, JIS K0101 (industrial water test method).

水力発電を行うにあたり、水車を回転させる水の濁度が高い場合、当該水に含まれる砂等の不純物との摩擦により、水車が摩耗等により劣化することが懸念される。そこで、取水として適するか否(河川Rの水の良否)の判定は、水の色調、濃淡又は濁度等により行われる。すなわち、濁度が低く透明度の高い水は取水として適しており、濁度が高く透明度の低い水は取水として適していない。このような観点に基づき、教師データは、取水口4付近の河川Rを撮像した画像(問題データ)に対し、取水の良否又は/及び濁度の値(回答データ)が、ラベル付け(関連付けられた)されたデータセットとして構成される。 In hydroelectric power generation, when the turbidity of the water that rotates the water turbine is high, there is a concern that the water turbine may deteriorate due to wear or the like due to friction with impurities such as sand contained in the water. Therefore, the determination as to whether or not the water is suitable for water intake (quality of water in the river R) is made based on the color tone, shade, or turbidity of the water. That is, water with low turbidity and high transparency is suitable for intake, and water with high turbidity and low transparency is not suitable for intake. Based on such a viewpoint, the teacher data labels (associate) the quality of water intake and/or the value of turbidity (answer data) with respect to the image (problem data) of the river R near the water intake 4. Configured as a customized data set.

図4は、学習済みモデルの教師データのサンプルに関する説明図である。取水口4付近の河川Rを撮像した画像(問題データ)は、例えば図4に示すようなメスシリンダ等の容器に注いだ水を濁らせ、当該メスシリンダ内の水を撮像した画像に基づき生成するものであってもよい。 FIG. 4 is an explanatory diagram related to a sample of teacher data of a learned model. An image (problem data) obtained by imaging the river R near the water intake 4 is generated based on an image obtained by imaging the water in the graduated cylinder by making water poured into a container such as a graduated cylinder as shown in FIG. It may be one.

例えば、取水が否判定となるような濁度(濁度値の大きい)となるように濁らせた水を注いだメスシリンダを用意し、当該メスシリンダ内の水(図4A)を撮像する。又、同じ濁度であっても、ライトを照射することにより照度を変更して、メスシリンダ内の水(図4B)を撮像する。このように照度を異ならせて、取水が否判定となるような濁度の水を撮像し、撮像した画像に対し、取水に適さない(取水:否判定)とする結果をラベル付け(関連付けられた)されたデータセットとして、教師データに用いる。同様に、取水が良判定となるような濁度(濁度値が小さい)の水を注いだメスシリンダを用意し、当該メスシリンダ内の水(図4C)を撮像する。又、同じ濁度であっても、ライトを照射することにより照度を変更して、メスシリンダ内の水(図4D)を撮像する。このように照度を異ならせて、取水が良判定となるような濁度の水を撮像し、撮像した画像に対し、取水に適する(取水:良判定)とする結果をラベル付け(関連付けられた)されたデータセットとして、教師データに用いる。撮像したメスシリンダ内の水の画像を細分化し、細分化した画像を取水口4付近の河川Rに合成することにより、当該濁度となる取水口4付近の河川Rの画像を生成するものであってもよい。サーバ1の制御部10は、入力されたメスシリンダの画像から、メスシリンダ内の水の画像を抽出し、抽出した画像を細分化して所定のサイズからなる複数の画像単位を生成する。制御部10は、生成した画像単位夫々を複製して、画像単位の個数を増加させる共に、増加させた画像単位夫々を取水口4付近の河川Rに合成することにより、当該画像単位、すなわちメスシリンダ内の水の画像を用いた取水口4付近の河川Rの画像を生成する。制御部10は、増加させた画像単位夫々を取水口4付近の河川Rに合成するにあたり、当該画像単位夫々の配置を異ならせることにより、複数パターンの取水口4付近の河川Rの画像を生成するものであってもよい。教師データの生成は、サーバ1が行うとしてあるが、これに限定されない。上記のメスシリンダ内の水の画像による合成を含め、教師データは、サーバ1以外のコンピュータが行うものであってもよい。サーバ1は、他のコンピュータによって生成された教師データを用いて学習するものであってもよい。 For example, a graduated cylinder into which turbid water having a turbidity (a large turbidity value) is determined so that water can be determined to be rejected is prepared, and the water in the graduated cylinder (FIG. 4A) is imaged. Further, even if the turbidity is the same, the illuminance is changed by irradiating the light, and the water (FIG. 4B) in the graduated cylinder is imaged. In this way, the illuminance is made different, and the water with the turbidity that makes the judgment of water intake is imaged, and the result that is not suitable for water intake (water intake: no judgment) is labeled (associated Used as teacher's data. Similarly, a graduated cylinder into which water with a turbidity (small turbidity value) that allows water to be judged good is prepared, and the water (FIG. 4C) in the graduated cylinder is imaged. Even if the turbidity is the same, the illuminance is changed by irradiating a light, and the water (FIG. 4D) in the graduated cylinder is imaged. In this way, the illuminance is made different, and water with turbidity that makes a good water intake is imaged, and the captured image is labeled with the result of being suitable for water intake (water intake: good judgment). ) Is used as teacher data. The image of the water in the measuring cylinder is subdivided, and the subdivided image is combined with the river R near the water intake 4 to generate an image of the river R near the water intake 4 having the turbidity. It may be. The control unit 10 of the server 1 extracts an image of water in the graduated cylinder from the input image of the graduated cylinder and subdivides the extracted image to generate a plurality of image units having a predetermined size. The control unit 10 duplicates each of the generated image units, increases the number of image units, and synthesizes each of the increased image units into the river R near the water inlet 4 to obtain the image unit, that is, the female unit. An image of the river R near the intake 4 is generated using the image of water in the cylinder. When synthesizing the increased image units into the river R near the water inlet 4, the control unit 10 generates a plurality of patterns of the image of the river R near the water inlet 4 by changing the arrangement of the respective image units. It may be one that does. Although the generation of the teacher data is supposed to be performed by the server 1, it is not limited to this. Computers other than the server 1 may perform the teaching data including the above-described synthesis of the image of water in the graduated cylinder. The server 1 may perform learning by using teacher data generated by another computer.

上述の方法を用いることにより、取水口4付近の河川Rを撮像した教師データが少ない場合であっても、教師データを増加させることができる。例えば、年間を通して、河川Rの水の濁度が高くなる頻度が低い場合であっても、取水として適さない水(否の水)となる教師データを効率的に生成することができる。 By using the method described above, it is possible to increase the teacher data even if the teacher data that captures the river R near the intake 4 is small. For example, even when the turbidity of the water in the river R is low throughout the year, it is possible to efficiently generate teacher data that is water that is not suitable for water intake (no water).

サーバ1は、教師データに含まれる取水口4付近の河川Rを撮像した画像を入力層に入力し、中間層での演算処理を経て、出力層から取水の良否又は濁度の値を示す判定結果(識別結果)を取得する。なお、出力層から出力される識別結果は良否又は濁度の値を離散的に示す値(例えば「0」又は「1」の値)であってもよく、連続的な確率値(例えば「0」から「1」までの範囲の値)であってもよい。 The server 1 inputs the image of the river R near the intake 4 included in the teacher data to the input layer, and through the arithmetic processing in the intermediate layer, determines whether the intake layer is good or bad or the turbidity value from the output layer. Get the result (identification result). The identification result output from the output layer may be a value that discretely indicates the quality or turbidity value (for example, a value of “0” or “1”), and a continuous probability value (for example, “0”). Value in the range from "" to "1").

サーバ1は、出力層から出力された識別結果を、教師データにおいて画像(問題データ)に対しラベル付けされた情報、すなわち正解値(回答データ)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えばサーバ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。サーバ1は、教師データに含まれる各画像について上記の処理を行い、学習済みモデル101を生成する。 The server 1 compares the identification result output from the output layer with the information labeled for the image (question data) in the teacher data, that is, the correct answer value (answer data), and the output value from the output layer is the correct answer value. The parameters used for the arithmetic processing in the intermediate layer are optimized so as to approach The parameter is, for example, a weight between neurons (coupling coefficient), a coefficient of an activation function used in each neuron, or the like. The method of optimizing the parameters is not particularly limited, but the server 1 optimizes various parameters using the error back propagation method, for example. The server 1 performs the above processing on each image included in the teacher data to generate the learned model 101.

図5は、第2学習済みモデル102の生成処理に関する説明図である。サーバ1は、排砂門51を撮像した画像内(撮像画像内)における異物等に関する画像特徴量を学習するディープラーニングを行うことで、撮像画像を入力とし、排砂門51における異物等の有無を示す情報を出力とするニューラルネットワークを構築(生成)する。排砂門51における異物等とは、排砂門51を閉める際の排砂門51の移動経路上に位置する異物のみならず、堰堤5の越流部52における人間を含むものであってもよい。 FIG. 5 is an explanatory diagram regarding the generation processing of the second learned model 102. The server 1 uses the captured image as an input by performing deep learning for learning the image feature amount regarding the foreign matter or the like in the image captured by the sand removal gate 51 (within the captured image), and the presence or absence of the foreign matter or the like in the sand removal gate 51. Constructs (generates) a neural network that outputs information indicating The foreign matter or the like in the sand removal gate 51 may include not only foreign matter located on the movement path of the sand removal gate 51 when closing the sand removal gate 51 but also a person in the overflow section 52 of the dam 5. Good.

サーバ1は、排砂門51を撮像した画像内において、排砂門51の移動経路上に体積した土砂等、堰堤5の越流部52における人間に関する画像特徴量を学習するディープラーニングを行う。当該ディープラーニングにより、排砂門51における異物又は堆積した土砂の有無、及び堰堤5の越流部52における人間の有無を示す情報を出力とするニューラルネットワークを構築(生成)することができる。当該異物は、例えば流木、廃棄物を含む。学習済みモデル101と同様に、当該ニューラルネットワークは、例えばCNNであり、排砂門51を撮像した画像の入力を受け付ける入力層と、異物等の有無を示す情報(識別結果)を出力する出力層と、撮像画像の画像特徴量を抽出する中間層とを有する。出力層は、排砂門51における異物又は堆積した土砂の有無、及び堰堤5の越流部52における人間の有無を判定した判定結果を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、排砂門51における異物又は堆積した土砂の有無、及び堰堤5の越流部52における人間の有無を判定する。すなわち、第2学習済みモデルは、排砂門51における異物等の有無を判定するものであり、排砂門51の閉制御を行うために用いられる。 The server 1 performs deep learning for learning the image feature amount of a person in the overflow portion 52 of the dam 5, such as earth and sand accumulated on the moving path of the sand removal gate 51, in the image obtained by capturing the sand removal gate 51. By the deep learning, it is possible to construct (generate) a neural network that outputs information indicating the presence or absence of foreign matter or accumulated sediment in the sand discharge gate 51 and the presence or absence of a person in the overflow section 52 of the dam 5. The foreign matter includes, for example, driftwood and waste. Similar to the learned model 101, the neural network is, for example, a CNN, an input layer that receives an input of an image of the sand discharging gate 51, and an output layer that outputs information (identification result) indicating the presence or absence of a foreign substance or the like. And an intermediate layer for extracting the image feature amount of the captured image. The output layer has one or more neurons that output a determination result that determines the presence or absence of foreign matter or accumulated sediment in the sand removal gate 51 and the presence or absence of a person in the overflow section 52 of the dam 5, and outputs from the intermediate layer. The presence/absence of foreign matter or accumulated sediment in the sand removal gate 51 and the presence/absence of a person in the overflow section 52 of the dam 5 are determined based on the image feature amount thus obtained. That is, the second learned model is for determining the presence or absence of a foreign substance or the like in the sand removal gate 51, and is used to perform the closing control of the sand removal gate 51.

サーバ1は、排砂門51を撮像した複数の画像と、各画像における排砂門51の移動経路上における異物の有無、及び堰堤5の越流部52における人間の有無を示す情報とが対応付けられた教師データを用いて学習を行う。 The server 1 associates a plurality of images of the sand removal gate 51 with information indicating the presence/absence of foreign matter on the moving path of the sand removal gate 51 in each image and the presence/absence of a person in the overflow section 52 of the dam 5. Learning is performed using the attached teacher data.

排砂門51を閉めるにあたり、排砂門51の移動経路上に土砂等の異物が堆積している場合、排砂門51を完全に閉めることができないものとなる。また、堰堤5の越流部52にて、例えば釣人等が居る場合、排砂門51を閉めると堰堤5の上流側の水位が高くなるため、排砂門51を閉めることができないものとなる。このような観点に基づき、教師データは、排砂門51を撮像した画像(問題データ)に対し、異物及び人間の有無(回答データ)が、ラベル付け(関連付けられた)されたデータセットとして構成される。 When closing the sand discharging gate 51, if foreign matter such as earth and sand is accumulated on the moving route of the sand discharging gate 51, the sand discharging gate 51 cannot be closed completely. Further, in the overflow portion 52 of the dam 5, for example, when a fisherman or the like is present, closing the sand discharge gate 51 raises the water level on the upstream side of the dam 5, so that the sand discharge gate 51 cannot be closed. .. Based on such a viewpoint, the teacher data is configured as a data set in which the presence or absence of foreign matter and a person (answer data) is labeled (associated) with the image (question data) obtained by capturing the sand removal gate 51. To be done.

サーバ1は、教師データに含まれる、排砂門51を撮像した画像を入力層に入力し、中間層での演算処理を経て、出力層から異物及び人間の有無を示す識別結果を取得する。サーバ1は、学習済みモデル101と同様に、誤差逆伝播法を用いて各種パラメータの最適化を行う。サーバ1は、教師データに含まれる各画像について上記の処理を行い、第2学習済みモデル102を生成する。 The server 1 inputs the image of the sand removal gate 51, which is included in the teacher data, into the input layer, performs the arithmetic processing in the intermediate layer, and obtains the identification result indicating the presence or absence of the foreign matter and the human from the output layer. As with the learned model 101, the server 1 optimizes various parameters using the error backpropagation method. The server 1 performs the above processing on each image included in the teacher data to generate the second learned model 102.

取水口4及び堰堤5は、全国の河川Rに複数設けられている。サーバ1は、全国の河川Rに設けられている取水口4及び堰堤5毎に、別々の学習済みモデル101及び第2学習済みモデル102を構築する。又は、サーバ1は、全国の河川Rに複数設けられている取水口4及び堰堤5に共通する学習済みモデル101及び第2学習済みモデル102を構築するものであってもよい。 A plurality of intakes 4 and dams 5 are provided in the river R nationwide. The server 1 constructs a learned model 101 and a second learned model 102 separately for each of the intake 4 and the dam 5 provided in the river R nationwide. Alternatively, the server 1 may build a learned model 101 and a second learned model 102 that are common to the intakes 4 and the dams 5 provided in a plurality of rivers R nationwide.

図6は、情報処理装置(サーバ1)の制御部10に含まれる機能部を例示する機能ブロック図である。制御部10は、記憶部11に記憶してあるプログラムPを実行することにより、通信部12を介して、撮像部2から受信した画像を取得する取得部103として機能する。制御部10は、記憶部11に記憶してあるプログラムPを実行、又は学習済みモデル101を構成する実体ファイルを読み出すことにより、学習済みモデル101として機能する。制御部10は、記憶部11に記憶してあるプログラムPを実行、又は第2学習済みモデル102を構成する実体ファイルを読み出すことにより、第2学習済みモデル102として機能する。制御部10は、記憶部11に記憶してあるプログラムPを実行することにより、学習済みモデル101又は第2学習済みモデル102から出力された判定結果に基づき、取水口制御盤3へ出力する信号を生成する信号生成部104として機能する。上述のごとく、制御部10は、プログラムPを実行等することにより、取得部103、学習済みモデル101、第2学習済みモデル102及び信号生成部104として機能するものであり、図6においては、これら部位を機能部として示している。 FIG. 6 is a functional block diagram illustrating the functional units included in the control unit 10 of the information processing device (server 1). The control unit 10 functions as the acquisition unit 103 that acquires the image received from the imaging unit 2 via the communication unit 12 by executing the program P stored in the storage unit 11. The control unit 10 functions as the learned model 101 by executing the program P stored in the storage unit 11 or reading the substance file forming the learned model 101. The control unit 10 functions as the second learned model 102 by executing the program P stored in the storage unit 11 or reading the substance file forming the second learned model 102. The control unit 10 executes the program P stored in the storage unit 11 to output a signal to the intake control panel 3 based on the determination result output from the learned model 101 or the second learned model 102. Functions as the signal generation unit 104 that generates As described above, the control unit 10 functions as the acquisition unit 103, the learned model 101, the second learned model 102, and the signal generation unit 104 by executing the program P or the like, and in FIG. These parts are shown as functional parts.

取得部103により、取水口4付近の河川Rを含む画像及び堰堤5を含む画像を取得することによって、制御部10に、これら画像が入力される。制御部10は、これら画像を、例えばプログラムPの引数として、当該プログラムPを実行することにより、取得部103として機能する。 By the acquisition unit 103 acquiring an image including the river R near the intake 4 and an image including the dam 5, these images are input to the control unit 10. The control unit 10 functions as the acquisition unit 103 by executing the program P using these images as arguments of the program P, for example.

取得部103は、取水口4付近の河川Rを含む画像及び堰堤5を含む画像に対応するように2つとして記載しているが、これに限定されない。取得部103を1つとし、取水口4付近の河川R及び堰堤5の双方を含む画像を取得し、取得した画像を例えばフィルタ処理を行い、取水口4付近の河川Rを含む部位の画像と、堰堤5を含む部位の画像とに分割し、分割した画像夫々を対応する学習済みモデル101、第2学習済みモデル102に入力するものであってもよい。又は、取水口4付近の河川R及び堰堤5の双方を含む画像を、学習済みモデル101、第2学習済みモデル102に入力するものであってもよい。 The acquisition unit 103 is described as two in order to correspond to the image including the river R near the intake 4 and the image including the dam 5, but the present invention is not limited to this. With one acquisition unit 103, an image including both the river R and the dam 5 near the intake 4 is acquired, the acquired image is subjected to, for example, filter processing, and an image of a region including the river R near the intake 4 is obtained. , The image of the region including the dam 5, and the divided images may be input to the corresponding learned model 101 and second learned model 102, respectively. Alternatively, an image including both the river R near the intake 4 and the dam 5 may be input to the learned model 101 and the second learned model 102.

取得部103に入力される画像は、撮像部2が撮像した画像がそのまま入力される場合に限定されない。取得部103に入力される画像は、前処理として、撮像部2が撮像した画像における取水口4付近の河川Rの領域、又は堰堤5の領域を切り出し、当該切り出した画像であってもよい。 The image input to the acquisition unit 103 is not limited to the case where the image captured by the image capturing unit 2 is input as it is. The image input to the acquisition unit 103 may be an image obtained by cutting out the region of the river R or the region of the dam 5 near the intake 4 in the image captured by the image capturing unit 2 as preprocessing.

取得部103が取得した取水口4付近の河川Rを含む画像は、学習済みモデル101に入力される。学習済みモデル101は、入力された取水口4付近の河川Rを含む画像に応じて、河川Rの水の良否、当該水の濁度の値又は、当該良否及び濁度の値に関する情報(判定結果)を、信号生成部104に出力する。 The image including the river R near the intake 4 acquired by the acquisition unit 103 is input to the learned model 101. The learned model 101 receives information regarding the quality of the water in the river R, the turbidity value of the water, or the quality and the turbidity value according to the input image including the river R near the intake 4 (determination). The result) is output to the signal generation unit 104.

取得部103が取得した堰堤5を含む画像は、第2学習済みモデル102に入力される。第2学習済みモデル102は、入力された堰堤5を含む画像に応じて、排砂門51における異物又は堆積した土砂の有無、及び堰堤5の越流部52における人間の有無に関する情報(判定結果)を、信号生成部104に出力する。 The image including the dam 5 acquired by the acquisition unit 103 is input to the second learned model 102. The second learned model 102, in accordance with the input image including the dam 5, information about the presence or absence of foreign matter or accumulated sediment in the sand discharge gate 51, and the presence or absence of a person in the overflow section 52 of the dam 5 (determination result). ) Is output to the signal generation unit 104.

信号生成部104は、学習済みモデル101及び第2学習済みモデル102から出力された情報(判定結果)に基づき、取水口制御盤3に出力(送信)する信号を生成する。信号生成部104が生成する信号は、排砂門51を閉にする信号、及び取水口4を開にする信号を含む。 The signal generation unit 104 generates a signal to be output (transmitted) to the intake control panel 3 based on the information (determination result) output from the learned model 101 and the second learned model 102. The signal generated by the signal generation unit 104 includes a signal for closing the sand discharge gate 51 and a signal for opening the water intake 4.

信号生成部104は、第2学習済みモデル102から出力された情報(判定結果)が排砂門51における異物等が無い及び越流部52に人間がいない場合、排砂門51を閉にする信号を生成し、当該信号を取水口制御盤3に出力する。信号生成部104は、複数回にわたり、第2学習済みモデル102から出力された情報(判定結果)が排砂門51における異物等が無い及び越流部52に人間がいない場合、排砂門51を閉にする信号を生成し、当該信号を取水口制御盤3に出力するものであってもよい。取得部は撮像部から入力される画像を周期的に取得している。そこで、連続して所定回数取得した画像により、例えば第2学習済みモデル102から出力された情報(判定結果)の全てが、排砂門51における異物等が無い及び越流部52に人間がいない場合、信号生成部104は、排砂門51を閉にする信号を生成し、当該信号を取水口制御盤3に出力するものであってもよい。又は、連続して所定回数取得した画像により、例えば第2学習済みモデル102から出力された情報の8割以上が、排砂門51における異物等が無い及び越流部52に人間がいない場合、信号生成部104は、排砂門51を閉にする信号を生成し、当該信号を取水口制御盤3に出力するものであってもよい。 The signal generation unit 104 closes the sand removal gate 51 when the information (determination result) output from the second learned model 102 is that there is no foreign matter or the like in the sand removal gate 51 and there is no person in the overflow section 52. A signal is generated and the signal is output to the water inlet control panel 3. When the information (determination result) output from the second learned model 102 is free of foreign matter or the like in the sand removal gate 51 and there is no person in the overflow section 52, the signal generation unit 104 outputs the sand removal gate 51 multiple times. May be generated and the signal may be output to the water inlet control panel 3. The acquisition unit periodically acquires the image input from the imaging unit. Therefore, all of the information (determination result) output from the second learned model 102 by the images acquired a predetermined number of times in succession is free of foreign matter or the like in the sand discharge gate 51 and there is no human in the overflow section 52. In this case, the signal generator 104 may generate a signal for closing the sand discharge gate 51 and output the signal to the water inlet control panel 3. Alternatively, if 80% or more of the information output from the second learned model 102 is obtained from the images continuously acquired a predetermined number of times, if there is no foreign matter or the like in the sand removal gate 51 and there is no human in the overflow section 52, The signal generation unit 104 may generate a signal for closing the sand discharge gate 51 and output the signal to the water inlet control panel 3.

更に信号生成部104は、第2学習済みモデル102から出力された情報(判定結果)に基づき、取水口制御盤3の管理者又は越流部52に居る人間に対し報知するための信号を生成し、当該信号を報知装置(図示せず)に出力するものであってもよい。報知装置は、例えば取水口制御盤3の管理者へ報知するためのディスプレイ等の表示装置及び、越流部52に居る人間に対し報知するためのスピーカ等の音声発生装置を含む。第2学習済みモデル102は、堰堤5(排砂門51)を含むように撮像した画像が入力された場合、排砂門51における異物等の有無、及び越流部52における人間の有無に関する判定結果を信号生成部104に出力する。信号生成部104は、排砂門51における異物等が有りとする判定結果が出力された場合、取水口制御盤3の管理者へ報知するための表示装置に信号を出力する。信号生成部104は、越流部52における人間が有りとする判定結果が出力された場合、越流部52に居る人間に対し報知するための音声発生装置に信号を出力する。第2学習済みモデル102から出力される判定結果の内容に応じて異なる信号を生成し出力することにより、排砂門51を閉門するにあたり適切な対応を行うことができる。 Further, the signal generation unit 104 generates a signal for notifying the manager of the intake control panel 3 or the person in the overflow section 52 based on the information (determination result) output from the second learned model 102. However, the signal may be output to a notification device (not shown). The notification device includes, for example, a display device such as a display for notifying a manager of the water intake control panel 3 and a sound generating device such as a speaker for notifying a person in the overflow section 52. When the image captured so as to include the dam 5 (sand removal gate 51) is input to the second learned model 102, the presence/absence of foreign matter in the sand removal gate 51 and the presence/absence of a person in the overflow 52 are determined. The result is output to the signal generator 104. The signal generation unit 104 outputs a signal to a display device for notifying the administrator of the water intake control panel 3 when the determination result indicating that there is a foreign substance or the like in the sand discharge gate 51 is output. When the determination result indicating that there is a person in the overflow unit 52 is output, the signal generation unit 104 outputs a signal to the sound generation device for notifying the person in the overflow unit 52. By generating and outputting a different signal according to the content of the determination result output from the second learned model 102, it is possible to take an appropriate measure when closing the sand removal gate 51.

信号生成部104は、排砂門51が閉められた状態において、学習済みモデル101から出力された情報(判定結果)が河川Rの水の良である場合、又は学習済みモデル101から出力された当該水の濁度の値が記憶部11に予め記憶されている所定値よりも小さい場合、取水口4を開にする信号を生成し、当該信号を取水口制御盤3に出力する。信号生成部104は、複数回にわたり、学習済みモデル101から出力された情報(判定結果)が河川Rの水の良である場合、又は学習済みモデル101から出力された当該水の濁度の値が記憶部11に予め記憶されている所定値よりも小さい場合、取水口4を開にする信号を生成し、当該信号を取水口制御盤3に出力するものであってもよい。すなわち、信号生成部104は、排砂門51を閉にする信号を生成する場合と同様に、連続して所定回数取得した画像により、例えば学習済みモデル101から出力された情報(判定結果)の全てが河川Rの水の良である等の場合、又は出力された情報(判定結果)の8割以上が河川Rの水の良である等の場合、取水口4を開にする信号を生成し、当該信号を取水口制御盤3に出力するものであってもよい。 The signal generation unit 104 outputs the information (determination result) output from the learned model 101 when the sand removal gate 51 is closed or the water in the river R is good, or is output from the learned model 101. When the value of the turbidity of the water is smaller than a predetermined value stored in the storage unit 11 in advance, a signal for opening the water intake 4 is generated and the signal is output to the water intake control panel 3. When the information (determination result) output from the learned model 101 is good for the water of the river R or the value of the turbidity of the water output from the learned model 101 is output to the signal generation unit 104 a plurality of times. May be smaller than a predetermined value stored in the storage unit 11 in advance, a signal for opening the water intake 4 may be generated and the signal may be output to the water intake control panel 3. In other words, the signal generation unit 104, for example, of the information (determination result) output from the learned model 101 by the images continuously acquired a predetermined number of times, as in the case of generating the signal for closing the sand removal gate 51. If all the water in the river R is good, or if 80% or more of the output information (judgment results) is good in the water in the river R, a signal to open the intake 4 is generated. However, the signal may be output to the water inlet control panel 3.

図7は、情報処理装置(サーバ1)の制御部10による処理手順の一例を示すフローチャートである。制御部10は、撮像部2が撮像した排砂門51の画像を取得する(S10)。当該画像は、撮像部2によって、排砂門51を撮像、又は排砂門51を含むように取水口4付近を撮像した画像である。従って、当該画像には、被写体として排砂門51が納められている。 FIG. 7 is a flowchart showing an example of a processing procedure by the control unit 10 of the information processing device (server 1). The control unit 10 acquires the image of the sand discharging gate 51 captured by the image capturing unit 2 (S10). The image is an image of the sand removal gate 51 taken by the imaging unit 2 or the vicinity of the intake 4 including the sand removal gate 51. Therefore, the sand removal gate 51 is included in the image as a subject.

制御部10は、取得した画像を第2学習済みモデル102に入力し、排砂門51における異物等の有無の判定結果を取得する(S11)。 The control unit 10 inputs the acquired image into the second learned model 102, and acquires the determination result of the presence or absence of foreign matter or the like in the sand removal gate 51 (S11).

制御部10は、第2学習済みモデル102から取得した判定結果に基づき、排砂門51における異物等が無いかの判定処理(判定結果に基づき分岐処理)を行う(S12)。 The control unit 10 performs a determination process (branching process based on the determination result) whether there is a foreign substance or the like in the sand discharge gate 51 based on the determination result acquired from the second learned model 102 (S12).

異物等が有る場合(S12:NO)、すなわち第2学習済みモデル102から出力された判定結果が、排砂門51における異物等がある又は越流部52に人がいる場合、制御部10は、再度S10の処理を実行すべく、ループ処理を行う。 If there is a foreign matter or the like (S12: NO), that is, if the determination result output from the second learned model 102 is a foreign matter or the like in the sand discharge gate 51 or a person is in the overflow section 52, the control unit 10 A loop process is performed to execute the process of S10 again.

異物等が無い場合(S12:YES)、すなわち第2学習済みモデル102から出力された判定結果が、排砂門51における異物等がない及び越流部52に人がいない場合、制御部10は、排砂門51を閉にする信号を出力する(S13)。サーバ1の制御部10から出力された排砂門51を閉にする信号に基づき、当該信号を受信した取水口制御盤3は、排砂門51を閉にする。排砂門51が閉(閉門)にされることにより、排砂門51及び取水口4付近の河川Rの水位が上昇する。 When there is no foreign matter or the like (S12: YES), that is, when the determination result output from the second learned model 102 is that there is no foreign matter or the like in the sand removal gate 51 and there is no person in the overflow section 52, the control unit 10 A signal for closing the sand discharging gate 51 is output (S13). Based on the signal output from the control unit 10 of the server 1 for closing the sand discharging gate 51, the water intake control panel 3 that receives the signal closes the sand discharging gate 51. When the sand removal gate 51 is closed (closed), the water level of the river R near the sand removal gate 51 and the intake 4 rises.

制御部10は、撮像部2が撮像した取水口4付近の画像を取得する(S14)。当該画像は、撮像部2によって、取水口4付近を撮像した画像である。従って、当該画像には、被写体として取水口4付近の河川Rが納められている。上述のごとく、撮像部2は1台のカメラによって構成され、当該カメラが排砂門51及び取水口4付近の河川Rを撮像するものであってもよい。この場合、単一の画像にて、排砂門51及び取水口4付近の河川Rが撮像される(フレーム内に納める)ものとなる。又は撮像部2は複数台のカメラにより構成されており、制御部10は、取水口4を含むように(フレーム内に納めるように)撮像するカメラから画像を取得するものであってもよい。 The control unit 10 acquires an image near the water intake 4 captured by the image capturing unit 2 (S14). The image is an image obtained by imaging the vicinity of the intake 4 by the imaging unit 2. Therefore, the river R near the water intake 4 is included in the image as a subject. As described above, the imaging unit 2 may be configured by one camera, and the camera may image the river R near the sand discharge gate 51 and the intake port 4. In this case, the river R near the sand discharge gate 51 and the intake 4 is imaged (stored in the frame) with a single image. Alternatively, the imaging unit 2 may be configured by a plurality of cameras, and the control unit 10 may acquire an image from a camera that captures the image including the water intake port 4 (to fit within the frame).

制御部10は、取得した画像を学習済みモデル101に入力し、河川Rの水の良否の判定結果を取得する(S15)。 The control unit 10 inputs the acquired image into the learned model 101 and acquires the determination result of the quality of the water of the river R (S15).

制御部10は、学習済みモデル101から取得した判定結果に基づき、河川Rの水は良であるかの判定処理(判定結果に基づき分岐処理)を行う(S16)。 The control unit 10 performs a determination process (branching process based on the determination result) whether the water in the river R is good based on the determination result acquired from the learned model 101 (S16).

河川Rの水は良でない(S16:NO)、すなわち学習済みモデル101からの判定結果が取水に適さないと判定(否判定)された場合、又は学習済みモデル101から出力された水の濁度が予め記憶部11に記憶してある所定値よりも大きい場合、制御部10は再度S14の処理を実行すべくループ処理を行う。 The water of the river R is not good (S16: NO), that is, when the determination result from the learned model 101 is determined to be unsuitable for water intake (no determination), or the turbidity of the water output from the learned model 101. Is larger than the predetermined value stored in the storage unit 11 in advance, the control unit 10 performs the loop process again to execute the process of S14.

河川Rの水は良である(S16:YES)、すなわちすなわち学習済みモデル101からの判定結果が取水に適すると判定(良判定)された場合、又は学習済みモデル101から出力された水の濁度が予め記憶部11に記憶してある所定値以下の場合、制御部10は、取水口4を開にする信号を出力する(S17)。 The water of the river R is good (S16: YES), that is, when the determination result from the learned model 101 is determined to be suitable for water intake (good determination), or the water output from the learned model 101 is turbid. When the degree is less than or equal to the predetermined value stored in the storage unit 11 in advance, the control unit 10 outputs a signal for opening the water intake 4 (S17).

サーバ1から出力された取水口4を開にする信号に基づき、当該信号を受信した取水口制御盤3は、取水口4を開にする。取水口4が開(開門)にされることにより、取水口4から流れでる河川Rの水によって発電機の水車が回転され、水力発電が開始される。 Based on the signal output from the server 1 for opening the water intake 4, the water intake control panel 3 receiving the signal opens the water intake 4. When the water intake 4 is opened (opened), the water wheel of the generator is rotated by the water of the river R flowing from the water intake 4, and hydroelectric power generation is started.

本実施形態では、制御部10は、撮像部2から取得した画像に基づき、学習済みモデル101及び第2学習済みモデル102を用いて、信号を生成し取水口制御盤3に当該信号を出力するとしたが、これに限定されない。制御部10は、撮像部2から取得した画像を用いて教師データを更に作成し、当該教師データを用いて再学習を行うものであってもよい。再学習を行うことにより、学習済みモデル101及び第2学習済みモデル102の判定の精度を更に向上させることができる。 In the present embodiment, the control unit 10 generates a signal using the learned model 101 and the second learned model 102 based on the image acquired from the imaging unit 2, and outputs the signal to the intake control panel 3. However, it is not limited to this. The control unit 10 may further create teacher data by using the image acquired from the imaging unit 2 and re-learn using the teacher data. By performing the re-learning, the accuracy of determination of the learned model 101 and the second learned model 102 can be further improved.

本実施形態によれば、取水口4付近を含む画像を入力した場合に取水の良否を判定した判定結果を出力するよう深層学習により学習済みの学習済みモデル101を用いることにより、河川Rからの取水を行うにあたり水質の良否を適切に判定することができる。又、学習済みモデル101による取水の良否の判定を含む情報処理方法を、貯水式の水力発電所に適用することにより、貯水した水の濁り度合いを適切に判定することができる。 According to the present embodiment, when the image including the vicinity of the intake 4 is input, the learned model 101 that has been learned by the deep learning is used so as to output the determination result of the quality of the intake. When taking water, it is possible to properly judge the quality of water. Further, by applying the information processing method including the determination of the quality of water intake by the learned model 101 to the water storage type hydroelectric power plant, the turbidity degree of the stored water can be appropriately determined.

本実施形態によれば、排砂門51を含む画像を入力した場合に、前記排砂門51における異物又は堆積土砂の有無を判定した判定結果を出力するよう深層学習により学習済みの第2学習済みモデル102を用いる。当該第2学習済みモデル102を用いることにより、河川Rからの取水開始の準備動作として閉動作が必要となる排砂門51において、当該排砂門51の閉動作を阻害する異物又は堆積土砂の有無を適切に判定することができる。又、堰堤5を含む画像を入力した場合に更に、前記堰堤5に設けられた越流部52における人間の有無を判定した判定結果出力するよう深層学習により学習済みの第2学習済みモデル102を用いることにより、越流部52における人間の有無を適切に判定することができる。 According to the present embodiment, when an image including the sand removal gate 51 is input, the second learning that has been learned by the deep learning so as to output the determination result of determining the presence or absence of the foreign matter or the accumulated sediment in the sand removal gate 51. The completed model 102 is used. By using the second learned model 102, in the sand removal gate 51 that requires a closing operation as a preparatory operation for starting the intake of water from the river R, a foreign matter or sediment that obstructs the closing operation of the sand removal gate 51 Presence/absence can be appropriately determined. Further, when the image including the dam 5 is input, the second learned model 102 that has been learned by deep learning is further output so as to output the determination result of determining the presence/absence of a person in the overflow portion 52 provided in the dam 5. By using it, it is possible to appropriately determine the presence or absence of a person in the overflow section 52.

本実施形態によれば、学習済みモデル101及び第2学習済みモデル102を備える取水制御システムにより、適切に排砂門51における異物又は堆積土砂の有無、及び取水の良否を判定することができ、効率的に取水制御を行う取水制御システムを提供することができる。 According to the present embodiment, by the water intake control system including the learned model 101 and the second learned model 102, it is possible to appropriately determine the presence/absence of foreign matter or sediment in the sand discharge gate 51, and the quality of water intake. A water intake control system that efficiently controls water intake can be provided.

(実施形態2)
図8は、実施形態2(撮像条件)に係る制御部10に含まれる機能部を例示する機能ブロック図である。本実施形態では、サーバ1は、制御部10における機能部として、撮像条件確定部106及び切換部105を含み、撮像条件として例えば撮像時期に基づき、学習済みモデル101及び第2学習済みモデル102夫々を切換える点で、実施形態1と異なる。なお、実施形態1と重複する内容については、同一の符号を付して説明を省略する。
(Embodiment 2)
FIG. 8 is a functional block diagram illustrating the functional units included in the control unit 10 according to the second embodiment (imaging conditions). In the present embodiment, the server 1 includes an image capturing condition determining unit 106 and a switching unit 105 as functional units in the control unit 10, and the learned model 101 and the second learned model 102 are respectively based on the image capturing time as the image capturing condition, for example. Is different from that of the first embodiment. In addition, about the content which overlaps with Embodiment 1, the same code|symbol is attached|subjected and description is abbreviate|omitted.

制御部10は、時計機能及びカレンダー機能を備え、記憶部11に記憶してあるプログラムPを実行することにより、撮像条件確定部106として機能する。制御部10は、記憶部11に記憶してあるプログラムPを実行、又は学習済みモデル101を構成する実体ファイルを読み出すことにより、実施形態1と同様に学習済みモデル101として機能する。 The control unit 10 has a clock function and a calendar function, and functions as the imaging condition determination unit 106 by executing the program P stored in the storage unit 11. The control unit 10 functions as the learned model 101 as in the first embodiment by executing the program P stored in the storage unit 11 or reading the substance file forming the learned model 101.

学習済みモデル101は、撮像時期に応じて異なる画像によって学習された複数の学習済みモデル101を含む。当該複数の学習済みモデル101とは、例えば3月から8月に撮像された画像に基づき学習された学習済みモデル101(3月〜8月)及び、9月から2月に撮像された画像に基づき学習された学習済みモデル101(9月〜2月)である。 The learned model 101 includes a plurality of learned models 101 learned by different images according to the imaging timing. The plurality of learned models 101 are, for example, the learned model 101 (March to August) learned based on the image captured from March to August, and the image captured from September to February. It is the learned model 101 (September to February) learned based on the above.

制御部10は、記憶部11に記憶してあるプログラムPを実行、又は第2学習済みモデル102を構成する実体ファイルを読み出すことにより、第2学習済みモデル102として機能する。 The control unit 10 functions as the second learned model 102 by executing the program P stored in the storage unit 11 or reading the substance file forming the second learned model 102.

第2学習済みモデル102は、撮像時期に応じて異なる画像によって学習された複数の第2学習済みモデル102を含む。当該複数の第2学習済みモデル102とは、例えば3月から8月に撮像された画像に基づき学習された第2学習済みモデル102(3月〜8月)及び、9月から2月に撮像された画像に基づき学習された第2学習済みモデル102(9月〜2月)である。 The second learned model 102 includes a plurality of second learned models 102 learned by different images according to the imaging timing. The plurality of second learned models 102 are, for example, the second learned model 102 (March to August) learned based on the image captured from March to August, and the image captured from September to February. It is the second learned model 102 (September to February) learned based on the acquired image.

制御部10は、記憶部11に記憶してあるプログラムPを実行することにより、撮像条件確定部106が確定した撮像時期(撮像条件)に基づき、取得部103が取得した画像が入力される学習済みモデル101及び第2学習済みモデル102切換える切換部105として機能する。 The control unit 10 executes the program P stored in the storage unit 11 to input the image acquired by the acquisition unit 103 based on the image capturing time (image capturing condition) determined by the image capturing condition determining unit 106. It functions as a switching unit 105 that switches the already-used model 101 and the second learned model 102.

撮像条件確定部106は、現時点における月日に基づき、撮像条件である撮像時期を確定する。上述のごとく、制御部10はカレンダー機能を備えているので、現時点の月日又は月を取得することができる。撮像条件確定部106は、撮像時期に関する情報を、学習済みモデル101及び第2学習済みモデル102夫々に対応する切換部105夫々に入力する。 The imaging condition determination unit 106 determines the imaging timing, which is an imaging condition, based on the current date. As described above, since the control unit 10 has the calendar function, it is possible to obtain the current date and month. The image capturing condition determining unit 106 inputs information regarding the image capturing time into each of the switching units 105 corresponding to each of the learned model 101 and the second learned model 102.

切換部105は入力された撮像時期(撮像条件)に基づき、当該時期に対応した学習済みモデル101及び第2学習済みモデル102に切換える。これにより、取得部103が取得した画像は、当該切換られた学習済みモデル101及び第2学習済みモデル102に入力される。例えば、現時点の月が5月である場合、切換部105は、3月から8月の画像(春夏画像)により学習された学習済みモデル101(3月〜8月)及び第2学習済みモデル102(3月〜8月)切換える。例えば、現時点の月が12月である場合、切換部105は、9月から2月の画像(秋冬画像)により学習された学習済みモデル101(9月〜2月)及び第2学習済みモデル102(9月〜2月)切換える。 The switching unit 105 switches to the learned model 101 and the second learned model 102 corresponding to the input imaging time (imaging condition) based on the input imaging time. As a result, the image acquired by the acquisition unit 103 is input to the switched learned model 101 and second learned model 102. For example, when the current month is May, the switching unit 105 causes the learned model 101 (March to August) and the second learned model learned from the images (spring and summer images) from March to August. Switch from 102 (March to August). For example, when the current month is December, the switching unit 105 causes the learned model 101 (September to February) and the second learned model 102 learned from the images (fall/winter images) from September to February. (September to February) Switch.

撮像時期に応じ異なる画像によって学習された学習済みモデル101及び第2学習済みモデル102は、このような半期単位のものに限定されず、各月毎の画像によって学習された各月夫々に対応した学習済みモデル101及び第2学習済みモデル102であってもよい。 The learned model 101 and the second learned model 102 learned by the images different according to the image pickup time are not limited to those in the semi-annual unit, and correspond to each month learned by the image of each month. The learned model 101 and the second learned model 102 may be used.

本実施形態によれば、画像の撮像時期(撮像条件)に応じて、当該画像を異なる学習済みモデル101に入力して判定結果を取得するため、画像の撮像条件に対応した適切な学習済みモデル101を用いて、水質の良否を精度よく判定することができる。 According to the present embodiment, the image is input to different learned models 101 according to the image capturing timing (image capturing condition) and the determination result is acquired, so that an appropriate learned model corresponding to the image capturing condition is acquired. Using 101, it is possible to accurately determine the quality of water.

図9は、情報処理装置(サーバ1)の制御部10による処理手順の一例を示すフローチャートである。制御部10は、撮像条件を確定し、学習済みモデル101及び第2学習済みモデル102を切換える(S20)。制御部10は、撮像条件として現時点(撮像時点)の月又は月日を、カレンダー機能を発揮することにより取得する。現時点の月に応じて、いずれかの学習済みモデル101及び第2学習済みモデル102を用いるかを決定し、当該月に対応した学習済みモデル101及び第2学習済みモデル102に、撮像部2が撮像した画像が入力されるように切換える。このような学習済みモデル101及び第2学習済みモデル102に対する切換処理は、例えばケース文又はスイッチ文等を用いた条件分岐を行うプログラムPの内部処理により実行される。 FIG. 9 is a flowchart showing an example of a processing procedure by the control unit 10 of the information processing device (server 1). The control unit 10 determines the imaging condition and switches the learned model 101 and the second learned model 102 (S20). The control unit 10 acquires the present month (imaging time) month or month/day as an imaging condition by exerting a calendar function. Depending on the current month, it is determined which of the learned model 101 and the second learned model 102 to be used, and the imaging unit 2 sets the learned model 101 and the second learned model 102 corresponding to the month. Switch so that the captured image is input. The switching process for the learned model 101 and the second learned model 102 is executed by the internal process of the program P that performs conditional branching using, for example, a case statement or a switch statement.

制御部10は、実施形態1の処理S10からS17と同様に、S21からS28までの処理を行う。なお、S22における第2学習済みモデル102及びS26の学習済みモデル101は、S20の処理にて切換えられた学習済みモデル101及び第2学習済みモデル102であることは、言うまでもない。 The control unit 10 performs the processing from S21 to S28, similarly to the processing S10 to S17 of the first embodiment. It goes without saying that the second learned model 102 in S22 and the learned model 101 in S26 are the learned model 101 and the second learned model 102 switched in the process of S20.

撮像時期に応じた学習済みモデル101及び第2学習済みモデル102に切換え、当該切換えた学習済みモデル101及び第2学習済みモデル102を用いることにより、精度よく河川Rの水の良否及び、排砂門51における異物等の有無(越流部52の人の有無を含む)の判定結果を取得することができる。本実施形態において、撮像時期に応じて学習済みモデル101及び第2学習済みモデル102を切換えるとしたが、これに限定されない。制御部10は、撮像時期に応じて、学習済みモデル101のみを切換えるものであってもよい。 By switching to the learned model 101 and the second learned model 102 according to the imaging timing and using the switched learned model 101 and the second learned model 102, the quality of the water in the river R and the sand removal can be accurately performed. It is possible to acquire the determination result of the presence/absence of foreign matter or the like in the gate 51 (including the presence/absence of a person in the overflow section 52). In the present embodiment, the learned model 101 and the second learned model 102 are switched according to the imaging timing, but the present invention is not limited to this. The control unit 10 may switch only the learned model 101 according to the imaging timing.

(実施形態3)
図10は、実施形態3(撮像の時間帯)に係る制御部10に含まれる機能部を例示する機能ブロック図である。本実施形態では、サーバ1は、制御部10における機能部として、撮像条件確定部106及び切換部105を含み、撮像条件として例えば撮像時刻に基づき、学習済みモデル101、第2学習済みモデル102及び、これら学習済みモデル101又は第2学習済みモデル102に入力される画像を切換える点で、実施形態1と異なる。なお、実施形態1と重複する内容については、同一の符号を付して説明を省略する。
(Embodiment 3)
FIG. 10 is a functional block diagram illustrating the functional units included in the control unit 10 according to the third embodiment (imaging time period). In the present embodiment, the server 1 includes the imaging condition determination unit 106 and the switching unit 105 as the functional units in the control unit 10, and the learned model 101, the second learned model 102, and the second learned model 102 based on the imaging time, for example, as the imaging condition. The difference from the first embodiment is that the images input to the learned model 101 or the second learned model 102 are switched. In addition, about the content which overlaps with Embodiment 1, the same code|symbol is attached|subjected and description is abbreviate|omitted.

実施形態3の制御部10は、実施形態2と同様に時計機能及びカレンダー機能を備え、記憶部11に記憶してあるプログラムPを実行することにより、撮像条件確定部106及び切換部105として機能する。 The control unit 10 of the third embodiment has a clock function and a calendar function as in the second embodiment, and functions as the imaging condition determination unit 106 and the switching unit 105 by executing the program P stored in the storage unit 11. To do.

学習済みモデル101は、可視光の画像により学習された学習済みモデル101(可視光)と、赤外線の画像により学習された学習済みモデル101(赤外線)とを含む。 The learned model 101 includes a learned model 101 (visible light) learned by a visible light image and a learned model 101 (infrared) learned by an infrared image.

第2学習済みモデル102は、可視光の画像により学習された第2学習済みモデル102(可視光)と、赤外線の画像により学習された第2学習済みモデル102(赤外線)とを含む。 The second learned model 102 includes a second learned model 102 (visible light) learned by a visible light image and a second learned model 102 (infrared) learned by an infrared image.

撮像部2は、可視光の画像(可視光画像)を撮像するカメラ(可視光カメラ)及び赤外線の画像(赤外線画像)を撮像するカメラ(赤外線カメラ)を含む。又は、撮像部2は、可視光画像及び赤外線画像の両画像を併せて撮像することができる複合カメラ(ハイブリットカメラ)であってもよい。従って、取得部103には、取水口4付近の河川R及び堰堤5の可視光画像及び赤外線画像が入力される。 The imaging unit 2 includes a camera (visible light camera) that captures a visible light image (visible light image) and a camera (infrared camera) that captures an infrared image (infrared image). Alternatively, the image capturing unit 2 may be a compound camera (hybrid camera) capable of capturing both a visible light image and an infrared image together. Therefore, the visible light image and the infrared image of the river R and the dam 5 near the intake 4 are input to the acquisition unit 103.

撮像条件確定部106は、現時点における時刻に基づき、撮像条件である撮像時刻を確定する。上述のごとく、制御部10は時計機能を備えているので、現時点の時刻を取得することができる。像条件確定部は、撮像時刻に関する情報を、学習済みモデル101及び第2学習済みモデル102夫々に対応する切換部105夫々に入力する。 The imaging condition determination unit 106 determines the imaging time, which is the imaging condition, based on the current time. As described above, since the control unit 10 has the clock function, the current time can be acquired. The image condition determining unit inputs information regarding the imaging time to each of the switching units 105 corresponding to each of the learned model 101 and the second learned model 102.

切換部105は入力された撮像時刻(撮像条件)に基づき、当該時刻に対応したいずれかの画像(可視光画像又は赤外線画像)及び、当該画像に対応した学習済みモデル101及び第2学習済みモデル102に切換える。例えば、撮像時刻が昼の時間帯の場合、切換部105は、可視光画像及び、可視光画像により学習された学習済みモデル101及び第2学習済みモデル102に切換える。撮像時刻が夜の時間帯の場合、切換部105は、赤外線画像及び、赤外線画像により学習された学習済みモデル101及び第2学習済みモデル102に切換える。 The switching unit 105, based on the input imaging time (imaging condition), any image (visible light image or infrared image) corresponding to the time, and the learned model 101 and the second learned model corresponding to the image. Switch to 102. For example, when the imaging time is in the daytime, the switching unit 105 switches to the visible light image and the learned model 101 and the second learned model 102 learned by the visible light image. When the imaging time is in the evening time zone, the switching unit 105 switches to the infrared image and the learned model 101 and the second learned model 102 learned by the infrared image.

撮像条件確定部106は撮像時刻を確定し、切換部105は入力された撮像時刻に基づき、画像、学習済みモデル101及び第2学習済みモデル102に切換えるとしてが、これに限定されない。撮像条件確定部106は、例えば、サーバ1に通信可能に接続されている照度計からの出力値(照度)に基づき、現時点での昼夜を判定し、又は当該照度と記憶部11に予め記憶している所定値と比較し、撮像条件を確定するものであってもよい。現時点が昼、又は照度が所定値よりも大きい場合、切換部105は、可視光画像及び、可視光画像により学習された学習済みモデル101及び第2学習済みモデル102に切換える。現時点が夜、又は照度が所定値以下の場合、切換部105は、赤外線画像及び、赤外線画像により学習された学習済みモデル101及び第2学習済みモデル102に切換えるものであってもよい。 The imaging condition determination unit 106 determines the imaging time, and the switching unit 105 switches to the image, the learned model 101, and the second learned model 102 based on the input imaging time, but the invention is not limited to this. The imaging condition determination unit 106 determines, for example, the current day and night based on an output value (illuminance) from an illuminance meter communicatively connected to the server 1, or stores the illuminance and the storage unit 11 in advance. The image pickup condition may be determined by comparing with a predetermined value. When the current time is daytime or when the illuminance is larger than the predetermined value, the switching unit 105 switches to the visible light image and the learned model 101 and the second learned model 102 learned by the visible light image. When the current time is at night or the illuminance is equal to or less than a predetermined value, the switching unit 105 may switch to the infrared image and the learned model 101 and the second learned model 102 learned by the infrared image.

図11は、情報処理装置(サーバ1)の制御部10による処理手順の一例を示すフローチャートである。制御部10は、撮像条件を確定し、入力される画像、学習済みモデル101及び第2学習済みモデル102を切換える(S30)。制御部10は、例えば、撮像条件として現時点(撮像時点)の時刻を、時計機能を発揮することにより取得する。又は、制御部10は、通信可能に接続された照度計からの出力値(照度)を取得する。制御部10は、例えば、取得した時刻(撮像時刻)又は照度に基づき、撮像時点の昼夜を判定し、撮像条件を確定する。撮像時点が昼の時間帯である場合、制御部10は、入力される画像を可視光画像に切換えると共に、当該可視光画像が、可視光画像により学習された学習済みモデル101及び第2学習済みモデル102に入力されるように切換える。撮像時点が夜の時間帯である場合、制御部10は、入力される画像を赤外線画像に切換えると共に、当該赤外線画像が、赤外線画像により学習された学習済みモデル101及び第2学習済みモデル102に入力されるように切換える。これら切換は、実施形態2と同様に、例えばケース文又はスイッチ文等を用いた条件分岐を行うプログラムPの内部処理により実行される。 FIG. 11 is a flowchart illustrating an example of a processing procedure by the control unit 10 of the information processing device (server 1). The control unit 10 determines the imaging condition and switches the input image, the learned model 101, and the second learned model 102 (S30). The control unit 10 acquires, for example, a current time (imaging time) as an imaging condition by exercising a clock function. Alternatively, the control unit 10 acquires an output value (illuminance) from an illuminance meter connected to be communicable. The control unit 10 determines, for example, day and night at the time of image capturing based on the acquired time (image capturing time) or illuminance, and determines the image capturing condition. When the image capturing time is in the daytime, the control unit 10 switches the input image to the visible light image, and the visible light image is the learned model 101 and the second learned already learned by the visible light image. The input is switched to the model 102. When the image capturing time is in the evening time zone, the control unit 10 switches the input image to the infrared image, and the infrared image becomes the learned model 101 and the second learned model 102 learned by the infrared image. Switch to input. Similar to the second embodiment, such switching is executed by the internal processing of the program P that performs conditional branching using, for example, a case statement or a switch statement.

制御部10は、実施形態1の処理S10からS17と同様に、S31からS38までの処理を行う。なお、S32における画像、第2学習済みモデル102及び、S36の画像と学習済みモデル101は、S30の処理にて切換えられた画像、学習済みモデル101及び第2学習済みモデル102であることは、言うまでもない。 The control unit 10 performs the processing from S31 to S38, similarly to the processing S10 to S17 of the first embodiment. The image in S32, the second learned model 102, and the image in S36 and the learned model 101 are the images switched in the process in S30, the learned model 101, and the second learned model 102. Needless to say.

撮像条件は、例えば画像が撮像された時間帯よって異なる条件となるところ、制御部10は、取水口4付近を含む画像が撮像された時間帯に応じて可視光画像又は赤外線画像を取得する。従って、時間帯として、例えば夜間は赤外線画像を取得することにより、可視光画像では露光不足となる場合であっても、学習済みモデル101に適切に判定させるための画像を取得することができる。これら可視光画像又は赤外線画像の別に応じて学習済みモデル101を切り換えて入力するため、学習済みモデル101夫々に適切に対応した可視光画像又は赤外線画像を入力することができ、水質の良否を適切に判定することができる。 The imaging condition is different depending on, for example, a time zone when the image is captured, and the control unit 10 acquires the visible light image or the infrared image according to the time zone when the image including the vicinity of the intake 4 is captured. Therefore, as the time zone, for example, by acquiring an infrared image at night, it is possible to acquire an image for the learned model 101 to appropriately determine even when the visible light image is underexposed. Since the learned model 101 is switched and input according to the visible light image or the infrared image, the visible light image or the infrared image appropriately corresponding to each learned model 101 can be input, and the quality of water is appropriately determined. Can be determined.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above meaning but by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.

S 取水制御システム
1 サーバ(情報処理装置)
10 制御部
101 学習済みモデル
102 第2学習済みモデル
103 取得部
104 信号生成部
105 切換部
106 撮像条件確定部
11 記憶部
12 通信部
P プログラム
2 撮像部
3 取水口制御盤
4 取水口
5 堰堤
51 排砂門
52 越流部
R 河川
S Water intake control system 1 Server (information processing device)
10 Control Unit 101 Trained Model 102 Second Trained Model
103 acquisition unit 104 signal generation unit 105 switching unit 106 imaging condition determination unit 11 storage unit 12 communication unit P program 2 imaging unit 3 intake port control panel 4 intake port 5 dam 51 drainage gate 52 overflow unit
R river

Claims (10)

水力発電所において河川から水を取水する取水口付近を含むように撮像した画像を取得し、
前記取水口付近を含む画像を入力した場合に取水の良否を判定した判定結果を出力するよう深層学習により学習済みの学習済みモデルに、取得した前記取水口付近を含む画像を入力し、
前記学習済みモデルから前記判定結果を取得する
処理をコンピュータに実行させることを特徴とする情報処理方法。
At the hydroelectric power station, we took an image of the area around the intake that takes water from the river,
When the image including the vicinity of the intake is input, the learned model that has been learned by deep learning so as to output the determination result that determines the quality of the intake is input, and the image including the acquired vicinity of the intake is input.
An information processing method comprising causing a computer to execute a process of acquiring the determination result from the learned model.
前記水力発電所は貯水式の水力発電所であって、
前記学習済みモデルから、貯水した水の濁り度合いを判定した前記判定結果を取得する
ことを特徴とする請求項1に記載の情報処理方法。
The hydroelectric power plant is a water storage type hydroelectric power plant,
The information processing method according to claim 1, wherein the determination result of determining the degree of turbidity of the stored water is acquired from the learned model.
前記河川の水流を堰き止めて貯水する堰堤を含むように撮像した画像を取得し、
前記堰堤を含む画像を入力した場合に、前記堰堤に設けられた排砂門における異物又は堆積土砂の有無を判定した判定結果を出力するよう深層学習により学習済みの第2学習済みモデルに、取得した前記排砂門を含む画像を入力し、
前記第2学習済みモデルから、前記排砂門における異物又は堆積土砂の有無に係る判定結果を取得する
ことを特徴とする請求項1又は2に記載の情報処理方法。
Acquiring an image captured so as to include a dam that stores water by blocking the water flow of the river,
When an image including the dam is input, the second learned model that has been learned by deep learning is output so as to output a determination result that determines the presence or absence of foreign matter or sediment in the sand removal gate provided in the dam. Enter the image containing the sand removal gate,
The information processing method according to claim 1 or 2, wherein a determination result regarding presence/absence of foreign matter or sediment in the sand removal gate is acquired from the second learned model.
前記第2学習済みモデルは、前記堰堤を含む画像を入力した場合に更に、前記堰堤に設けられた越流部における人間の有無を判定した判定結果を出力するよう深層学習により学習済みであり、
前記第2学習済みモデルから、前記堰堤に設けられた越流部における人間の有無を判定した判定結果を取得する
ことを特徴とする請求項3に記載の情報処理方法。
The second learned model is already learned by deep learning so as to output a determination result of determining the presence/absence of a person in the overflow portion provided in the dam when the image including the dam is input,
The information processing method according to claim 3, wherein a determination result of determining the presence or absence of a person in an overflow portion provided in the dam is acquired from the second learned model.
前記取水口付近を含む画像の撮像条件に応じて、前記取水口付近を含む画像を異なる前記学習済みモデルに入力して判定結果を取得する
ことを特徴とする請求項1から請求項4のいずれか一つに記載の情報処理方法。
The determination result is acquired by inputting an image including the vicinity of the intake into the different learned models according to an image capturing condition of the image including the vicinity of the intake. The information processing method described in one.
前記取水口付近を含む画像が撮像された時間帯に応じて可視光画像又は赤外線画像を取得し、
取得した前記可視光画像又は前記赤外線画像の別に応じて前記学習済みモデルを切り換えて入力する
ことを特徴とする請求項5に記載の情報処理方法。
Acquire a visible light image or infrared image according to the time zone in which the image including the vicinity of the water intake was captured,
The information processing method according to claim 5, wherein the learned model is switched and input according to whether the visible light image or the infrared image is acquired.
水力発電所において河川から水を取水する取水口付近を含むように撮像した画像を取得し、
前記取水口付近を含む画像を入力した場合に取水の良否を判定した判定結果を出力するよう深層学習により学習済みの学習済みモデルに、取得した前記取水口付近を含む画像を入力し、
前記学習済みモデルから前記判定結果を取得する
処理をコンピュータに実行させることを特徴とするプログラム。
At the hydroelectric power station, we took an image of the area around the intake that takes water from the river,
When the image including the vicinity of the intake is input, the learned model that has been learned by deep learning so as to output the determination result of the quality of the intake is input, and the image including the acquired vicinity of the intake is input.
A program for causing a computer to execute a process of acquiring the determination result from the learned model.
河川の水を取水口から取水する貯水式の水力発電所の取水制御システムであって、
前記取水口付近及び前記河川の水流を堰き止めて貯水する堰堤を含むように撮像する撮像部と、
前記取水口の開閉及び、前記堰堤の排砂門の開閉を制御する取水制御盤と、
前記撮像部が撮像した画像に基づき信号を生成し、前記信号を前記取水制御盤に出力する情報処理装置と、
前記取水口付近を含む画像を入力した場合に取水の良否を判定した判定結果を出力するよう深層学習により学習済みの学習済みモデルと、
前記堰堤を含む画像を入力した場合に前記排砂門における異物又は堆積土砂の有無を判定した判定結果を出力するよう深層学習により学習済みの第2学習済みモデルとを備え、
前記情報処理装置は、
前記撮像部が撮像した前記取水口を含む画像及び前記堰堤を含む画像を取得し、
取得した前記取水口を含む画像を前記学習済みモデルに入力し、
取得した前記堰堤を含む画像を前記第2学習済みモデルに入力し、
前記学習済みモデル及び前記第2学習済みモデル夫々が出力した判定結果を取得し、
前記第2学習済みモデルから取得した判定結果が、前記異物又は堆積土砂が無い場合、前記排砂門を閉める信号を前記取水制御盤に出力し、
前記学習済みモデルから取得した判定結果が、取水が良の場合、前記取水口を開く信号を前記取水制御盤に出力する
ことを特徴とする取水制御システム。
An intake control system for a water storage type hydroelectric power plant that takes in river water from an intake,
An imaging unit that captures an image of the vicinity of the intake and the dam to store water by blocking the water flow of the river,
An intake control panel that controls opening and closing of the intake port and opening and closing of a sand removal gate of the dam;
An information processing device that generates a signal based on an image captured by the image capturing unit and outputs the signal to the water intake control panel,
A learned model that has been learned by deep learning so as to output a determination result of whether the intake is good or bad when an image including the vicinity of the intake is input,
A second learned model that has been learned by deep learning so as to output a determination result of determining the presence or absence of foreign matter or sediment in the sand removal gate when an image including the dam is input,
The information processing device,
An image including the water intake and an image including the dam are captured by the imaging unit,
Input the acquired image including the intake into the learned model,
The acquired image including the dam is input to the second trained model,
Acquiring the determination result output by each of the learned model and the second learned model,
When the determination result acquired from the second learned model is that the foreign matter or sediment is not present, a signal for closing the sand removal gate is output to the water intake control panel,
A water intake control system which outputs a signal for opening the water intake port to the water intake control panel when the result of determination obtained from the learned model is that the water intake is good.
水力発電所において河川から水を取水する取水口付近を撮像した画像に対して取水の良否を示す情報が対応付けられた教師データを取得し、
前記教師データに基づく深層学習を行い、前記画像を入力した場合に取水の良否を判定した判定結果を出力する学習済みモデルを生成する
処理をコンピュータに実行させることを特徴とする学習済みモデルの生成方法。
Acquiring teacher data in which information indicating the quality of water intake is associated with an image of the vicinity of the water intake at which water is taken from a river at a hydroelectric power plant,
Deep learning based on the teacher data is performed, and when the image is input, a learned model that outputs a determination result that determines whether the water intake is good or not is generated. Generation of a learned model characterized by causing a computer to execute processing. Method.
前記教師データは、所定の濁度となるように容器内に注いだ水を撮像した画像を問題データとして用いる
ことを特徴とする請求項9に記載の学習済みモデルの生成方法。
10. The method for generating a learned model according to claim 9, wherein the teacher data uses, as problem data, an image obtained by imaging water poured into a container so as to have a predetermined turbidity.
JP2019018042A 2019-02-04 2019-02-04 Information processing method, program, water intake control system, and learned model generation method Active JP7293687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019018042A JP7293687B2 (en) 2019-02-04 2019-02-04 Information processing method, program, water intake control system, and learned model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019018042A JP7293687B2 (en) 2019-02-04 2019-02-04 Information processing method, program, water intake control system, and learned model generation method

Publications (2)

Publication Number Publication Date
JP2020125618A true JP2020125618A (en) 2020-08-20
JP7293687B2 JP7293687B2 (en) 2023-06-20

Family

ID=72083646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019018042A Active JP7293687B2 (en) 2019-02-04 2019-02-04 Information processing method, program, water intake control system, and learned model generation method

Country Status (1)

Country Link
JP (1) JP7293687B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112067517A (en) * 2020-09-11 2020-12-11 杭州市地下管道开发有限公司 Intelligent monitoring method, equipment and system for river and lake water body and readable storage medium
WO2022044368A1 (en) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド Machine-learning device, image processing device, machine-learning method, and machine-learning program
WO2022185596A1 (en) * 2021-03-04 2022-09-09 パナソニックIpマネジメント株式会社 Estimation system, estimation method, and program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172728A (en) * 1991-12-24 1993-07-09 Hitachi Ltd Hydrosphere observation, surveillance and purification system
JPH05263411A (en) * 1992-03-19 1993-10-12 Hitachi Ltd Object observation method and device
JPH05332915A (en) * 1992-05-29 1993-12-17 Hitachi Ltd Hydrosphere monitoring apparatus and purifying apparatus
JPH0627014A (en) * 1992-07-07 1994-02-04 Hitachi Ltd Method and apparatus for monitoring contamination of water
JPH06346426A (en) * 1993-06-11 1994-12-20 Meidensha Corp Water intake controller
JP2003044127A (en) * 2001-08-02 2003-02-14 Mitsubishi Heavy Ind Ltd Plant supervisory control system
JP2003204544A (en) * 2002-01-08 2003-07-18 Kubota Corp Control system
JP2004094050A (en) * 2002-09-02 2004-03-25 Usk:Kk Monitor camera device serving as optical unit
JP2018096088A (en) * 2016-12-12 2018-06-21 中国電力株式会社 Water intake facility and method of using same
JP2018108041A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Information processing device, feedwater system, information processing system and program
WO2018235266A1 (en) * 2017-06-23 2018-12-27 株式会社Rist Inspection device, inspection method, and inspection program
CN109281295A (en) * 2017-10-18 2019-01-29 黄国宏 Power station
JP2019192017A (en) * 2018-04-26 2019-10-31 清水建設株式会社 Contaminant assessment device, learning device, contaminant assessment method, and learning method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172728A (en) * 1991-12-24 1993-07-09 Hitachi Ltd Hydrosphere observation, surveillance and purification system
JPH05263411A (en) * 1992-03-19 1993-10-12 Hitachi Ltd Object observation method and device
JPH05332915A (en) * 1992-05-29 1993-12-17 Hitachi Ltd Hydrosphere monitoring apparatus and purifying apparatus
JPH0627014A (en) * 1992-07-07 1994-02-04 Hitachi Ltd Method and apparatus for monitoring contamination of water
JPH06346426A (en) * 1993-06-11 1994-12-20 Meidensha Corp Water intake controller
JP2003044127A (en) * 2001-08-02 2003-02-14 Mitsubishi Heavy Ind Ltd Plant supervisory control system
JP2003204544A (en) * 2002-01-08 2003-07-18 Kubota Corp Control system
JP2004094050A (en) * 2002-09-02 2004-03-25 Usk:Kk Monitor camera device serving as optical unit
JP2018096088A (en) * 2016-12-12 2018-06-21 中国電力株式会社 Water intake facility and method of using same
JP2018108041A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Information processing device, feedwater system, information processing system and program
WO2018235266A1 (en) * 2017-06-23 2018-12-27 株式会社Rist Inspection device, inspection method, and inspection program
CN109281295A (en) * 2017-10-18 2019-01-29 黄国宏 Power station
JP2019192017A (en) * 2018-04-26 2019-10-31 清水建設株式会社 Contaminant assessment device, learning device, contaminant assessment method, and learning method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044368A1 (en) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド Machine-learning device, image processing device, machine-learning method, and machine-learning program
JP7443990B2 (en) 2020-08-26 2024-03-06 株式会社Jvcケンウッド Machine learning device, image processing device, machine learning method, and machine learning program
CN112067517A (en) * 2020-09-11 2020-12-11 杭州市地下管道开发有限公司 Intelligent monitoring method, equipment and system for river and lake water body and readable storage medium
WO2022185596A1 (en) * 2021-03-04 2022-09-09 パナソニックIpマネジメント株式会社 Estimation system, estimation method, and program

Also Published As

Publication number Publication date
JP7293687B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
Jiang et al. Rain-free and residue hand-in-hand: A progressive coupled network for real-time image deraining
CN108764372B (en) Construction method and device, mobile terminal, the readable storage medium storing program for executing of data set
US10924661B2 (en) Generating image capture configurations and compositions
CN110276767B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP7293687B2 (en) Information processing method, program, water intake control system, and learned model generation method
CN107330956B (en) Cartoon hand drawing unsupervised coloring method and device
CN111292264B (en) Image high dynamic range reconstruction method based on deep learning
KR101967089B1 (en) Convergence Neural Network based complete reference image quality evaluation
Zhang et al. PortraitNet: Real-time portrait segmentation network for mobile device
CN110428366A (en) Image processing method and device, electronic equipment, computer readable storage medium
CN110473185A (en) Image processing method and device, electronic equipment, computer readable storage medium
WO2023109709A1 (en) Image stiching positioning detection method based on attention mechanism
CN110276831B (en) Method and device for constructing three-dimensional model, equipment and computer-readable storage medium
US20220414838A1 (en) Image dehazing method and system based on cyclegan
CN116029947B (en) Complex optical image enhancement method, device and medium for severe environment
CN113592726A (en) High dynamic range imaging method, device, electronic equipment and storage medium
CN116958825A (en) Mobile remote sensing image acquisition method and highway maintenance monitoring method
Li et al. Image manipulation localization using attentional cross-domain CNN features
Wen et al. SVBRDF Recovery from a Single Image with Highlights Using a Pre‐trained Generative Adversarial Network
CN112801911B (en) Method and device for removing text noise in natural image and storage medium
Cao et al. A brightness-adaptive kernel prediction network for inverse tone mapping
Zhang et al. Fine-grained video deblurring with event camera
Dong et al. A detection-regression based framework for fish keypoints detection
Zhang et al. GAN-based dehazing network with knowledge transferring
Yang et al. Residual inpainting using selective free-form attention

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230330

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7293687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150