JP2019152968A - Sewage overflow detection device, sewage overflow detection method, program and sewage treatment device - Google Patents

Sewage overflow detection device, sewage overflow detection method, program and sewage treatment device Download PDF

Info

Publication number
JP2019152968A
JP2019152968A JP2018036530A JP2018036530A JP2019152968A JP 2019152968 A JP2019152968 A JP 2019152968A JP 2018036530 A JP2018036530 A JP 2018036530A JP 2018036530 A JP2018036530 A JP 2018036530A JP 2019152968 A JP2019152968 A JP 2019152968A
Authority
JP
Japan
Prior art keywords
sewage
image
overflow
region
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018036530A
Other languages
Japanese (ja)
Other versions
JP7029981B2 (en
Inventor
雅人 山本
Masahito Yamamoto
雅人 山本
博幸 飯塚
Hiroyuki Iizuka
博幸 飯塚
高田 圭
Kei Takada
圭 高田
亮 張
Liang Zhang
亮 張
太郎 三好
Taro Miyoshi
太郎 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Maezawa Industries Inc
Original Assignee
Hokkaido University NUC
Maezawa Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Maezawa Industries Inc filed Critical Hokkaido University NUC
Priority to JP2018036530A priority Critical patent/JP7029981B2/en
Priority to PCT/JP2019/005371 priority patent/WO2019167651A1/en
Publication of JP2019152968A publication Critical patent/JP2019152968A/en
Application granted granted Critical
Publication of JP7029981B2 publication Critical patent/JP7029981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F3/00Biological treatment of water, waste water, or sewage
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/22Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water
    • G01F23/28Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water by measuring the variations of parameters of electromagnetic or acoustic waves applied directly to the liquid or fluent solid material
    • G01F23/284Electromagnetic waves
    • G01F23/292Light, e.g. infrared or ultraviolet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Organic Chemistry (AREA)
  • Fluid Mechanics (AREA)
  • Chemical & Material Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Hydrology & Water Resources (AREA)
  • Microbiology (AREA)
  • Thermal Sciences (AREA)
  • Water Supply & Treatment (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of Levels Of Liquids Or Fluent Solid Materials (AREA)
  • Treatment Of Biological Wastes In General (AREA)

Abstract

To provide a sewage overflow detection device which automatically and surely detects whether sewage overflows or not in sewage treatment within a reaction vessel provided with a partition board.SOLUTION: A sewage overflow detection device 100 is mounted in a sewage treatment device having a reaction vessel 1 for sewage treatment and partition boards 7 partitioning the inside of the reaction vessel 1 into a plurality of regions, to detect whether sewage overflows beyond the partition boards 7. The sewage overflow detection device 100 comprises: image acquisition means which acquires an object image including the partitioning board 7; image processing means which processes the acquired object image into an input image; feature extraction means which extracts a feature quantity by performing prescribed processing on information constituting the input image and finally calculates a specific value; and overflow determination means which determines whether sewage overflows beyond the partitioning boards 7 or not on the basis of the specific value.SELECTED DRAWING: Figure 1

Description

本発明は汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置に関する。   The present invention relates to a sewage overflow detection apparatus, a sewage overflow detection method, a program, and a sewage treatment apparatus.

従来より、汚水を生物処理するための反応槽と、反応槽に浸漬され且つ生物処理された汚水から固形物を除去するための膜分離装置と、膜分離装置の下部に設置され且つ膜分離装置に対して空気等の気体を供給する散気管とを備える汚水処理装置が知られている。反応槽における汚水の生物処理は、例えば、微生物を含む有機汚泥、すなわち、いわゆる活性汚泥によって汚水が処理される活性汚泥法に基づいて実行される。   Conventionally, a reaction tank for biologically treating sewage, a membrane separation apparatus for removing solid matter from sewage immersed in the reaction tank and biologically treated, and a membrane separation apparatus installed at the lower part of the membrane separation apparatus There is known a sewage treatment apparatus including a diffuser pipe for supplying a gas such as air. The biological treatment of sewage in the reaction tank is performed based on, for example, an activated sludge method in which sewage is treated with organic sludge containing microorganisms, that is, so-called activated sludge.

具体的に、活性汚泥法においては、酸素存在下(好気状態)でアンモニアを亜硝酸や硝酸に変換する硝化反応が実行される。さらに、硝化反応によってアンモニアから変換された亜硝酸や硝酸を窒素に変換する脱窒反応が実行される。脱窒反応は酸素存在下(好気状態)で行われる硝化反応と異なり、無酸素状態で行う必要がある。脱窒反応は硝化反応が行われる反応槽と異なる反応槽で行われてもよいが、汚水処理装置の省スペース化を実現するために、単一の反応槽内で硝化反応及び脱窒反応が行われる汚水処理装置が提案されている(例えば、特許文献1参照)。   Specifically, in the activated sludge method, a nitrification reaction is performed in which ammonia is converted into nitrous acid or nitric acid in the presence of oxygen (aerobic state). Furthermore, a denitrification reaction is performed in which nitrous acid or nitric acid converted from ammonia by nitrification reaction is converted to nitrogen. Unlike the nitrification reaction performed in the presence of oxygen (aerobic state), the denitrification reaction needs to be performed in an oxygen-free state. The denitrification reaction may be performed in a reaction tank different from the reaction tank in which the nitrification reaction is performed, but in order to save space in the sewage treatment apparatus, the nitrification reaction and the denitrification reaction are performed in a single reaction tank. A sewage treatment apparatus to be performed has been proposed (see, for example, Patent Document 1).

図8は従来の汚水処理装置を概略的に示す図である。図8の汚水処理装置は、好気状態での硝化反応及び無酸素状態での脱窒反応を行う反応槽1と、汚水を反応槽1に供給するための原水槽9とを備え、反応槽1は、反応槽1内を複数の区画に仕切るための仕切板7を有する。具体的に、反応槽1は、仕切板7で囲まれる汚水領域Aと、仕切板7及び反応槽1の内壁で囲まれる汚水領域Bとに仕切られ、汚水領域Aは膜分離装置2及び散気管4を有する。また、反応槽1は、原水槽9からの汚水の供給を開始するための汚水供給開始水位LWL(Low water level)と、原水槽9からの汚水の供給を停止するための汚水供給停止水位HWL(High water level)とを有する。汚水は、その水位が仕切板7の上端部より高い位置(以下、「汚水越流位置」という。)と、仕切板7の上端部より低い位置(以下、「汚水非越流位置」という。)との間を往来するように反応槽1内において増減する。   FIG. 8 is a diagram schematically showing a conventional sewage treatment apparatus. The sewage treatment apparatus of FIG. 8 includes a reaction tank 1 that performs a nitrification reaction in an aerobic state and a denitrification reaction in an oxygen-free state, and a raw water tank 9 for supplying sewage to the reaction tank 1. 1 has a partition plate 7 for partitioning the inside of the reaction tank 1 into a plurality of compartments. Specifically, the reaction tank 1 is partitioned into a sewage area A surrounded by the partition plate 7 and a sewage area B surrounded by the partition plate 7 and the inner wall of the reaction tank 1, and the sewage area A is separated from the membrane separation device 2 and the scatter water. It has a trachea 4. The reaction tank 1 also includes a sewage supply start water level LWL (Low water level) for starting the supply of sewage from the raw water tank 9 and a sewage supply stop water level HWL for stopping the supply of sewage from the raw water tank 9. (High water level). The sewage has a level higher than the upper end of the partition plate 7 (hereinafter referred to as “sewage overflow position”) and a position lower than the upper end of the partition plate 7 (hereinafter referred to as “sewage non-overflow position”). ) To increase or decrease in the reaction tank 1.

図9は、図8における反応槽1内の汚水の水位が汚水越流位置のときの汚水の流れを概略的に示す図である。例えば、汚水の水位が汚水越流位置にあるとき、散気管4から膜分離装置2に対して供給される空気により、汚水が仕切板7の上端を越流し、仕切板7の周囲を循環する循環流が形成される(越流状態)。この循環流により、汚水領域Aにある硝酸が汚水領域Bに移行し、脱窒反応により窒素ガスに変換される。一方、汚水の水位が汚水非越流位置にあるとき、汚水領域Aと汚水領域Bとの間で汚水の流通が分断されるため、散気管4が膜分離装置2に空気を供給しても、仕切板7の周囲を循環する循環流は形成されない(分断状態)。その結果、汚水領域Aにおいては好気状態で硝化反応が行われるが、生成される硝酸が汚水領域Bに移行せず、汚水領域Bにおいては無酸素状態を維持して脱窒反応が行われる。   FIG. 9 is a diagram schematically showing the flow of sewage when the level of sewage in the reaction tank 1 in FIG. 8 is at the sewage overflow position. For example, when the sewage water level is at the sewage overflow position, the sewage circulates around the partition plate 7 by the air supplied from the air diffuser 4 to the membrane separation device 2 over the upper end of the partition plate 7. A circulating flow is formed (overflow condition). By this circulation flow, nitric acid in the sewage area A is transferred to the sewage area B and converted into nitrogen gas by a denitrification reaction. On the other hand, when the sewage water level is at the sewage non-overflow position, the circulation of the sewage is divided between the sewage area A and the sewage area B. Therefore, even if the air diffuser 4 supplies air to the membrane separation device 2 A circulation flow circulating around the partition plate 7 is not formed (divided state). As a result, although the nitrification reaction is performed in an aerobic state in the sewage region A, the generated nitric acid does not transfer to the sewage region B, and the denitrification reaction is performed in the sewage region B while maintaining an oxygen-free state. .

特開2004−261711号公報JP 2004-261711 A 特開2016−168046号公報Japanese Patent Laying-Open No. 2006-168046 特開2017−157138号公報JP 2017-157138 A

このような仕切板を有する汚水処理装置において、汚水が仕切板の上端を越流している越流時間は窒素除去能力にとって重要な因子である。越流時間は汚水供給開始水位LWL及び汚水供給停止水位HWLだけでなく、原水流入速度、膜処理速度、さらには散気強度により変化するため、単純に計算で求めることができない。このような越流時間を長期間安定して測定するためには、汚水の水位が汚水越流位置にあるのか又は汚水非越流位置にあるのかを正確に把握する必要があるが、反応槽1内では汚泥濃度が高く汚水が極めて汚いため、汚水の水位を正確に把握することが困難である。   In the sewage treatment apparatus having such a partition plate, the overflow time during which the sewage flows over the upper end of the partition plate is an important factor for the nitrogen removal capability. The overflow time varies depending not only on the sewage supply start water level LWL and the sewage supply stop water level HWL, but also on the raw water inflow rate, the membrane treatment rate, and the aeration intensity, so it cannot be simply calculated. In order to stably measure such overflow time for a long period of time, it is necessary to accurately grasp whether the sewage level is at the sewage overflow position or the non-sewage overflow position. In 1, the sludge concentration is high and the sewage is extremely dirty, so it is difficult to accurately grasp the water level of the sewage.

また、現在、多くのセンサーが越流の検知に使用可能であり、たとえば電極や光センサーによる水面レベルの検知が行われている。しかしながら、汚水環境では汚泥やごみが電極に挟まり、又は光センサーの表面に汚泥が付着する等して、電極や光センサーが誤作動する可能性があり、既存のセンサーでは検知の信頼性が不十分となり実用化されていない。そのため、越流の確認はもっぱら人の目視により行われているが、マンパワー削減の要請もあり、汚水の越流を自動で確実に検知する方法が求められている。   At present, many sensors can be used for detection of overflow, and for example, detection of the water surface level by electrodes or optical sensors is performed. However, in a sewage environment, sludge or dust may get caught between electrodes, or sludge may adhere to the surface of the optical sensor, which may cause the electrode or optical sensor to malfunction. It is enough and not put into practical use. For this reason, overflow is confirmed exclusively by human eyes, but there is also a demand for manpower reduction, and a method for automatically and reliably detecting overflow of sewage is required.

一方、画像認識技術は、従来目視でしか観測できなかった事象の自動監視を可能にしてきた。画像中の目的物を認識するために、深層学習と呼ばれる手法が利用されており、深層学習の代表的な手法として、コンボリューショナル・ニューラル・ネットワーク(畳み込みニューラルネットワークともいい、以下「CNN」と略記する)が注目されている。CNNは、多段階の演算処理により対象画像の特徴をシステムが自動抽出して学習し、対象を高精度に認識して判定する手法である。このCNNを用いて、植物病を診断するシステムや、対象画像中の被写体のカテゴリを判別する装置が報告されている(例えば、特許文献2及び3参照)。   On the other hand, image recognition technology has made it possible to automatically monitor events that could only be observed visually. In order to recognize the object in the image, a technique called deep learning is used. As a typical technique of deep learning, a convolutional neural network (also called a convolutional neural network, hereinafter referred to as “CNN”) is used. (Abbreviated) is attracting attention. CNN is a technique in which the system automatically extracts and learns the characteristics of a target image by multi-stage arithmetic processing, and recognizes and determines the target with high accuracy. A system for diagnosing a plant disease using this CNN and an apparatus for discriminating a category of a subject in a target image have been reported (see, for example, Patent Documents 2 and 3).

しかしながら、前述のような仕切板を備えた反応槽内での汚水処理において、汚水の越流の有無を確実に検知するために、CNNのような画像認識技術を用いた例はこれまで報告されていない。   However, examples of using image recognition technology such as CNN have been reported so far in order to reliably detect the presence or absence of overflow of sewage in sewage treatment in a reaction vessel equipped with a partition plate as described above. Not.

本発明は、仕切板(隔壁)を備えた反応槽内での汚水処理において、汚水の越流の有無を自動で確実に検知する汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置を提供することを目的とする。   The present invention relates to a sewage overflow detection device, a sewage overflow detection method, a program, and sewage for automatically and reliably detecting the presence or absence of overflow of sewage in a sewage treatment in a reaction tank provided with a partition plate (partition wall). An object is to provide a processing apparatus.

上記目的を達成するために、本発明の汚水越流検知装置は、汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知装置であって、前記隔壁を含む対象画像を取得する画像取得手段と、前記取得した対象画像を入力画像に加工する画像加工手段と、前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出手段と、前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別手段と、を備えることを特徴とする。   In order to achieve the above object, the sewage overflow detection device of the present invention is configured such that the sewage includes a partition disposed between a first region where sewage exists and a second region other than the first region. A sewage overflow detection device that detects whether or not it overflows, an image acquisition unit that acquires a target image including the partition, an image processing unit that processes the acquired target image into an input image, and the input Feature extraction means for extracting a feature value by performing predetermined processing on information constituting the image, and finally calculating a specific value, and whether the sewage overflows the partition based on the specific value Overflow discrimination means for discriminating whether or not.

上記目的を達成するために、本発明の汚水越流検知方法は、汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知方法であって、前記隔壁を含む対象画像を取得する画像取得ステップと、前記取得した対象画像を入力画像に加工する画像加工ステップと、前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出ステップと、前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別ステップと、を有することを特徴とする。   In order to achieve the above object, in the method for detecting sewage overflow according to the present invention, the sewage has a partition disposed between a first region where sewage exists and a second region other than the first region. A sewage overflow detection method for detecting whether or not it overflows, an image acquisition step for acquiring a target image including the partition wall, an image processing step for processing the acquired target image into an input image, and the input A feature extraction step of extracting a feature amount by applying predetermined processing to information constituting the image and finally calculating a specific value, and whether the sewage overflows the partition based on the specific value And an overflow determining step for determining whether or not.

上記目的を達成するために、本発明のプログラムは、汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知方法をコンピュータに実行させるプログラムであって、前記隔壁を含む対象画像を取得する画像取得モジュールと、前記取得した対象画像を入力画像に加工する画像加工モジュールと、前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出モジュールと、前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別モジュールと、を有することを特徴とする。   In order to achieve the above object, according to the program of the present invention, is the sewage overflowing a partition wall disposed between the first region where the sewage exists and the second region other than the first region? A program for causing a computer to execute a sewage overflow detection method for detecting whether or not, an image acquisition module for acquiring a target image including the partition wall, an image processing module for processing the acquired target image into an input image, A feature extraction module that extracts a feature amount by performing predetermined processing on information constituting the input image and finally calculates a specific value, and the sewage overflows the partition wall based on the specific value. And an overflow detection module for determining whether or not the vehicle is overflowing.

上記目的を達成するために、本発明の汚水処理装置は、汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知装置を、備える汚水処理装置であって、前記汚水越流検知装置は、前記隔壁を含む対象画像を取得する画像取得手段と、前記取得した対象画像を入力画像に加工する画像加工手段と、前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出手段と、前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別手段と、を備えることを特徴とする。   In order to achieve the above object, in the sewage treatment apparatus of the present invention, the sewage overflows a partition disposed between a first region where sewage exists and a second region other than the first region. A sewage overflow detection device that detects whether or not the sewage overflow detection device includes an image acquisition unit that acquires a target image including the partition wall, and the acquired target image. Image processing means for processing into an input image, feature extraction means for extracting a feature value by applying predetermined processing to information constituting the input image, and finally calculating a specific value; and And an overflow determining means for determining whether or not the sewage is overflowing the partition.

本発明によれば、仕切板(隔壁)を備えた反応槽内での汚水処理において汚水の越流の有無を自動で確実に検知することができる。   ADVANTAGE OF THE INVENTION According to this invention, the presence or absence of the overflow of sewage can be detected automatically and reliably in the sewage treatment in the reaction tank provided with the partition plate (partition wall).

本発明の実施の形態に係る汚水越流検知装置を備える汚水処理装置を概略的に示す図である。It is a figure which shows roughly a sewage treatment apparatus provided with the sewage overflow detection apparatus which concerns on embodiment of this invention. 図1における汚水越流検知装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the sewage overflow detection apparatus in FIG. 図2における特徴抽出手段によって実施される中間層処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the intermediate | middle layer process implemented by the feature extraction means in FIG. 図2における特徴抽出手段によって特徴が抽出される入力画像(越流状態)を示す写真である。It is a photograph which shows the input image (overflow state) from which a feature is extracted by the feature extraction means in FIG. 図2における特徴抽出手段によって特徴が抽出される入力画像(分断状態)を示す写真である。It is a photograph which shows the input image (partition state) from which the feature is extracted by the feature extraction means in FIG. 図2における特徴抽出手段によって実施される所定の処理を説明するために用いられるCNNモデルの概略を示す図である。It is a figure which shows the outline of the CNN model used in order to demonstrate the predetermined | prescribed process implemented by the feature extraction means in FIG. 図2の汚水越流検知装置における、学習データとテストデータの正答率の推移を示す図である。It is a figure which shows transition of the correct answer rate of learning data and the test data in the sewage overflow detection apparatus of FIG. 従来の汚水処理装置を概略的に示す図である。It is a figure which shows the conventional sewage treatment apparatus schematically. 図8における反応槽内の越流時の汚水の流れを概略的に示す図である。It is a figure which shows roughly the flow of the sewage at the time of the overflow in the reaction tank in FIG.

以下、本発明の実施の形態について図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る汚水越流検知装置100を備える汚水処理装置を概略的に示す図である。   FIG. 1 is a diagram schematically showing a sewage treatment apparatus including a sewage overflow detection apparatus 100 according to an embodiment of the present invention.

図1の汚水処理装置は、汚水を処理するための単槽式の反応槽1を備え、反応槽1は、汚水に含まれる汚染物質を分離する膜分離装置2と、膜分離装置2に気泡状の空気を供給する散気管4と、反応槽1の内部を複数の領域に仕切る仕切板7(隔壁)とを有する。反応槽1内の仕切板7の配置は特に限定されず、仕切板7が膜分離装置2の全周囲を囲包していてもよいし、仕切板7が反応槽1の槽壁とともに膜分離装置2の周囲を囲包していてもよい。膜分離装置2は反応槽1の外部の吸引ポンプに接続されている。吸引ポンプが駆動すると、生物処理された汚水は膜分離装置2によってろ過され、ろ過された水は反応槽1の槽外に取り出される。   The sewage treatment apparatus of FIG. 1 includes a single tank type reaction tank 1 for treating sewage, and the reaction tank 1 includes a membrane separation apparatus 2 that separates contaminants contained in the sewage, and bubbles in the membrane separation apparatus 2. A diffuser pipe 4 for supplying the air-like air and a partition plate 7 (partition wall) for partitioning the inside of the reaction tank 1 into a plurality of regions. The arrangement of the partition plate 7 in the reaction tank 1 is not particularly limited, and the partition plate 7 may surround the entire periphery of the membrane separation device 2, or the partition plate 7 may be membrane-separated together with the tank wall of the reaction tank 1. The periphery of the device 2 may be enclosed. The membrane separation device 2 is connected to a suction pump outside the reaction tank 1. When the suction pump is driven, the biologically treated sewage is filtered by the membrane separation device 2, and the filtered water is taken out of the reaction tank 1.

散気管4は、膜分離装置2の下部に設置されるとともに、反応槽1の外部のブロワに接続され、ブロワは散気管4に空気を供給している。膜分離装置2は汚水をろ過するため、膜分離装置2の膜面には汚水中の汚泥物質等が付着し、膜分離装置2の膜面に付着した汚水中の汚泥物質等を放置すると、膜分離装置2が目詰まりして適切に汚水をろ過することができなくなる。したがって、散気管4が空気を膜分離装置2の膜面に供給し、汚泥物質等が膜分離装置2の膜面に付着するのを防止している。反応槽1は原水ポンプを介して汚水を格納する原水槽9に接続され、原水ポンプが駆動すると、処理される汚水は原水槽9から反応槽1に供給される。   The air diffuser 4 is installed at the lower part of the membrane separation device 2 and is connected to a blower outside the reaction tank 1. The blower supplies air to the air diffuser 4. Since the membrane separator 2 filters sewage, sludge substances in the sewage adhere to the membrane surface of the membrane separator 2, and if the sludge substances in the sewage attached to the membrane surface of the membrane separator 2 are left, The membrane separation device 2 is clogged, and the sewage cannot be appropriately filtered. Therefore, the air diffuser 4 supplies air to the membrane surface of the membrane separation device 2 and prevents sludge substances and the like from adhering to the membrane surface of the membrane separation device 2. The reaction tank 1 is connected to a raw water tank 9 for storing sewage through a raw water pump. When the raw water pump is driven, the sewage to be treated is supplied from the raw water tank 9 to the reaction tank 1.

反応槽1内において、汚水はその水位が仕切板7の上端部より高い位置(以下、「汚水越流位置」という。)と、仕切板7の上端部より低い位置(以下、「汚水非越流位置」という。)との間を往来するように増減する。反応槽1内の汚水の水位が汚水越流位置にあるとき、散気管4から膜分離装置2に空気が供給されることにより、汚水は内部領域A(第1の領域)から仕切板7の上端を越流して仕切板7の外部の外部領域B(第2の領域)に移行する(越流状態)。その後、汚水は外部領域B内を下降し、仕切板7よりも下の領域を経て仕切板7の内部領域Aに戻る。すなわち、汚水の水位が汚水越流位置にあり、汚水が仕切板7を越流するとき、仕切板7の周囲を循環する循環流が形成される。循環流が形成されると、内部領域Aにある硝酸が外部領域Bに移行して、外部領域Bにおいて窒素ガスに変換され、脱窒反応が行われる。   In the reaction tank 1, sewage has a level higher than the upper end of the partition plate 7 (hereinafter referred to as “sewage overflow position”) and a position lower than the upper end of the partition plate 7 (hereinafter referred to as “sewage non-overflow”). It is increased or decreased so as to come and go between “flow position”. When the level of sewage in the reaction tank 1 is at the sewage overflow position, air is supplied from the air diffuser 4 to the membrane separation device 2, so that the sewage is separated from the inner region A (first region) into the partition plate 7. It overflows the upper end and moves to the external region B (second region) outside the partition plate 7 (overflow state). Thereafter, the sewage descends in the external region B, returns to the internal region A of the partition plate 7 through a region below the partition plate 7. That is, when the sewage water level is at the sewage overflow position and the sewage overflows the partition plate 7, a circulation flow that circulates around the partition plate 7 is formed. When the circulating flow is formed, nitric acid in the inner region A moves to the outer region B, and is converted into nitrogen gas in the outer region B, and a denitrification reaction is performed.

一方、汚水の水位が汚水非越流位置にあるとき、汚水領域Aと汚水領域Bとの間で汚水の流通が分断されるため、散気管4が膜分離装置2に空気を供給しても、仕切板7の周囲を循環する循環流は形成されない(分断状態)。その結果、汚水領域Aにおいては好気状態で硝化反応が行われ、汚水領域Bにおいては無酸素状態で脱窒反応が行われる。このような仕切板挿入型の膜分離活性汚泥処理装置(B−MBR)では、汚水の越流状態と分断状態が交互に繰り返される。   On the other hand, when the sewage water level is at the sewage non-overflow position, the circulation of the sewage is divided between the sewage area A and the sewage area B. Therefore, even if the air diffuser 4 supplies air to the membrane separation device 2 A circulation flow circulating around the partition plate 7 is not formed (divided state). As a result, the nitrification reaction is performed in the aerobic state in the sewage region A, and the denitrification reaction is performed in the oxygen-free state in the sewage region B. In such a partition-insertion-type membrane separation activated sludge treatment apparatus (B-MBR), the sewage overflow state and the divided state are repeated alternately.

図1における本発明の汚水越流検知装置100は、反応槽1内において、汚水が仕切板7の上端を越流しているか否かを検知する装置である。撮影装置1011は汚水越流検知装置100が有する画像取得手段101(後述)である。   The sewage overflow detection device 100 of the present invention in FIG. 1 is a device that detects whether sewage overflows the upper end of the partition plate 7 in the reaction tank 1. The imaging device 1011 is image acquisition means 101 (described later) included in the sewage overflow detection device 100.

図2は、本発明の実施の形態に係る汚水越流検知装置100の構成を概略的に示すブロック図である。   FIG. 2 is a block diagram schematically showing the configuration of the sewage overflow detector 100 according to the embodiment of the present invention.

図2の汚水越流検知装置100は、仕切板7を含む対象画像を取得する画像取得手段101としてのカメラ等の撮影装置1011と、CPU、ROM、RAM、外部記憶装置等のハードウェア構成を有する計算機とを備え、これらは互いに接続されている。撮影装置1011には、撮影装置1011が取得した画像データを格納するための記憶領域(ストレージ)が接続されている。   The sewage overflow detection device 100 in FIG. 2 has a hardware configuration such as a photographing device 1011 such as a camera as an image acquisition unit 101 that acquires a target image including a partition plate 7, and a CPU, ROM, RAM, an external storage device, and the like. Which are connected to each other. A storage area (storage) for storing image data acquired by the imaging apparatus 1011 is connected to the imaging apparatus 1011.

CPUは、ROMや外部記憶装置等に格納されたプログラムをCPUのワークメモリであるRAMに展開して実行する。外部記憶装置は、例えば、HDDやメモリカードであり、CPUが処理を実行する際に必要な各種のプログラムや後述の閾値に関するデータ等の各種のデータを格納する。   The CPU expands and executes a program stored in a ROM, an external storage device, or the like on a RAM that is a work memory of the CPU. The external storage device is, for example, an HDD or a memory card, and stores various types of data such as various programs necessary for the CPU to execute processing and data related to thresholds described later.

画像取得手段101は撮影装置1011によって撮影された画像データをCPUに転送し、又は撮影装置1011によって撮影された画像データを撮影装置1011に接続される記憶領域(ストレージ)に格納し且つ格納された画像データをCPUに転送する。   The image acquisition unit 101 transfers the image data captured by the imaging apparatus 1011 to the CPU, or stores the image data captured by the imaging apparatus 1011 in a storage area (storage) connected to the imaging apparatus 1011. Transfer the image data to the CPU.

[汚水越流検知装置100による画像認識処理の概略]
以下に、本発明の汚水越流検知装置100による画像認識処理の概略を説明する。
[Outline of Image Recognition Processing by Sewage Overflow Detection Device 100]
Below, the outline of the image recognition process by the sewage overflow detection apparatus 100 of this invention is demonstrated.

(画像取得手段101)
画像取得手段101は、反応槽1内の仕切板7を含む対象画像を取得する。本発明の汚水越流検知装置100は、汚水が仕切板7の上端を越流しているか否かを検知する装置であるため、対象画像は反応槽1内の仕切板7の上端の少なくとも一部とその周辺を含む画像である。対象画像は、カメラ等の撮影装置1011により撮影して取得されてもよいし、画像データが保存されている記憶領域(ストレージ)から取得されてもよい。対象画像は静止画像、又は動画像中の1フレームの画像である。カメラ等の撮影装置1011の設置場所は、仕切板7の上端の少なくとも一部とその周辺を撮影できる場所であれば特に限定されないが、通常は越流状態又は分断状態の判別に有効な画像を継続的に撮影可能な定位置に固定される。
(Image acquisition means 101)
The image acquisition unit 101 acquires a target image including the partition plate 7 in the reaction tank 1. Since the sewage overflow detection device 100 of the present invention is a device that detects whether sewage overflows the upper end of the partition plate 7, the target image is at least a part of the upper end of the partition plate 7 in the reaction tank 1. And its surroundings. The target image may be acquired by photographing with a photographing apparatus 1011 such as a camera, or may be obtained from a storage area (storage) in which image data is stored. The target image is a still image or an image of one frame in a moving image. The installation location of the photographing device 1011 such as a camera is not particularly limited as long as it can photograph at least a part of the upper end of the partition plate 7 and the periphery thereof, but usually an image effective for determining the overflow state or the divided state is used. It is fixed at a fixed position where continuous shooting is possible.

画像取得手段101において取得される対象画像のサイズは特に限定されないが、例えば、縦画素×横画素が400〜2200×600〜4000ピクセルである。ここで縦画素×横画素は、以後、高さ×幅とも表す。取得される画像データの形態は特に限定されないが、本発明ではRGB輝度データの形態が好ましい。取得された対象画像のデータは画像加工手段102に転送される。このような画像取得手段101による工程を画像取得ステップとする。   The size of the target image acquired by the image acquisition unit 101 is not particularly limited. For example, vertical pixels × horizontal pixels are 400 to 2200 × 600 to 4000 pixels. Here, the vertical pixel × horizontal pixel is hereinafter also referred to as height × width. The form of the acquired image data is not particularly limited, but the form of RGB luminance data is preferable in the present invention. The acquired target image data is transferred to the image processing means 102. Such a process by the image acquisition unit 101 is referred to as an image acquisition step.

(画像加工手段102)
画像加工手段102は、画像取得手段101で取得した対象画像データに対して、後述する特徴抽出手段103における演算処理を行うために必要な加工を行う。加工としては、画像の拡大、縮小、トリミングなどの画像サイズの変更や、輝度調整、色調整などの画質の調整が挙げられる。1種類の加工のみを行ってもよいし、複数の加工を組み合わせて行ってもよい。加工された画像データは入力画像として特徴抽出手段103に入力される。入力画像の縦画素×横画素は50〜200×100〜400ピクセルが好ましい。このような画像加工手段102による工程を画像加工ステップとする。
(Image processing means 102)
The image processing unit 102 performs processing necessary for performing arithmetic processing in the feature extraction unit 103 described later on the target image data acquired by the image acquisition unit 101. Examples of the processing include image size change such as image enlargement, reduction, and trimming, and image quality adjustment such as brightness adjustment and color adjustment. Only one type of processing may be performed, or a plurality of processing may be combined. The processed image data is input to the feature extraction unit 103 as an input image. The vertical pixel × horizontal pixel of the input image is preferably 50 to 200 × 100 to 400 pixels. Such a process by the image processing means 102 is referred to as an image processing step.

(特徴抽出手段103)
特徴抽出手段103は、入力画像を構成する情報に所定の処理を施すことにより入力画像の特徴量を抽出し、最終的に新たな特定の値(特徴量)を算出する。ここで所定の処理とは、畳み込み演算処理、プーリング演算処理、及び全結合型演算処理から選ばれる少なくとも1種の処理であり、畳み込み演算処理及びプーリング演算処理が、入力画像を構成する情報に少なくとも1回ずつ施される処理であることが好ましい。
(Feature extraction means 103)
The feature extraction unit 103 extracts a feature amount of the input image by performing predetermined processing on the information constituting the input image, and finally calculates a new specific value (feature amount). Here, the predetermined process is at least one process selected from a convolution calculation process, a pooling calculation process, and a fully coupled calculation process, and the convolution calculation process and the pooling calculation process include at least information constituting the input image. It is preferable that the treatment is performed once.

畳み込み演算処理とは、入力画像データに対して、カーネルCという重みパラメータを用いてフィルタ処理を施すことにより、入力画像データの局所的な特徴量を抽出する処理である。   The convolution calculation process is a process of extracting a local feature amount of the input image data by performing a filtering process on the input image data using a weight parameter called kernel C.

プーリング演算処理とは、画像データ(特徴量)に対し、領域内の最大値や平均値を取ることにより、重要な特徴を残してデータを圧縮する処理である。この処理により画像の位置のズレを吸収でき、画像中の微小なゆがみや平行移動に対する頑健性が確保される。   The pooling calculation process is a process for compressing data while leaving important features by taking a maximum value or an average value in an area for image data (feature amount). By this process, the positional deviation of the image can be absorbed, and robustness against minute distortion and parallel movement in the image is ensured.

全結合型演算処理とは、全ての画像データを一つのノードに結合させ、活性化関数によって一次元データに変換して出力する処理である。特徴量に基づいた分類を行い、画像の識別をする役割を担う処理である。   The fully connected arithmetic processing is processing for combining all image data into one node, converting the image data into one-dimensional data using an activation function, and outputting the data. This is a process that performs classification based on feature amounts and plays a role of identifying images.

本発明において、特徴抽出手段103における所定の処理はCNN法(畳み込みニューラルネットワーク)に従って実施することが好ましい。CNN法は入力層、中間層、出力層を持つ階層構造で構成される。入力層では入力データが受け取られ、中間層ではデータから特徴量が抽出され、出力層では最終結果が出力される。CNN法の中間層では畳み込み層、プーリング層、全結合層を含む多段階の演算ステップが組み合わされる。CNN法では、このような多段階の特徴変換を通じて複雑な特徴表現を獲得することができるため、仕切板7の上端部の画像を高精度に認識することができる。   In the present invention, the predetermined processing in the feature extraction unit 103 is preferably performed according to the CNN method (convolutional neural network). The CNN method has a hierarchical structure having an input layer, an intermediate layer, and an output layer. Input data is received in the input layer, feature quantities are extracted from the data in the intermediate layer, and final results are output in the output layer. In the intermediate layer of the CNN method, multi-stage calculation steps including a convolution layer, a pooling layer, and a fully connected layer are combined. In the CNN method, complicated feature expression can be obtained through such multi-stage feature conversion, so that the image of the upper end portion of the partition plate 7 can be recognized with high accuracy.

特徴抽出手段103においては、所定の処理として、畳み込み演算処理、プーリング演算処理、全結合型演算処理を特定の順序で組み合わせる。本発明においては、非常に高い正答率で越流の有無を検知できるという点で、(1)畳み込み演算処理、(2)プーリング演算処理、(3)複数回の畳み込み演算処理、及び(4)全結合型演算処理をこの順で施すことが好ましい。(3)複数回の畳み込み演算処理は、通常2〜9回実施され、好ましくは2〜7回実施される。特徴抽出手段103における各演算に用いるパラメータは、確率勾配法などを用いることにより予め越流の判別ができるように学習される。   The feature extraction unit 103 combines the convolution calculation process, the pooling calculation process, and the fully coupled calculation process in a specific order as the predetermined process. In the present invention, (1) convolution operation processing, (2) pooling operation processing, (3) multiple convolution operation processing, and (4) It is preferable to perform all combined arithmetic processing in this order. (3) The convolution calculation process of multiple times is normally implemented 2-9 times, Preferably it is implemented 2-7 times. Parameters used for each calculation in the feature extraction unit 103 are learned in advance so that overflow can be determined by using a probability gradient method or the like.

入力画像を構成する情報にこのような所定の処理を段階的に施すことにより入力画像の特徴量が抽出され、最終的に0〜1の間の一個の特徴量として特定の値が算出される。このような特徴抽出手段103による工程を特徴抽出ステップとする。   By performing such predetermined processing step by step on the information constituting the input image, the feature amount of the input image is extracted, and finally a specific value is calculated as one feature amount between 0 and 1. . Such a process by the feature extraction unit 103 is referred to as a feature extraction step.

(越流判別手段104)
越流判別手段104においては、特徴抽出手段103で得られた0〜1の間の特定の値(特徴量)を所定の閾値(例えば、0.5)と比較することにより、汚水が仕切板7を越流しているか否かが判別される。このような越流判別手段104による工程を越流判別ステップとする。
(Overflow discrimination means 104)
In the overflow determination unit 104, the specific value (feature amount) between 0 and 1 obtained by the feature extraction unit 103 is compared with a predetermined threshold (for example, 0.5), so that the sewage is separated from the partition plate. It is determined whether or not the vehicle overflows 7. Such a process by the overflow determination unit 104 is defined as an overflow determination step.

(判別結果出力手段105)
最後に、判別結果出力手段105において、判別結果が0(非越流状態)か1(越流状態)として所望の方法で出力される。このような判別結果出力手段105による工程を判別結果出力ステップとする。
(Determination result output means 105)
Finally, the discrimination result output means 105 outputs the discrimination result as 0 (non-overflow state) or 1 (overflow state) by a desired method. Such a process by the discrimination result output means 105 is defined as a discrimination result output step.

以上が、本実施形態に係る汚水越流検知装置100による画像認識処理の概略となる。   The above is the outline of the image recognition processing by the sewage overflow detection apparatus 100 according to the present embodiment.

[汚水越流検知装置100による画像認識処理の詳細]
次に、本発明の実施の形態に係る汚水越流検知装置100による画像認識処理の詳細な流れについて、具体的な処理方法の例を用いて説明する。
[Details of Image Recognition Processing by Sewage Overflow Detection Device 100]
Next, a detailed flow of the image recognition processing by the sewage overflow detection apparatus 100 according to the embodiment of the present invention will be described using an example of a specific processing method.

まず、カメラ1011から、反応槽1内の仕切板7の上端の少なくとも一部とその周辺を含む対象画像をRGB輝度データの形態で一枚取得する(画像取得ステップ)。この対象画像のサイズは高さ480×幅640である。一枚の画像データは赤(Red)、緑(Green)、青(Blue)の三つの高さ×幅の行列式となる。   First, one target image including at least a part of the upper end of the partition plate 7 in the reaction tank 1 and its periphery is acquired from the camera 1011 in the form of RGB luminance data (image acquisition step). The size of the target image is 480 × height 640. One piece of image data has three height × width determinants of red (Red), green (Green), and blue (Blue).

次に、取得した対象画像のトリミングを行い高さ350×幅400のサイズに変更し、次いで縮小することにより画像サイズを高さ116×幅133に変更した入力画像Gを得る(画像加工ステップ)。図4に、越流状態の入力画像の例を示す。また、図5に、分断状態の入力画像の例を示す。画像データは1つの画素位置に対して、色成分の情報などの多くの情報が付与されており、そのような自由度をチャネル(channel)と言う。入力画像Gのチャネル数は赤、緑及び青の3チャネルである。 Next, the acquired target image is trimmed to change the height to 350 × width 400, and then reduced to obtain the input image G 0 in which the image size is changed to height 116 × width 133 (image processing step). ). FIG. 4 shows an example of the input image in the overflow state. FIG. 5 shows an example of an input image in a divided state. In image data, a large amount of information such as color component information is given to one pixel position, and such a degree of freedom is called a channel. The number of channels of the input image G 0 is a 3 channel of red, green and blue.

次いで、入力画像Gに対しCNN法を用いた所定の処理が施され、入力層、中間層及び出力層を持つ階層構造による演算処理を行う(特徴抽出ステップ)。図3は、CNN法の中間層における演算処理の組み合わせを示すフローチャートである。また、図6は、CNN法における入力層、中間層及び出力層の処理の概略を示す図である。 Next, a predetermined process using the CNN method is performed on the input image G 0 , and an arithmetic process with a hierarchical structure having an input layer, an intermediate layer, and an output layer is performed (feature extraction step). FIG. 3 is a flowchart showing a combination of arithmetic processing in the intermediate layer of the CNN method. FIG. 6 is a diagram showing an outline of processing of the input layer, the intermediate layer, and the output layer in the CNN method.

具体的に、画像加工ステップで得られた入力画像G(高さ116×幅133、チャネル数3)は、特徴抽出手段103の入力層に2次元のデータとして入力され、次いで中間層に入力される。中間層では、図3に示すように、畳み込み演算1(ステップ1031)、プーリング演算(ステップ1032)、畳み込み演算2〜7(ステップ1033〜1038)、及び全結合型演算(ステップ1039)がこの順で実施される。 Specifically, the input image G 0 (height 116 × width 133, channel number 3) obtained in the image processing step is input as two-dimensional data to the input layer of the feature extraction unit 103, and then input to the intermediate layer. Is done. In the intermediate layer, as shown in FIG. 3, the convolution operation 1 (step 1031), the pooling operation (step 1032), the convolution operations 2 to 7 (steps 1033 to 1038), and the fully coupled operation (step 1039) are performed in this order. Will be implemented.

ステップ1031では畳み込み演算1を行う。畳み込み演算では、入力画像データに対して、カーネルCという重みパラメータを用いてフィルタ処理が施され、入力画像データの局所的な特徴量が抽出される。ここでカーネルCとは、i段目の畳み込み演算におけるフィルタの値を表す。具体的に、入力画像データが持つ数値とフィルタの値(カーネル)とを掛け合わせることにより、入力画像データが持つ数値が畳み込まれる。畳み込み演算を数式で表すと下記の式(1)になる。 In step 1031, a convolution operation 1 is performed. In the convolution operation, filter processing is performed on the input image data using a weight parameter called kernel C i, and a local feature amount of the input image data is extracted. Here, the kernel C i represents the value of the filter in the i-th convolution operation. Specifically, the numerical value of the input image data is convolved by multiplying the numerical value of the input image data by the filter value (kernel). The convolution operation is expressed by the following equation (1).

=Gi−1*C ・・・(1)
(式(1)中、Gは特徴量を表し、Cはカーネルを表し、iは畳み込み演算の処理回数を表す。)
G i = G i−1 * C i (1)
(In Expression (1), G represents a feature value, C represents a kernel, and i represents the number of convolution operations.)

畳み込み演算1においては、まず畳み込みのカーネルCの重みパラメータの値が外部記憶装置から読み出される。この畳み込みカーネルCのサイズは8〜15×8〜15の二次元行列から選択できるが、ここでは11×11とする。畳み込み演算1のストライド(カーネルの適用位置をシフトさせる幅)は1〜4から選択できるが、ここでは2とする。カーネルのサイズやストライドは入力画像のサイズや畳み込み後の画像のサイズに応じて変更させてもよい。畳み込み後に多チャネル(Mチャネル)の画像を得たい場合には、M種類のカーネルを用いることができるが、畳み込み演算1では、畳み込みカーネルCを32種類用いる。赤、緑及び青の3チャネルの入力画像Gについてそれぞれフィルタ(カーネル)を掛け合わせる畳み込みを行い、その後同じ位置の画素値を全チャネルにわたり足し上げる。この処理を32種類のカーネルについて行う。 In convolution operation 1, first the value of the weight parameters of the kernel C 1 convolution is read from the external storage device. The size of the convolution kernel C 1 may be selected from a two-dimensional matrix of 8 to 15 × 8 to 15, but here, the 11 × 11. The stride of the convolution operation 1 (the width for shifting the application position of the kernel) can be selected from 1 to 4, but is 2 here. The kernel size and stride may be changed according to the size of the input image and the size of the image after convolution. If after convolution desired to obtain an image of a multi-channel (M-channel) it can be used M types of kernel, the convolution operation 1, the convolution kernel C 1 32 type is used. Red performs convolution multiplies the filter (kernel), respectively for the three-channel input image G 0 of the green and blue pixel values of subsequent same position bring added over the entire channel. This process is performed for 32 types of kernels.

畳み込み後のサイズをある程度大きくしたい場合には、入力画像の周りに所定の厚さの淵を加えるパディングを行ってもよい。例えば、入力画像の周りをゼロで埋めるゼロパディングを行うことができる。   If the size after convolution is desired to be increased to some extent, padding may be performed to add a wrinkle of a predetermined thickness around the input image. For example, zero padding that fills the input image with zeros can be performed.

このような畳み込み演算1により、特徴量Gはその特徴が保持されたまま行列が畳み込まれて小さくなり、最終的には畳み込まれた画像データに活性化関数fを作用させて非線形に変換する。活性化関数fとしては例えばシグモイド関数、双曲線関数(tanh)、ReLU関数等が用いられる。畳み込み演算1の結果、チャネル数32×高さ53×幅62の特徴量Gが得られる。この得られた特徴量Gを畳み込み層1とする。畳み込み演算の詳細については、例えば、深層学習(機械学習プロフェッショナルシリーズ) 岡谷貴之(著)に記載されている。 By such a convolution operation 1, the feature amount G 0 is reduced by convolving the matrix while retaining the feature, and finally, the activation function f is applied to the convolved image data in a non-linear manner. Convert. For example, a sigmoid function, a hyperbolic function (tanh), a ReLU function, or the like is used as the activation function f. Result of convolution operation 1, the feature amount G 1 of the channel number 32 × height 53 × width 62 is obtained. The obtained feature value G 1 is defined as a convolution layer 1. Details of the convolution operation are described, for example, in Deep Learning (Machine Learning Professional Series) Okaya Takayuki (Author).

次のステップ1032ではプーリング演算を行い、畳み込み演算1により得られた画像データ(特徴量G)に対し圧縮処理を行って画素数を低減させる。プーリング処理としては、所定の領域内の最大値をとる最大プーリング処理や平均値をとる平均プーリング処理があるが、本発明では最大プーリング演算を行うのが好ましい。所定の領域の大きさは1〜6×1〜6から選択でき、ストライド(所定の領域をシフトさせる幅)は1〜5から選択できるが、これらは圧縮後の画素数などに応じて適宜設定できる。ステップ1032では所定の領域を3×3とし、ストライドを3とする。また、プーリング処理後のサイズをある程度大きくしたい場合には、入力画像の周りに所定の厚さの淵を加えるパディングを行ってもよい。例えば、入力画像の周りをゼロで埋めるゼロパディングを行うことができる。このプーリング処理により、チャネル数32×高さ17×幅20の画像データ(特徴量G’)が得られる。この得られた特徴量G’をプーリング層とする。 In the next step 1032, a pooling operation is performed, and the image data (feature value G 1 ) obtained by the convolution operation 1 is compressed to reduce the number of pixels. The pooling process includes a maximum pooling process that takes a maximum value in a predetermined area and an average pooling process that takes an average value. In the present invention, it is preferable to perform a maximum pooling operation. The size of the predetermined area can be selected from 1 to 6 × 1 to 6, and the stride (the width for shifting the predetermined area) can be selected from 1 to 5, but these are set appropriately according to the number of pixels after compression, etc. it can. In step 1032, the predetermined area is 3 × 3 and the stride is 3. In addition, when it is desired to increase the size after the pooling process to some extent, padding that adds wrinkles of a predetermined thickness around the input image may be performed. For example, zero padding that fills the input image with zeros can be performed. By this pooling processing, image data (feature amount G 1 ′) having 32 channels × 17 height × 20 width is obtained. The obtained feature amount G 1 ′ is used as a pooling layer.

ステップ1033〜ステップ1038は畳み込み演算を繰り返し行う処理である。図3の演算処理では畳み込み演算2〜7の6回の処理を行う。畳み込み演算2〜7の処理方法は、入力画像の特徴量(チャネル数×高さ×幅)、カーネルサイズ、ストライド及びカーネルの種類等のパラメータが異なること以外は、上記ステップ1031の畳み込み演算1の処理方法と同様である。下記表1に畳み込み演算2〜7で用いることのできるパラメータを示す。   Steps 1033 to 1038 are processes for repeatedly performing a convolution operation. In the arithmetic processing of FIG. 3, the convolution operations 2 to 7 are performed six times. The processing methods of the convolution operations 2 to 7 are the same as those of the convolution operation 1 of step 1031 except that the parameters such as the feature amount (number of channels × height × width), kernel size, stride and kernel type of the input image are different. This is the same as the processing method. Table 1 below shows parameters that can be used in the convolution operations 2 to 7.

畳み込み演算2〜7により、畳み込み演算1で得られた特徴量Gはその特徴が保持されたまま次々に行列が畳み込まれて小さくなり、下記表2に示すような特徴量を有する畳み込み層2〜7が得られる。なお、各畳み込み層の後には、バッチ正規化(Batch Normalization)を実施してもよい。 By the convolution operations 2 to 7, the feature amount G 1 obtained by the convolution operation 1 is successively reduced while the features are retained, and the convolution layer has the feature amounts as shown in Table 2 below. 2-7 are obtained. In addition, you may implement batch normalization (Batch Normalization) after each convolution layer.

次のステップ1036では全結合型演算を行う。ここでは上記の畳み込み演算7で得られた特徴量Gに対して、活性化関数θによる非線形な演算処理を行う。活性化関数θとしてはシグモイド関数、半波整流関数、区分線形凸関数及びReLU関数(正規化線形関数)の様々な形態を用いることができるが、本発明では下記の式(2)で表わされるシグモイド関数を用いるのが好ましい。 In the next step 1036, a fully coupled operation is performed. Here, non-linear calculation processing using the activation function θ is performed on the feature amount G 7 obtained by the convolution calculation 7. As the activation function θ, various forms such as a sigmoid function, a half-wave rectification function, a piecewise linear convex function, and a ReLU function (normalized linear function) can be used. In the present invention, the activation function θ is expressed by the following formula (2). It is preferable to use a sigmoid function.

=θ(G(p)),
θ(x)=1/(1+e−X) ・・・(2)
(式中、Gは特徴量を表し、θはシグモイド関数を表し、pはGの各画素を表す。)
G 8 = θ (G 7 (p)),
θ (x) = 1 / (1 + e −X ) (2)
(Wherein, G represents a feature quantity, theta represents a sigmoid function, p is representing each pixel of the G 7.)

この全結合型演算処理により、64ノードの画像データ(特徴量G)が得られる。ここで得られた特徴量Gを全結合層とする。全結合型演算処理では、対象となる層のノードのうちの何割かを無効にするドロップアウトを行ってもよい。ドロップアウトを行うことにより、学習時にネットワークの自由度を強制的に小さくして汎化性能を上げ、過学習を避けることができる。 With this fully coupled calculation process, 64-node image data (feature value G 8 ) is obtained. The characteristic quantity G 8 obtained here and the total binding layer. In the fully connected arithmetic processing, dropout may be performed to invalidate some of the nodes in the target layer. By performing dropout, it is possible to forcibly reduce the degree of freedom of the network during learning to improve generalization performance and avoid overlearning.

全結合型演算処理により得られた特徴量Gは、次いで出力層において、活性化関数により0〜1の1次元の実数に変換される。これにより最終的に0〜1の間の一個の特徴量として特定の値が出力される。出力層で用いられる活性化関数としては、シグモイド関数、双曲線関数(tanh)、ReLU関数等が挙げられる。 Feature quantity G 8 obtained by total bound calculation process, then the output layer, is converted into a one-dimensional real number of 0 to 1 by the activation function. As a result, a specific value is finally output as one feature amount between 0 and 1. Examples of the activation function used in the output layer include a sigmoid function, a hyperbolic function (tanh), and a ReLU function.

次いで、特徴抽出ステップで最終的に算出された0〜1の間の特定の値に基づいて、汚水が仕切板7を越流しているか否かが判別される(越流判別ステップ)。具体的な判別方法としては、特定の値が0.5以上であれば越流状態(1)と判定し、特定の値が0.5未満であれば分断状態(0)と判定するものとする。越流判別ステップにおいて判別された判別結果(越流状態又は分断状態)は、その後、判別結果出力ステップにおいて出力される。   Next, based on a specific value between 0 and 1 finally calculated in the feature extraction step, it is determined whether or not sewage overflows the partition plate 7 (overflow determination step). As a specific determination method, if the specific value is 0.5 or more, it is determined that the overflow state (1), and if the specific value is less than 0.5, the divided state (0) is determined. To do. The determination result (overflow state or divided state) determined in the overflow determination step is then output in the determination result output step.

以上の通り、一枚の対象画像データから汚水越流検知装置100により越流の判別結果を出力する手順を説明した。実際の汚水越流検知方法においては、まず特徴抽出手段103の入力層、中間層(各演算処理層)及び出力層について、チャネル数×高さ×幅、カーネルサイズ及びストライドを設定したCNNモデル(例えば、下記実施例の表3を参照)を予め作成する。次いで、汚水処理装置の運転時の写真(仕切板上端部及びその周辺)を多数枚撮影する。各写真について越流状態か分断状態かを担当者が判定しラベリングし(正解データ)、撮影した写真を学習データとテストデータに分類する。学習データにCNNモデルを適用して演算させることにより順方向のデータ伝播を行う。パラメータの学習方法は後述するが、誤差逆伝搬手法などにより学習データの正解データとCNNモデルによる出力データとの誤差が最小となるよう各演算処理のパラメータ(カーネルCの重みパラメータ、バイアス等)が更新される。更新されたパラメータを用いてテストデータの越流判別を行うことにより、汚水の越流を高精度で検知することができる。 As described above, the procedure for outputting the overflow determination result from the single target image data by the sewage overflow detector 100 has been described. In the actual sewage overflow detection method, first, the CNN model (number of channels × height × width, kernel size, and stride) is set for the input layer, intermediate layer (each processing layer) and output layer of the feature extraction means 103. For example, the table below is created in advance. Next, a number of photographs taken at the time of operation of the sewage treatment apparatus (upper end of the partition plate and its surroundings) are taken. The person in charge determines whether each photograph is overflowing or divided (labeled correctly) and classifies the photographed photographs into learning data and test data. Data is transmitted in the forward direction by applying a CNN model to the learning data for calculation. Although a parameter learning method will be described later, parameters for each calculation process (kernel C i weighting parameters, bias, etc.) so that the error between the correct data of the learning data and the output data of the CNN model is minimized by an error back propagation method or the like. Is updated. By performing test data overflow detection using the updated parameters, it is possible to detect overflow of sewage with high accuracy.

(カーネルCの重みパラメータの学習方法)
ここで、特徴変換手段103で用いる畳み込みカーネルCの重みパラメータの学習方法について説明する。深層学習においては、下記の式(3)で表されるクロスエントロピー(学習データによる正解データとCNNモデルによる出力データとの誤差を求める誤差関数)を損失関数L=H(q,q’)として用い、誤差が最小になるように重みの値を更新して重みの値を調整する方法が広く知られている。
(Method of learning the weight parameter kernel C i)
Here, a learning method of the weight parameter of the convolution kernel C i used in the feature conversion unit 103 will be described. In deep learning, the cross entropy (an error function for obtaining an error between correct data based on learning data and output data based on the CNN model) represented by the following equation (3) is defined as a loss function L = H (q, q ′). A method of adjusting the weight value by updating the weight value so that the error is minimized is widely known.

H(q,q’)= −Σ q(x)・Log q’(x) ・・・(3)
式(3)中、q(x)はカテゴリx(越流状態の場合)の真の確率分布であり、q’(x)はCNNモデル(認識システム)が推定したカテゴリx(越流状態の場合)の分布である。ここでCNNモデルはカーネルCの演算を部分として含むものとする。
H (q, q ') = -Σ x q (x) · Log q' (x) ··· (3)
In equation (3), q (x) is a true probability distribution of category x (in the case of overflow), and q ′ (x) is category x (in the overflow state) estimated by the CNN model (recognition system). Distribution). Here, it is assumed that the CNN model includes the computation of the kernel C i as a part.

具体的には、まず全ての畳み込みカーネルCの重みWを乱数で初期化する。ここで、Wはc×di+1×d個の重み変数であり、cはチャネル数であり、dとdi+1はそれぞれ畳み込み演算前と畳み込み演算後の特徴量の次元数である。次に、学習画像データを入力して得られたCNNモデルの出力から、各学習画像の各画素についてカテゴリxの推定分布q’(x)を計算する。そして下記の式(4)に従って、重みWのj番目の要素wnjの値を更新する。 Specifically, first, the weights W i of all the convolution kernels C i are initialized with random numbers. Here, W i is c i × d i + 1 × d i weight variables, c i is the number of channels, d i and d i + 1 are the number of dimensions of the feature quantity before and after the convolution operation, respectively. is there. Next, an estimated distribution q ′ (x) of category x is calculated for each pixel of each learning image from the output of the CNN model obtained by inputting the learning image data. Then, the value of the j-th element w nj of the weight W n is updated according to the following equation (4).

nj(t+1)=wnj(t)−η∂L/∂wnj(t),
L=ΣΣip ・・・(4)
式(4)中、Lipは学習画像iの画素pに関する損失関数である。ηは1より小さな値をとる学習係数である。最終層以外の重みパラメータWについては、ニューラルネットで一般的な手法である誤差逆伝搬手法により各層ごとに順次計算して更新すればよい。なお、上記の更新式(4)に慣性項や重みwの減衰項と呼ばれる項を加えたタイプなど派生の形態も様々に存在する。ここで示した学習計算の個々の要素は、深層学習の技術として広く知られている(例えば、深層学習(機械学習プロフェッショナルシリーズ) 岡谷貴之(著)を参照)。
w nj (t + 1) = w nj (t) −η∂L / ∂w nj (t),
L = Σ i Σ p L ip (4)
In Expression (4), L ip is a loss function related to the pixel p of the learning image i. η is a learning coefficient having a value smaller than 1. The weight parameter W i other than the final layer may be updated sequentially calculated for each layer by the error back propagation method is a common technique in neural net. Also present various forms of derivative such as the type plus a term which in the above update equations (4) called the attenuation term of the inertia term and the weight w n. The individual elements of the learning calculation shown here are widely known as deep learning techniques (see, for example, Deep Learning (Machine Learning Professional Series) Takayuki Okaya).

ここでは、教師付き学習と呼ばれる、学習データとして正解データを含むデータを入力データとして用いる学習方法の形態について説明した。しかし、中間層のみ非教師型学習を行う形態や、入力層に近い層から一段ずつ教師付き学習を行って一層ずつ追加していく形態など、本発明においては様々な形態によりパラメータを学習することができる。   Here, a form of a learning method called supervised learning that uses data including correct data as learning data as input data has been described. However, in the present invention, parameters are learned in various forms, such as a form in which only the middle layer performs unsupervised learning or a form in which supervised learning is added step by step from a layer close to the input layer. Can do.

(プログラム)
本発明の汚水越流検知装置100においては、以下に説明するような、汚水が仕切板7を越流しているか否かの検知をコンピュータに実行させるプログラムを用いて汚水の越流が検知される。
(program)
In the sewage overflow detection device 100 of the present invention, the overflow of sewage is detected using a program that causes a computer to detect whether or not sewage is overflowing the partition plate 7 as described below. .

すなわち、本発明のプログラムは、
仕切板7を含む対象画像を取得する画像取得モジュールと、
取得した対象画像を入力画像に加工する画像加工モジュールと、
入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出モジュールと、
特定の値に基づいて汚水が仕切板7を越流しているか否かを判別する越流判別モジュールと、を有するプログラムである。
That is, the program of the present invention is
An image acquisition module for acquiring a target image including the partition plate 7;
An image processing module that processes the acquired target image into an input image;
A feature extraction module that extracts a feature amount by applying predetermined processing to information constituting the input image, and finally calculates a specific value;
An overflow determination module that determines whether sewage overflows the partition plate 7 based on a specific value.

本発明のプログラムを構成する画像取得モジュール、画像加工モジュール、特徴抽出モジュール、及び越流判別モジュールのソースコードは、本発明の汚水越流検知装置100を構成する画像取得手段101、画像加工手段102、特徴抽出手段103、及び越流判別手段104で用いる上述した画像処理条件を用い、公知の方法により容易に作成することができる(例えば、深層学習(機械学習プロフェッショナルシリーズ) 岡谷貴之(著)を参照)。   The source code of the image acquisition module, image processing module, feature extraction module, and overflow detection module constituting the program of the present invention is the image acquisition means 101 and image processing means 102 that constitute the sewage overflow detection device 100 of the present invention. It can be easily created by a known method using the above-described image processing conditions used in the feature extraction unit 103 and the overflow detection unit 104 (for example, deep learning (machine learning professional series) Takayuki Okaya (Author)) reference).

本発明の汚水越流検知装置100は、汚水処理装置自体とは別個の装置として設置してもよいし、反応槽1及び仕切板7と同様に汚水処理装置の構成要素の1つとして構成されていてもよい。本発明の汚水越流検知装置100は、反応槽1と仕切板7を備えた汚水処理装置に使用されるのであれば、直接汚水処理装置に接合されている必要はない。   The sewage overflow detection device 100 of the present invention may be installed as a separate device from the sewage treatment device itself, or may be configured as one of the components of the sewage treatment device in the same manner as the reaction tank 1 and the partition plate 7. It may be. If the sewage overflow detection device 100 of the present invention is used in a sewage treatment device including the reaction tank 1 and the partition plate 7, it is not necessary to be directly joined to the sewage treatment device.

以下、実施例に基づいて本発明の一例を具体的に説明するが、本発明は下記の実施例に限定されるものではない。   Hereinafter, although an example of the present invention will be specifically described based on examples, the present invention is not limited to the following examples.

1.B−MBR処理システム
図1に示す仕切板挿入型の膜分離活性汚泥処理装置(B−MBR)において、以下の処理条件を用いて汚水の処理を連続的に行った。
(汚水処理条件)
膜反応槽の容積:3.7m
HRT:5.9時間
SRT:26.6日
MLSS濃度:9000〜11000mg/L
PTFE製膜(膜孔径0.2μm)のモジュール(面積30m)を2枚使用
膜フラックス:0.25m/m/日
膜曝気空気量:18m/時間(SAD:0.30m/m/時間相当)
1. B-MBR treatment system In the partition-insertion-type membrane separation activated sludge treatment apparatus (B-MBR) shown in Fig. 1, sewage was continuously treated using the following treatment conditions.
(Sewage treatment conditions)
Volume of membrane reactor: 3.7 m 3
HRT: 5.9 hours SRT: 26.6 days MLSS concentration: 9000 to 11000 mg / L
Two modules of PTFE membrane (membrane pore diameter 0.2 μm) (area 30 m 2 ) are used. Membrane flux: 0.25 m 3 / m 2 / day membrane aeration air amount: 18 m 3 / hour (SAD m : 0.30 m 3) / M 2 / hour equivalent)

2.CNNモデルの作成
下記表3に示すCNNモデルを作成した。具体的には、深層学習のライブラリーであるTorchを用いてCNNモデルを定義し、(1)畳み込み層、(2)最大プーリング層、(3)複数の畳み込み層、及び(4)全結合層を順次構成するCNNモデルを設定した。表3には各層のチャネル数×高さ×幅、カーネルサイズ及びストライドを示した。下記のCNNモデルは、入力層及び出力層を含め計11層の深層学習モデルである。
2. Creation of CNN model The CNN model shown in Table 3 below was created. Specifically, a CNN model is defined by using the deep learning library Torch, and (1) a convolution layer, (2) a maximum pooling layer, (3) a plurality of convolution layers, and (4) a fully connected layer. A CNN model that sequentially configures the above is set. Table 3 shows the number of channels × height × width, kernel size and stride of each layer. The following CNN model is a deep learning model with a total of 11 layers including an input layer and an output layer.

3.学習データの作成
B−MBRにおいて、反応槽内の仕切板上端の少なくとも一部とその周辺を含む写真を撮影できる位置にカメラを固定した。次いで、B−MBRの運転時に、写真を10秒毎に1000枚撮影し、高さ480×幅640の対象画像をRGB輝度データの形態で取得した(画像取得ステップ)。取得した対象画像をトリミングして高さ350×幅400の画素に変更し、次いで縮小することにより高さ116×幅133の入力画像を得た(画像加工ステップ)。
3. Creation of learning data In B-MBR, a camera was fixed at a position where a photograph including at least a part of the upper end of the partition plate in the reaction tank and its periphery could be taken. Next, during the operation of the B-MBR, 1000 photographs were taken every 10 seconds, and a target image of height 480 × width 640 was obtained in the form of RGB luminance data (image acquisition step). The acquired target image was trimmed and changed to a pixel having a height of 350 × width 400, and then reduced to obtain an input image having a height 116 × width 133 (image processing step).

各写真について越流状態(1)か分断状態(0)かを担当者が判定しラベリングした(正解データ)。仕切板7の外部領域では脱窒反応が進行し窒素が発生するため汚水の表面は泡状となっている。そのため、越流状態では仕切板7の上端を明確に確認することが困難である。したがって、担当者による越流か否かの判定基準は、仕切板7の上端部分が明確に確認できる場合を分断状態とし、仕切板7の上端部分が明確に確認できない場合を越流状態とした。図4に、越流状態(1)と判定した入力画像の1つを示す。また、図5に、分断状態(0)と判定した入力画像の1つを示す。
4.学習及び越流検知
撮影した1000枚の写真のうち、900枚を学習データとし、残りの100枚の写真をデストデータとした。学習データの入力画像に上記表1のCNNモデルを適用して順次演算処理を行った(特徴抽出ステップ)。各畳み込み層の後には、バッチ正規化(Batch Normalization)を実施し、全結合層においては50%のドロップアウトを行った。出力層においては、0〜1の一次元の実数を出力した。出力層の出力値が0.5以上の場合を越流状態(1)とし、0.5未満の場合を分断状態(0)として越流の判別を行った(越流判別ステップ)。学習は、900枚の写真について、それぞれの写真に付された正解データに基づき、損失関数を最小化するように各重みパラメータの更新を行う。この一連の作業を1エポックとし、50エポックまで学習を行った。各エポック終了後に、学習に使用していないテストデータの100枚についての正解率も求め、その遷移を図7のように確認して学習を行った。更新されたパラメータを用いてテストデータの画像の越流の判別を行った。図7に、エポック数(学習回数)に対する各データの精度(Accuracy)、すなわち正答率の推移を示した。
The person in charge determined whether each photograph was overflow (1) or divided (0) and labeled it (correct data). Since the denitrification reaction proceeds and nitrogen is generated in the outer region of the partition plate 7, the surface of the sewage is foamed. Therefore, it is difficult to clearly confirm the upper end of the partition plate 7 in the overflow state. Therefore, the determination criterion of whether the person in charge is overflowing is a divided state when the upper end portion of the partition plate 7 can be clearly confirmed, and an overflow state when the upper end portion of the partition plate 7 cannot be clearly confirmed. . FIG. 4 shows one of the input images determined as the overflow condition (1). FIG. 5 shows one of the input images determined to be in the divided state (0).
4). Learning and overflow detection Among the 1000 photographs taken, 900 pictures were taken as learning data, and the remaining 100 pictures were taken as destination data. The CNN model shown in Table 1 was applied to the input image of learning data to perform sequential calculation processing (feature extraction step). After each convolution layer, batch normalization was performed, and 50% dropout was performed in all tie layers. In the output layer, 0 to 1 one-dimensional real numbers were output. When the output value of the output layer is 0.5 or more, the overflow state (1) is determined, and when it is less than 0.5, the overflow state is determined (overflow determination step). In the learning, for each of 900 photos, each weight parameter is updated so as to minimize the loss function based on the correct answer data attached to each photo. This series of work was set as 1 epoch, and learning was performed up to 50 epochs. After each epoch, the correct answer rate was obtained for 100 pieces of test data not used for learning, and the transition was confirmed as shown in FIG. 7 for learning. The updated parameters were used to determine the overflow of the test data image. FIG. 7 shows the transition of the accuracy (Accuracy) of each data with respect to the number of epochs (number of learning), that is, the correct answer rate.

5.結果
図7の結果から、学習モデルに対しては100%の正答率であり、テストデータに対しては95%程度の正答率であった。越流状態と分断状態の境目は必ずしも明確ではなく担当者の判断も迷うことが多い。そのため、95%の正答率は担当者の判断を高い精度で再現するものである。したがって、本発明により、B−MBR処理システムの窒素除去性能を表す越流時間の計測が可能となった。
5. Results From the results shown in FIG. 7, the correct answer rate was 100% for the learning model, and the correct answer rate was about 95% for the test data. The boundary between the overflow state and the divided state is not always clear, and the person in charge often makes a mistake. Therefore, the correct answer rate of 95% reproduces the judgment of the person in charge with high accuracy. Therefore, according to the present invention, the overflow time representing the nitrogen removal performance of the B-MBR treatment system can be measured.

(その他の実施形態)
本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク若しくは各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(CPUやMPU等)がプログラムを読出し実行する処理である。本発明は、複数の機器から構成されるシステムに適用してもよく、1つの機器からなる装置に適用してもよい。また、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。すなわち、上述した実施例及びその変形例を組み合わせた構成も全て本発明に含まれ、例えば、少なくとも汚水が仕切板7を越流しているか否かを判別するための汚水越流検知装置100を有する構成は本発明に含まれる。
(Other embodiments)
The present invention supplies software (program) that realizes the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and a computer (CPU, MPU, etc.) of the system or apparatus reads and executes the program. It is processing to do. The present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device. Further, the present invention is not limited to the above-described embodiments, and various modifications can be made based on the spirit of the present invention, and they are not excluded from the scope of the present invention. That is, all the structures which combined the Example mentioned above and its modification are also included in this invention, for example, it has the sewage overflow detection apparatus 100 for discriminating whether at least sewage overflows the partition plate 7 or not. The configuration is included in the present invention.

本発明は、汚水処理を安定して実行することができる汚水処理装置及び方法を提供することができる。   The present invention can provide a sewage treatment apparatus and method that can stably perform sewage treatment.

1 反応槽
2 膜分離装置
4 散気管
7 仕切板
9 原水槽
100 汚水越流検知装置
101 画像取得手段
102 画像加工手段
103 特徴抽出手段
104 越流判別手段
105 判別結果出力手段
1011 撮影装置(カメラ)
1031 畳み込み演算1
1032 プーリング演算
1033 畳み込み演算2
1034 畳み込み演算3
1035 畳み込み演算4〜7
1036 全結合型演算
DESCRIPTION OF SYMBOLS 1 Reaction tank 2 Membrane separation apparatus 4 Aeration pipe 7 Partition plate 9 Raw water tank 100 Sewage overflow detection device 101 Image acquisition means 102 Image processing means 103 Feature extraction means 104 Overflow discrimination means 105 Discrimination result output means 1011 Imaging device (camera)
1031 Convolution operation 1
1032 Pooling operation 1033 Convolution operation 2
1034 Convolution operation 3
1035 Convolution 4-7
1036 Fully combined operation

Claims (7)

汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知装置であって、
前記隔壁を含む対象画像を取得する画像取得手段と、
前記取得した対象画像を入力画像に加工する画像加工手段と、
前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出手段と、
前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別手段と、を備えることを特徴とする汚水越流検知装置。
A sewage overflow detector for detecting whether or not the sewage overflows a partition wall disposed between a first region where sewage exists and a second region other than the first region,
Image acquisition means for acquiring a target image including the partition;
Image processing means for processing the acquired target image into an input image;
A feature extraction unit that extracts a feature amount by performing a predetermined process on information constituting the input image, and finally calculates a specific value;
And a sewage overflow detection device, comprising: overflow determining means for determining whether or not the sewage overflows the partition wall based on the specific value.
前記所定の処理は畳み込み演算処理、プーリング演算処理、及び全結合型演算処理から選ばれる少なくとも1種の処理であることを特徴とする請求項1記載の汚水越流検知装置。   The sewage overflow detection device according to claim 1, wherein the predetermined process is at least one process selected from a convolution calculation process, a pooling calculation process, and a fully coupled calculation process. 前記畳み込み演算処理及び前記プーリング演算処理が、前記入力画像を構成する情報に少なくとも1回ずつ施されることを特徴とする請求項2記載の汚水越流検知装置。   The sewage overflow detection device according to claim 2, wherein the convolution calculation process and the pooling calculation process are performed at least once on information constituting the input image. 前記入力画像を構成する情報に、(1)前記畳み込み演算処理、(2)前記プーリング演算処理、(3)複数回の前記畳み込み演算処理、及び(4)前記全結合型演算処理をこの順で施すことを特徴とする請求項2又は3記載の汚水越流検知装置。   Information constituting the input image includes (1) the convolution operation process, (2) the pooling operation process, (3) a plurality of convolution operation processes, and (4) the fully coupled operation process in this order. The sewage overflow detector according to claim 2 or 3, wherein the sewage overflow detector is provided. 汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知方法であって、
前記隔壁を含む対象画像を取得する画像取得ステップと、
前記取得した対象画像を入力画像に加工する画像加工ステップと、
前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出ステップと、
前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別ステップと、を有することを特徴とする汚水越流検知方法。
A sewage overflow detection method for detecting whether or not the sewage overflows a partition disposed between a first region where sewage exists and a second region other than the first region,
An image acquisition step of acquiring a target image including the partition;
An image processing step of processing the acquired target image into an input image;
A feature extraction step of extracting a feature amount by applying a predetermined process to information constituting the input image, and finally calculating a specific value;
An overflow determination step for determining whether or not the sewage overflows the partition wall based on the specific value.
汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知方法をコンピュータに実行させるプログラムであって、
前記隔壁を含む対象画像を取得する画像取得モジュールと、
前記取得した対象画像を入力画像に加工する画像加工モジュールと、
前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出モジュールと、
前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別モジュールと、を有することを特徴とするプログラム。
The computer executes a sewage overflow detection method for detecting whether or not the sewage overflows a partition wall disposed between a first region where sewage exists and a second region other than the first region. A program to
An image acquisition module for acquiring a target image including the partition;
An image processing module for processing the acquired target image into an input image;
A feature extraction module that extracts a feature amount by applying a predetermined process to information constituting the input image, and finally calculates a specific value;
An overflow detection module that determines whether or not the sewage overflows the partition based on the specific value.
汚水が存在する第1の領域及び前記第1の領域以外の第2の領域の間に配設される隔壁を前記汚水が越流しているか否かを検知する汚水越流検知装置を、備える汚水処理装置であって、
前記汚水越流検知装置は、
前記隔壁を含む対象画像を取得する画像取得手段と、
前記取得した対象画像を入力画像に加工する画像加工手段と、
前記入力画像を構成する情報に所定の処理を施すことにより特徴量を抽出し、最終的に特定の値を算出する特徴抽出手段と、
前記特定の値に基づいて前記汚水が前記隔壁を越流しているか否かを判別する越流判別手段と、を備えることを特徴とする汚水処理装置。
Sewage provided with a sewage overflow detection device for detecting whether or not the sewage overflows a partition disposed between a first region where sewage exists and a second region other than the first region. A processing device comprising:
The sewage overflow detector is
Image acquisition means for acquiring a target image including the partition;
Image processing means for processing the acquired target image into an input image;
A feature extraction unit that extracts a feature amount by performing a predetermined process on information constituting the input image, and finally calculates a specific value;
Overflow discrimination means for discriminating whether or not the sewage overflows the partition wall based on the specific value.
JP2018036530A 2018-03-01 2018-03-01 Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment device Active JP7029981B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018036530A JP7029981B2 (en) 2018-03-01 2018-03-01 Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment device
PCT/JP2019/005371 WO2019167651A1 (en) 2018-03-01 2019-02-14 Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036530A JP7029981B2 (en) 2018-03-01 2018-03-01 Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment device

Publications (2)

Publication Number Publication Date
JP2019152968A true JP2019152968A (en) 2019-09-12
JP7029981B2 JP7029981B2 (en) 2022-03-04

Family

ID=67805306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036530A Active JP7029981B2 (en) 2018-03-01 2018-03-01 Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment device

Country Status (2)

Country Link
JP (1) JP7029981B2 (en)
WO (1) WO2019167651A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095821A1 (en) * 2019-11-14 2021-05-20 Wota株式会社 Information processing device, method, program, and system
JP2022145429A (en) * 2021-03-19 2022-10-04 宏碁智醫股▲ふん▼有限公司 Image-related detection method and device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388249B2 (en) 2020-03-06 2023-11-29 株式会社明電舎 Operation control amount derivation device and operation control amount derivation method for sewage treatment facility
JPWO2021261543A1 (en) * 2020-06-26 2021-12-30
WO2022004642A1 (en) * 2020-06-29 2022-01-06 国立大学法人北海道大学 Wastewater treatment device and wastewater treatment method
CN113800711B (en) * 2021-09-02 2023-04-07 江苏南大华兴环保科技股份公司 Pretreatment method and system for high-concentration oily perfume wastewater

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6125137B1 (en) * 2016-11-17 2017-05-10 三菱電機株式会社 Water level measuring device and water level measuring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4059790B2 (en) 2003-02-28 2008-03-12 義公 渡辺 Membrane separation activated sludge treatment apparatus and membrane separation activated sludge treatment method
JP6539901B2 (en) 2015-03-09 2019-07-10 学校法人法政大学 PLANT DISEASE DIAGNOSTIC SYSTEM, PLANT DISEASE DIAGNOSTIC METHOD, AND PROGRAM
JP6873600B2 (en) 2016-03-04 2021-05-19 キヤノン株式会社 Image recognition device, image recognition method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6125137B1 (en) * 2016-11-17 2017-05-10 三菱電機株式会社 Water level measuring device and water level measuring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095821A1 (en) * 2019-11-14 2021-05-20 Wota株式会社 Information processing device, method, program, and system
JP2022145429A (en) * 2021-03-19 2022-10-04 宏碁智醫股▲ふん▼有限公司 Image-related detection method and device

Also Published As

Publication number Publication date
JP7029981B2 (en) 2022-03-04
WO2019167651A1 (en) 2019-09-06

Similar Documents

Publication Publication Date Title
WO2019167651A1 (en) Sewage overflow detection device, sewage overflow detection method, program, and sewage treatment apparatus
Beyenal et al. Quantifying biofilm structure: facts and fiction
US20190362221A1 (en) Evaluating quality of a product such as a semiconductor substrate
CN111832592B (en) RGBD significance detection method and related device
CN115205274A (en) Cloth flaw detection method based on lightweight cascade network
CN111898430A (en) Elevator car personnel intelligent identification method based on deep learning
CN107705334A (en) A kind of video camera method for detecting abnormality and device
CN112766040B (en) Method, device, apparatus and readable storage medium for detecting residual bait
CN111862040B (en) Portrait picture quality evaluation method, device, equipment and storage medium
CN112151167A (en) Intelligent screening method for six-age dental caries of children based on deep learning
CN110766650A (en) Biological detection early warning method, system, device, computer equipment and storage medium
CN114782982A (en) Marine organism intelligent detection method based on deep learning
CN112766123A (en) Crowd counting method and system based on criss-cross attention network
CN114842542A (en) Facial action unit identification method and device based on self-adaptive attention and space-time correlation
CN113237881B (en) Detection method and device for specific cells and pathological section detection system
CN114882532A (en) Fall detection method and system based on improved YOLOX network
CN111104976B (en) Blue algae coverage calculating method based on time sequence images
CN115170942B (en) Fish behavior recognition method with multi-stage fusion of sound and vision
CN116152128A (en) High dynamic range multi-exposure image fusion model and method based on attention mechanism
CN111489325B (en) Instant identification device for hyperthyroidism disease and control method thereof
TW202141344A (en) Motion recognition system
CN112418252A (en) Source social network identification method based on image-contained social network platform fingerprint
CN113012217A (en) Image processing-based construction method of convolution neural network for welding seam positioning
CN115760609B (en) Image optimization method and system
CN116883360B (en) Multi-scale double-channel-based fish shoal counting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7029981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150