WO2020021689A1 - 水処理プラントおよび水処理プラントの運転方法 - Google Patents

水処理プラントおよび水処理プラントの運転方法 Download PDF

Info

Publication number
WO2020021689A1
WO2020021689A1 PCT/JP2018/028153 JP2018028153W WO2020021689A1 WO 2020021689 A1 WO2020021689 A1 WO 2020021689A1 JP 2018028153 W JP2018028153 W JP 2018028153W WO 2020021689 A1 WO2020021689 A1 WO 2020021689A1
Authority
WO
WIPO (PCT)
Prior art keywords
water treatment
arithmetic
control
neural network
image data
Prior art date
Application number
PCT/JP2018/028153
Other languages
English (en)
French (fr)
Inventor
英二 今村
祐樹 佐藤
航 吉田
野田 清治
洋平 上野
安永 望
剛 若松
健太 霜田
卓嗣 川田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019504146A priority Critical patent/JP6541913B1/ja
Priority to SG11202012657RA priority patent/SG11202012657RA/en
Priority to PCT/JP2018/028153 priority patent/WO2020021689A1/ja
Priority to US17/259,549 priority patent/US20210133575A1/en
Priority to KR1020217001510A priority patent/KR20210021387A/ko
Priority to CN201880095731.5A priority patent/CN112424126B/zh
Publication of WO2020021689A1 publication Critical patent/WO2020021689A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F3/00Biological treatment of water, waste water, or sewage
    • C02F3/006Regulation methods for biological treatment
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/008Control or steering systems not provided for elsewhere in subclass C02F
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/005Processes using a programmable logic controller [PLC]
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/005Processes using a programmable logic controller [PLC]
    • C02F2209/008Processes using a programmable logic controller [PLC] comprising telecommunication features, e.g. modems or antennas
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/02Temperature
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/08Chemical Oxygen Demand [COD]; Biological Oxygen Demand [BOD]
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/10Solids, e.g. total solids [TS], total suspended solids [TSS] or volatile solids [VS]
    • C02F2209/105Particle number, particle size or particle characterisation
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/14NH3-N
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/15N03-N
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/16Total nitrogen (tkN-N)
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/18PO4-P
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/22O2
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/40Liquid flow rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention relates to a water treatment plant that performs water treatment such as tap water or sewage, and an operation method of the water treatment plant.
  • Water treatment plants perform water treatment control while changing control target values according to environmental changes. For example, a control target value is changed in accordance with a change in a water treatment environment such as a seasonal temperature difference, an inflow flow rate, and an inflow water quality. Has been done.
  • Patent Literature 1 proposes a technique using an AI (Artificial Intelligent) device for controlling a sewage treatment device so that an operator's experience can be reflected on a change in a control target value according to an environmental change.
  • AI Artificial Intelligent
  • the detection values of a plurality of sensors for detecting the flow rate, temperature, BOD (Biochemical Oxygen Demand), NH 4 + , and the like of the inflow water into a sewage treatment device are input to an AI device.
  • the sewage treatment device is controlled based on the output of the AI device.
  • water treatment control using an AI device is performed using numerical values such as the flow rate, temperature, BOD, and NH 4 + in the inflow water as indices.
  • the conventional water treatment plants as described above have room for improvement.
  • effective water treatment control cannot be performed with respect to a change in the water treatment environment of the water treatment device that does not appear in a value detected by the sensor. There is a fear.
  • the present invention has been made in view of the above, and an object of the present invention is to provide a water treatment plant capable of performing more effective water treatment control with respect to a change in a water treatment environment.
  • the water treatment plant according to the present invention is a water treatment plant that performs water treatment using a water treatment device, and includes an imaging device, a treatment device, and a control device.
  • the imaging device captures an image of a water treatment environment of the water treatment device, and outputs image data obtained by capturing the image.
  • the processing device causes an operation device that performs an operation using one or more calculation models generated by machine learning to execute the operation using image data output from the imaging device as input data of the one or more calculation models.
  • the control device controls the water treatment device based on information output from the arithmetic device by performing the arithmetic.
  • FIG. 3 is a diagram illustrating a configuration example of a plurality of sensor groups according to the first embodiment
  • FIG. 2 is a diagram illustrating a configuration example of a processing apparatus according to the first embodiment
  • FIG. 3 is a diagram illustrating an example of a data table stored in a storage device according to the first embodiment
  • FIG. 3 is a diagram illustrating a configuration example of an arithmetic device according to the first embodiment
  • FIG. 3 is a diagram illustrating a configuration example of a control device according to the first embodiment
  • 5 is a flowchart illustrating an example of processing of the processing device according to the first embodiment
  • 5 is a flowchart illustrating an example of processing of the arithmetic device according to the first embodiment
  • 5 is a flowchart illustrating an example of a process performed by the control device according to the first embodiment
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of a processing device according to the first embodiment.
  • FIG. 1 is a diagram schematically illustrating a water treatment plant according to the first embodiment.
  • the water treatment plant 1 according to the first embodiment includes a water treatment device 10, an imaging device 20, a treatment device 30, a calculation device 40, and a control device 50.
  • the arithmetic device 40 is an example of an AI device.
  • the water treatment device 10 is a device that performs water treatment such as tap water or sewage, and includes a device to be controlled such as a pump or a blower that controls the state of water treatment.
  • a device to be controlled such as a pump or a blower that controls the state of water treatment.
  • the water treatment apparatus 10 not only the apparatus according to the first embodiment including a control target device such as a pump or a blower, but also a sand basin, a first sedimentation basin, a sludge volume reduction device, or the like of a water treatment plant may be used. Good.
  • the control device 50 controls the water treatment device 10.
  • the imaging device 20 images the water treatment environment of the water treatment device 10 and outputs image data of the water treatment environment obtained by imaging.
  • the water treatment environment of the water treatment device 10 includes at least one of a water treatment environment inside the water treatment device 10 and a water treatment environment outside the water treatment device 10.
  • the processing device 30 acquires image data from the imaging device 20.
  • the processing device 30 causes the arithmetic device 40 to execute an arithmetic operation using the acquired image data as input data, and obtains the arithmetic result of the arithmetic device 40 from the arithmetic device 40.
  • the arithmetic device 40 has a calculation model generated by machine learning.
  • the calculation model inputs, for example, image data of the imaging device 20 and outputs information on a control target value of the device to be controlled.
  • the control target value is, for example, a target value of a control amount of a device to be controlled such as a pump or a blower that controls a water treatment state of the water treatment device 10.
  • the arithmetic device 40 performs an arithmetic operation using the above-described calculation model using the image data acquired from the processing device 30 as input data, and outputs information including the operation result of the arithmetic device 40 to the processing device 30.
  • the processing device 30 outputs information acquired from the arithmetic device 40 to the control device 50.
  • the control device 50 controls the water treatment device 10 based on the information output from the treatment device 30. For example, when the information output from the arithmetic device 40 is information on the control target value of the control target device, the control device 50 outputs control information including the control target value to the control target device of the water treatment device 10 by outputting the control information. ,
  • the water treatment device 10 can be controlled.
  • the arithmetic device 40 is, for example, an AI called artificial intelligence or the like, and contributes to estimating a preferable control target value of the control target device through machine learning based on input image data.
  • the water treatment control can be performed by using the arithmetic device 40 with the image of the water treatment environment of the water treatment device 10 as a new index. For this reason, in the water treatment plant 1, for example, the water treatment control performed by the operator of the water treatment plant 1 based on the past experience or knowledge based on the image of the water treatment environment of the water treatment device 10 is performed by the arithmetic device 40. And effective water treatment control can be performed.
  • the function of the processing device 30 may be incorporated into at least one of the arithmetic device 40 and the control device 50 and the processing device 30 may be omitted.
  • the processing device 30 separate from at least one of the arithmetic device 40 and the control device 50 can be omitted, so that the effect of increasing the degree of freedom of the device configuration can be obtained.
  • FIG. 2 is a diagram illustrating a configuration example of the water treatment plant according to the first embodiment.
  • sewage treatment will be described as an example of water treatment performed by the water treatment device 10.
  • the water treatment plant 1 includes a water treatment apparatus 10 described above, the imaging apparatus 20 1 to 20 3, the sensors 21 1 to 21 3, and the processing unit 30,
  • the control device includes a calculation device 40, a control device 50, a storage device 61, a display device 62, and an input device 63.
  • the imaging devices 20 1 to 20 3 is shown without distinction, it is described as an imaging device 20, and when each of the sensor groups 21 1 to 21 3 is shown without distinction, May be described.
  • the processing device 30, the arithmetic device 40, the control device 50, the storage device 61, the display device 62, and the input device 63 are communicably connected to each other via a communication network 64.
  • the communication network 64 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), a bus, or a dedicated line.
  • the water treatment device 10 shown in FIG. 2 is a sewage treatment device for treating sewage.
  • the water treatment apparatus 10 stores a sewage, which is an inflow water from a sewer, etc., and aerobically treats a first settling tank 11 for sedimenting solids and the like which are relatively easy to sink in the sewage, and a supernatant water of the first settling tank 11.
  • a final sedimentation tank 13 for separating the activated sludge mixture flowing from the treatment tank 12 into supernatant water and activated sludge.
  • the supernatant water of the final settling tank 13 is discharged from the final settling tank 13 as treated water.
  • the supernatant water flowing from the precipitation tank 11 at first contains organic matter, and for example, the organic matter contained in the supernatant water is treated by digestion of aerobic microorganisms such as phosphorus accumulating bacteria, nitrifying bacteria, and denitrifying bacteria. You.
  • the water treatment apparatus 10 is further provided on a blower 14 that feeds air into the treatment tank 12 to dissolve air in the activated sludge mixture, and a pipe that connects the final sedimentation tank 13 and the treatment tank 12. And a pump 15 for returning the activated sludge from the treatment tank 13 to the treatment tank 12.
  • a blower 14 and the pump 15 is an example of the above-described control target device.
  • control target devices when the blower 14 and the pump 15 are not distinguished from each other, they may be referred to as control target devices.
  • the plurality of imaging devices 20 1 , 20 2 , and 20 3 capture images of the water treatment environment of the water treatment device 10 that are different from each other and that are to be imaged.
  • Imaging device 20 1 captures a water treatment environment to be imaged subject in the first settling tank 11.
  • the object to be imaged in the first settling tank 11 is, for example, the state of water, the state of bubbles, or the state of sediment in the first settling tank 11.
  • the imaging device 20 2 images the water treatment environment to be imaged subject in the treatment tank 12.
  • the imaging target in the processing tank 12 is, for example, a state of activated sludge in the processing tank 12, a state of water, or the like.
  • the state of the activated sludge includes, for example, the amount or distribution of the activated sludge.
  • the state of the activated sludge may be, for example, the amount of each microorganism.
  • Imaging device 20 3 images the water treatment environment to be imaged object in the final sedimentation tank 13.
  • the object to be imaged in the final sedimentation tank 13 is, for example, the state of the supernatant water of the final sedimentation tank 13 or the state of the sediment.
  • the imaging target imaged by the imaging device 20 is not limited to the example described above, and the imaging device 20 can also image the state of the inner wall of the tank, the state around the tank, or the like as the imaging target.
  • the imaging devices 20 1 , 20 2 , and 20 3 shown in FIG. 2 capture the state or environment in the water treatment device 10 as the water treatment environment of the water treatment device 10.
  • An imaging device for imaging an external state or environment may be provided.
  • the imaging device 20 is, for example, a digital camera or a digital microscope.
  • the imaging device 20 may be, for example, a digital camera for a microscope.
  • the imaging device 20 can capture an image of the microscope when an operator of the water treatment plant 1 places water in the tank on the microscope.
  • the number of imaging devices 20 is not limited to three, and may be two or less, or four or more.
  • the operator of the water treatment plant 1 is simply referred to as an operator.
  • the plurality of sensor groups 21 1 to 21 3 detect various characteristics indicating the water treatment environment of the water treatment device 10. For example, sensors 21 1 detects the incoming water characteristic is a characteristic of the flowing water into the first settling tank 11. Sensor group 21 2 detects the processing bath characteristics showing a state of the processing tank 12. Sensor group 21 3 detects the treated water characteristics is a characteristic of the treated water discharged from the final settling tank 13.
  • FIG. 3 is a diagram illustrating a configuration example of a plurality of sensor groups according to the first embodiment.
  • the sensor group 21 1 includes a flow sensor 22 1 which detects the inflow of influent, the BOD sensor 22 2 which detects the BOD of the inflow water, a water temperature sensor 22 for detecting the temperature of the incoming water including a 3, and NH 3 sensor 22 4 for detecting the concentration of NH 3 in the influent water.
  • the sensor group 21 1, NH 3 instead of or in addition to the sensor 22 4, may be configured to include a sensor for detecting the NH 4 + or ammonium nitrogen concentration of influent water.
  • Sensor group 21 2 the dissolved oxygen sensor 23 1 which detects the amount of dissolved oxygen in the treatment tank 12, the active microbe concentration sensor 23 2 which detects the active microbe concentration in the treatment tank 12, for detecting the BOD in the processing tank 12 and a BOD sensor 23 3.
  • the sensor group 21 2 further comprising ammonium nitrogen concentration, nitrate nitrogen concentration, total nitrogen concentration, phosphorus acid phosphate concentration, or a plurality of sensors each for detecting the total phosphorus concentration.
  • Sensor group 21 3 includes a flow sensor 24 1 which detects the outflow of treated water, a BOD sensor 24 2 which detects the BOD of the treated water, and a total nitrogen concentration sensor 24 3 which detects the total nitrogen concentration in the treated water Including.
  • the sensor groups 21 1 to 21 3 may include sensors whose detection targets are other than the detection target described above, or may have a configuration that does not include some of the plurality of sensors described above.
  • numerical data detected by each sensor in the sensor groups 21 1 to 21 3 is referred to as numerical data.
  • the image data and the numerical data are shown without being distinguished from each other, they may be described as detection data.
  • the processing device 30 acquires the image data output from the imaging device 20 and the numerical data output from the sensor group 21, and stores the obtained image data and numerical data in the storage device 61.
  • the processing device 30 causes the arithmetic device 40 to execute an arithmetic operation with input data selected from the image data output from the imaging device 20 and the numerical data output from the sensor group 21, and includes the arithmetic result of the arithmetic device 40. Get information.
  • the processing device 30 transmits information output from the arithmetic device 40 to the control device 50, and stores information output from the arithmetic device 40 in the storage device 61.
  • the processing device 30 can display the image data output from the imaging device 20 on the display device 62. For example, based on the image of the inside of the tank displayed on the display device 62, the operator can determine whether or not there is a precursor to the water treatment apparatus 10 that the inside of the tank will be in an undesirable state in the future.
  • the future means, for example, several hours ahead or one day or more ahead.
  • a state in which the inside of the tank is not desirable in the future includes, for example, a state where the removal of organic substances is insufficient, a state where the removal of nitrogen is insufficient, and a state where a filtration membrane (not shown) is easily clogged.
  • the signs that the inside of the tank will become an unfavorable state in the future are, for example, a state in which the number of microorganisms that inhibit water treatment is increasing, or a state in which the distribution of microorganisms performing water treatment is a specific distribution, etc. is there.
  • a precursor that the interior of the tank will become unfavorable in the future may be simply described as a precursor.
  • the operator determines that the image in the tank displayed on the display device 62 indicates the above-mentioned sign
  • the operator operates the input device 63 to change the image data at the timing at which the environmental change indicating the sign has occurred.
  • a calculation model included in the arithmetic device 40 can be generated or updated as learning data.
  • FIG. 4 is a diagram illustrating a configuration example of the processing apparatus according to the first embodiment.
  • the processing device 30 includes a communication unit 31, a storage unit 32, and a control unit 33.
  • the communication unit 31 is connected to a communication network 64.
  • the control unit 33 can transmit and receive data to and from each of the arithmetic device 40, the control device 50, the storage device 61, the display device 62, and the input device 63 via the communication unit 31 and the communication network 64.
  • the control unit 33 includes a data processing unit 34, a display processing unit 35, an operation requesting unit 36, a reception processing unit 37, and a switching unit 38.
  • the data processing unit 34 repeatedly acquires image data output from the imaging device 20 and numerical data output from the sensor group 21, and stores the acquired image data and numerical data in the storage device 61.
  • the data processing unit 34 stores the image data acquired from each imaging device 20 in the storage device 61 in association with the time. Further, the data processing unit 34 stores the numerical data acquired from each sensor in the storage device 61 in association with the time. In addition, the data processing unit 34 acquires information output from the arithmetic device 40, outputs the acquired information to the control device 50, and stores the acquired information in the storage device 61.
  • FIG. 5 is a diagram illustrating an example of a data table stored in the storage device according to the first embodiment.
  • the data table shown in FIG. 5 includes image data, numerical data, and control target values for each time.
  • image data IM1 (t0), IM1 (t1 ), ⁇ , IM1 (tm), ⁇ , IM1 (tn) is the image data of the image pickup device 20 1.
  • image data IM2 (t0), IM2 (t1 ), ⁇ , IM2 (tm), ⁇ , IM2 (tn) is the image data of the image pickup device 20 2.
  • the image data IM3 (t0), IM3 (t1 ), ⁇ , IM3 (tm), ⁇ , IM3 (tn) is the image data of the image pickup device 20 3.
  • m and n are natural numbers, and n> m. 5 shows only the numerical data NU1 (t0), NU1 (t1),..., NU1 (tm),..., NU1 (tn) of one sensor. Numerical data is also included in the data table.
  • the data table shown in FIG. 5 includes information on the control target value of each control target device output to the control device 50 by the processing device 30 at each time.
  • control target values RV1 (t0), RV1 (t1),..., RV1 (tm),..., RV1 (tn) are control target values of the blower 14.
  • the control target values RV2 (t0), RV2 (t1),..., RV2 (tm),..., RV2 (tn) are the control target values of the pump 15.
  • the display processing unit 35 displays the image data and the numerical data acquired by the data processing unit 34 on the display device 62. Further, the display processing unit 35 can acquire information input by an operation of the input device 63 by the operator from the storage device 61 and display the acquired information on the display device 62.
  • the operation request unit 36 outputs, to the operation device 40 via the communication network 64, data necessary for inputting a calculation model satisfying a selection condition described later, out of the image data and the numerical data acquired by the data processing unit 34.
  • the calculation requesting unit 36 when the calculation model satisfying the selection condition is an image calculation model, the calculation requesting unit 36 outputs the image data acquired by the data processing unit 34 to the calculation device 40. If the calculation model that satisfies the selection condition is the sensor calculation model, the calculation requesting unit 36 outputs the numerical data acquired by the data processing unit 34 to the calculation device 40.
  • the calculation request unit 36 when the calculation model satisfying the selection condition is the calculation model for image and the calculation model for sensor, the calculation request unit 36 outputs the image data and the numerical data acquired by the data processing unit 34 to the calculation device 40. Note that the operation requesting unit 36 can also acquire data necessary for inputting a calculation model satisfying the selection condition from the storage device 61 and output the acquired data to the operation device 40.
  • the operation request unit 36 outputs the detection data to the operation device 40, thereby causing the operation device 40 to execute an operation using the detected data as input data.
  • the data processing unit 34 obtains information indicating a calculation result output from the calculation device 40 and outputs the obtained information to the control device 50.
  • the information output from the arithmetic device 40 includes, for example, control information including a control target value of the device to be controlled, and the control device 50 controls the water treatment device based on the information output from the processing device 30.
  • the water treatment apparatus 10 is controlled by controlling a control target device provided in the apparatus 10.
  • the reception processing unit 37 receives selection of image data for generating and updating a plurality of calculation models of the arithmetic device 40 based on an operation performed on the input device 63 by the operator.
  • the calculation requesting unit 36 acquires the image data selected by the reception processing unit 37 from the storage device 61.
  • the calculation requesting unit 36 obtains, from the storage device 61, information on the control target value of each control target device associated with the time at which the selected image data was obtained.
  • the operation request unit 36 transmits learning data in which the selected image data and the control target data are associated with each other via the communication network 64 to the operation device 40.
  • the control target data associated with the selected image data is data including the control target value acquired from the storage device 61 and the type of the control target device.
  • the control target data includes the control target value RV1 ( tm) and RV2 (tm).
  • the reception processing unit 37 can also receive information on a period for selecting time-series image data stored in the storage device 61 based on an operation on the input device 63 by the operator. For example, the reception processing unit 37 can receive an operation on the input device 63 for selecting image data for the past year.
  • the operation requesting unit 36 acquires, from the storage device 61, the time-series image data output from the imaging device 20 during the period received by the reception processing unit 37.
  • the calculation request unit 36 acquires, from the storage device 61, data of a time-series control target value set for each control target device during the period received by the reception processing unit 37.
  • the calculation request unit 36 transmits learning data including the acquired time-series image data and time-series control target value data to the calculation device 40 via the communication network 64.
  • the operator may select the correct answer data.
  • incorrect answer data can be selected.
  • the operator can select, as the correct answer data, the image data captured by the imaging device 20 in the state where the above-mentioned precursor is occurring in the water treatment device 10. Further, the operator can select, for example, image data captured by the imaging device 20 at a timing when the above-mentioned precursor does not occur as incorrect data.
  • the switching unit 38 can operate in a manual switching mode in which selection conditions are changed based on an operation on the input device 63 by an operator. For example, the switching unit 38 changes the selection condition set in the storage unit 32 when the reception processing unit 37 receives the switching operation of the selection condition by the reception processing unit 37 in the state where the operation mode is the manual switching mode.
  • the switching unit 38 can also operate in an automatic switching mode in which selection conditions are automatically changed. For example, when the operation mode is the automatic switching mode and the selection condition is set to the calculation model for the sensor, the switching unit 38 determines whether the first switching condition is satisfied. When determining that the first switching condition is satisfied, the switching unit 38 changes the selection condition set in the storage unit 32 from the sensor calculation model to the image calculation model. Thereby, the calculation model used in the arithmetic unit 40 is changed to the calculation model for image.
  • the switching unit 38 determines that the numerical value indicated by the numerical data of one or more specific sensors included in the plurality of sensor groups 21 is outside the preset range continuously for a preset time or more. It can be determined that one switching condition is satisfied.
  • the first switching condition is not limited to the condition of the detection result of the sensor, and may be, for example, a time zone, a season, weather, or another condition.
  • the switching unit 38 determines whether or not the second switching condition is satisfied. When determining that the second switching condition is satisfied, the switching unit 38 changes the selection condition set in the storage unit 32 from the image calculation model to the sensor calculation model. Thereby, the calculation model used in the arithmetic device 40 is changed to the calculation model for the sensor.
  • the switching unit 38 determines that the numerical value indicated by the numerical data of one or more specific sensors included in the plurality of sensor groups 21 has been within a preset range continuously for a preset time or more. It can be determined that the second switching condition is satisfied.
  • the second switching condition is not limited to the condition of the detection result of the sensor, and may be, for example, a time zone, a season, weather, or another condition.
  • the operation mode of the switching unit 38 can be changed based on an operation by an operator. Further, the switching unit 38 can alternately change between the sensor calculation model and the image calculation model. For example, the switching unit 38 can set the calculation model for the sensor in the first period T1, and can set the calculation model for the image in the second period T2 that comes alternately with the first period T1. In this case, by making the second period T2 shorter than the first period T1, it is possible to perform water treatment control based on images while mainly performing water treatment control using numerical values.
  • FIG. 6 is a diagram illustrating a configuration example of the arithmetic device according to the first embodiment.
  • the arithmetic device 40 includes a communication unit 41, a storage unit 42, and a control unit 43.
  • the communication unit 41 is connected to the communication network 64.
  • the control unit 43 can transmit and receive data to and from each of the imaging device 20, the processing device 30, the control device 50, the storage device 61, and the input device 63 via the communication unit 41 and the communication network 64.
  • the storage unit 42 stores a plurality of calculation models.
  • the plurality of calculation models stored in the storage unit 42 include the image calculation model and the sensor calculation model described above.
  • the image calculation model is, for example, a convolutional neural network that inputs a plurality of image data output from a plurality of imaging devices 20 and outputs control target values of a plurality of control target devices.
  • a convolutional neural network By using a convolutional neural network, compared to the case of using a general neural network, learning of image data is performed efficiently by sharing weights, and a highly accurate result can be obtained.
  • the image calculation model may be a neural network other than the convolutional neural network.
  • Calculation model for sensor for example, a neural which a plurality of numerical data output from a plurality of sensors provided in the plurality of sensors 21 1 to 21 3 and input and output control target value of the plurality of control target devices Network.
  • the computation model for the sensor is a neural network suitable for calculation of numerical data, unlike a convolutional neural network which is a computation model for an image.
  • the calculation model for the sensor may be a calculation model generated by a learning algorithm such as linear regression or logistic regression. Note that the sensor calculation model may be a convolutional neural network because the degree of freedom of the device configuration is increased.
  • the control unit 43 includes an acquisition processing unit 44, an arithmetic processing unit 45, an output processing unit 46, and a learning processing unit 47.
  • the acquisition processing unit 44 acquires detection data from the processing device 30 via the communication network 64 and the communication unit 41.
  • the detection data from the processing device 30 is image data, numerical data, or image data and numerical data.
  • the arithmetic processing unit 45 reads a calculation model corresponding to the detection data acquired by the acquisition processing unit 44 from the storage unit 42, inputs the detection data to the read computation model, and performs an operation using the computation model, Get the output of the calculation model. For example, when the detection data acquired by the acquisition processing unit 44 is image data, the arithmetic processing unit 45 inputs the image data to the image calculation model, performs an operation using the image calculation model, and Get model output.
  • the arithmetic processing unit 45 inputs the numerical data to the calculation model for the sensor, performs an arithmetic operation using the calculation model for the sensor, and performs the calculation for the sensor. Get model output.
  • the arithmetic processing unit 45 uses both the image calculation model and the sensor calculation model. That is, the arithmetic processing unit 45 inputs the image data of the image data and the numerical data to the image calculation model, performs an operation using the image calculation model, and acquires information output from the image calculation model. Further, the arithmetic processing unit 45 inputs the numerical data of the image data and the numerical data to the calculation model for the sensor, performs the calculation using the calculation model for the sensor, and obtains information output from the calculation model for the sensor.
  • the output processing unit 46 outputs the information acquired by the calculation using the calculation model in the calculation processing unit 45 from the communication unit 41 to the processing device 30 as output information of the calculation device 40.
  • the information output from the calculation model is information on the control target values of the plurality of control target devices described above.
  • the output processing unit 46 When the detection data acquired by the acquisition processing unit 44 is image data and numerical data, the output processing unit 46 performs one of information output from the sensor calculation model and information output from the image calculation model. One of them can be selected and output from the communication unit 41 to the processing device 30.
  • the output processing unit 46 Is selected and output to the processing device 30.
  • the output processing unit 46 when the difference between the control target value output from the image calculation model and the control target value output from the sensor calculation model is less than a preset value, the sensor calculation model Is selected and output to the processing device 30.
  • the arithmetic processing unit 45 controls the control target value output from the sensor calculation model and the control target value output from the image calculation model. An average value can be calculated for each control target device.
  • the output processing unit 46 can output, as output information, control information including an average value of control target values for each control target device calculated by the calculation processing unit 45.
  • the image calculation model may include a recurrent neural network in addition to the convolutional neural network described above.
  • the arithmetic processing unit 45 inputs the time-series image data captured by the imaging device 20 to the recurrent neural network, and converts the data of the image predicted to be captured by the imaging device 20 after the time Ta to the recurrent neural network. To get from.
  • the time Ta is, for example, a time of 12 hours or more.
  • the arithmetic processing unit 45 inputs the data of the image predicted to be captured by the imaging device 20 after the time Ta to the convolutional neural network, and acquires information output from the convolutional neural network.
  • the image calculation model may be composed of only a recurrent neural network.
  • a recurrent neural network inputs, for example, time-series image data captured by the image capturing apparatus 20 and outputs score information indicating the degree of whether or not the environmental change indicating the above-mentioned sign has occurred.
  • Such a recurrent neural network is stored in the storage unit 42 for each type of precursor.
  • the storage unit 42 stores control information, which is information in which the type of the control target device and the control target value are associated with each other, for each type of precursor.
  • control information can be stored in the storage unit 42 by an operator operating the input device 63, for example.
  • the arithmetic processing unit 45 can input time-series image data captured by the imaging device 20 to the recurrent neural network for each type of precursor, and can acquire information on the score output from each recurrent neural network.
  • the arithmetic processing unit 45 acquires from the storage unit 42 control information including the type of the control target device and the control target value associated with the type of the precursor whose score is equal to or greater than the threshold. Further, when there are a plurality of types of precursors whose scores are equal to or greater than the threshold, the arithmetic processing unit 45 stores, from the storage unit 42, the control information including the type of the control target device and the control target value associated with the type of the precursor of the highest score. get.
  • the arithmetic processing unit 45 outputs the obtained control information including the type of the control target device and the control target value from the communication unit 41 to the processing device 30 as output information of the arithmetic device 40.
  • the learning processing unit 47 can generate and update the above-described image calculation model based on the learning data output from the processing device 30.
  • the learning processing unit 47 stores the generated or updated image calculation model in the storage unit 42.
  • the learning processing unit 47 optimizes the convolutional neural network based on the image data and the control target data included in the learning data, thereby performing the image calculation.
  • Models can be created and updated.
  • the learning processing unit 47 optimizes the recurrent neural network based on the learning data including the time-series image data. Can be created and updated.
  • the neural network in the arithmetic unit 40 is an artificial neural network.
  • the artificial neural network is a computational model in which a weighted sum of input signals is taken, and a perceptron that outputs a non-linear function called an activation function and is output is hierarchically arranged.
  • a perceptron takes a two-dimensional signal corresponding to an image as an input, calculates a weighted sum of the input, and passes it to the next layer.
  • a sigmoid function or a ReLU (Rectified ⁇ Linear ⁇ Unit) function is used.
  • the above-described perceptrons are hierarchically arranged, and each layer processes an input signal to calculate a discrimination result.
  • the output of the activation function is used as the task output as it is, and if the task type is a classification task, the softmax function is applied to the final layer. And output the task.
  • an artificial network is configured as a two-dimensional signal map.
  • Each of the two-dimensional signals can be regarded as corresponding to a perceptron, and a result obtained by calculating a weighted sum for the feature map of the previous layer and applying the activation function is output.
  • the above processing is called a convolution operation, and in addition, a pooling layer for performing pooling processing may be inserted in each layer.
  • This pooling layer performs downsampling by performing an average value operation or a maximum value operation on the feature map.
  • Error back propagation is a framework in which the output error of the artificial neural network is propagated from the final layer to the previous layer in order to update the weight.
  • the control device 50 can control the water treatment device 10 by controlling the blower 14, the pump 15, and the like.
  • the control device 50 can control the concentration of dissolved oxygen in the activated sludge mixture by controlling the blower 14 to adjust the amount of air sent into the activated sludge mixture.
  • the control device 50 controls the pump 15 to adjust the flow rate of the activated sludge returned from the final sedimentation tank 13 to the treatment tank 12.
  • FIG. 7 is a diagram illustrating a configuration example of the control device according to the first embodiment.
  • the control device 50 includes a communication unit 51, a storage unit 52, a control unit 53, and an input / output unit 54.
  • the communication unit 51 is connected to a communication network 64.
  • the control unit 53 can transmit and receive data to and from the processing device 30 via the communication unit 51 and the communication network 64.
  • the control unit 53 includes an input processing unit 55, a blower control unit 56, and a pump control unit 57.
  • the input processing unit 55 acquires control information output from the processing device 30 via the communication unit 51, and stores the acquired control information in the storage unit 52.
  • the control information stored in the storage unit 52 includes a control target value of the blower 14 and a control target value of the pump 15.
  • the blower control unit 56 reads the control target value of the blower 14 stored in the storage unit 52. Further, the blower control unit 56 obtains the numerical data indicating the amount of dissolved oxygen detected by the dissolved oxygen sensor 23 1 from the storage device 61 or the amount of dissolved oxygen sensor 23 1.
  • the blower control unit 56 generates a control signal by PI (Proportional Integral Differential) control or PID (Proportional Integral Differential) control based on the control target value of the blower 14 and the acquired dissolved oxygen amount.
  • the blower control unit 56 outputs the generated control signal from the input / output unit 54 to the blower 14.
  • the blower 14 adjusts the amount of air sent into the processing tank 12 based on a control signal output from the input / output unit 54 of the control device 50.
  • the pump control unit 57 reads the control target value of the pump 15 stored in the storage unit 52. In addition, the pump control unit 57 acquires numerical data indicating the flow rate of the activated sludge from the final sedimentation tank 13 to the treatment tank 12 from a sensor (not shown) via the input / output unit 54. The pump control unit 57 generates a control signal by PI control or PID control based on the control target value of the pump 15 and the acquired flow rate of the activated sludge. The pump control unit 57 outputs the generated control signal from the input / output unit 54 to the pump 15. The pump 15 adjusts the flow rate of the activated sludge from the final sedimentation tank 13 to the treatment tank 12 based on a control signal output from the input / output unit 54 of the control device 50.
  • FIG. 8 is a flowchart illustrating an example of processing of the processing device according to the first embodiment, which is repeatedly executed by the control unit 33 of the processing device 30.
  • the control unit 33 of the processing device 30 determines whether or not an operation for switching the selection condition has been received from the operator (step S10).
  • Step S10 Yes
  • the control unit 33 changes the selection condition stored in the storage unit 32 to the selection condition corresponding to the switching operation, thereby changing the selection condition. Switch (step S11).
  • step S11 When the process of step S11 is completed or when it is determined that the switching operation of the selection condition has not been received (step S10: No), the control unit 33 determines whether or not the selection of the image data has been received from the operator (step S10). Step S12). When determining that the selection of the image data has been received (Step S12: Yes), the control unit 33 outputs the learning data including the selected image data to the arithmetic device 40 (Step S13).
  • step S13 When the process of step S13 is completed, or when it is determined that the selection of the image data has not been received (step S12: No), the control unit 33 determines whether or not the detection data has been obtained (step S14). When determining that the detection data has been acquired (Step S14: Yes), the control unit 33 determines whether or not the operation mode is the automatic switching mode (Step S15).
  • step S15 When the control unit 33 determines that the operation mode is the automatic switching mode (step S15: Yes), the control unit 33 performs an automatic switching process (step S16).
  • step S16 when it is determined that the first switching condition is satisfied while the sensor calculation model is set as the selection condition, the control unit 33 sets the image calculation model as the selection condition.
  • the control unit 33 determines that the second switching condition is satisfied in a state where the image calculation model is set as the selection condition, the control unit 33 sets the sensor calculation model as the selection condition.
  • step S16 When the process of step S16 is completed, or when the control unit 33 determines that the operation mode is not the automatic switching mode (step S15: No), the control unit 33 acquires the detection data corresponding to the selection condition from the storage device 61 and acquires the detection data.
  • the detected data is output to the arithmetic device 40 (step S17).
  • the detection data corresponding to the selection condition is, for example, image data when the set selection condition is an image calculation model. Further, the detection data corresponding to the selection condition is numerical data when the set selection condition is a calculation model for a sensor.
  • control unit 33 acquires output information output from the arithmetic device 40 in response to step S17 (step S18), and outputs the acquired output information to the control device 50 (step S19).
  • Such output information includes control information as described above.
  • FIG. 9 is a flowchart illustrating an example of processing of the arithmetic device according to the first embodiment, which is repeatedly executed by the control unit 43 of the arithmetic device 40.
  • the control unit 43 of the arithmetic device 40 determines whether or not the detection data has been acquired from the processing device 30 (step S20).
  • the control unit 43 determines that the detection data has been obtained (Step S20: Yes)
  • the control unit 43 performs an arithmetic process using the calculation model using the obtained detection data as an input of the calculation model (Step S21).
  • the output information is transmitted to the processing device 30 (step S22).
  • step S22 determines whether or not learning data has been acquired from the processing device 30 (step S20). Step S23).
  • the control unit 43 executes a calculation model learning process using the learning data (step S24).
  • the control unit 43 ends the process illustrated in FIG. 9 when the process of step S24 ends or when it is determined that the learning data has not been acquired (step S23: No).
  • FIG. 10 is a flowchart illustrating an example of processing of the control device according to the first embodiment, which is repeatedly executed by the control unit 53 of the control device 50.
  • control unit 53 of the control device 50 determines whether control information has been acquired from the processing device 30 (step S30). When determining that the control information has been acquired (Step S30: Yes), the control unit 53 controls the control target device based on the acquired control information (Step S31). When the process of step S31 ends or when it is determined that the control information has not been acquired (step S30: No), the control unit 53 ends the process illustrated in FIG.
  • FIG. 11 is a diagram illustrating an example of a hardware configuration of the processing device according to the first embodiment.
  • the processing device 30 includes a computer including a processor 101, a memory 102, and an interface circuit 103.
  • the processor 101, the memory 102, and the interface circuit 103 can transmit and receive data to and from each other via the bus 104.
  • the communication unit 31 is realized by the interface circuit 103.
  • the storage unit 32 is realized by the memory 102.
  • the processor 101 executes the functions of the data processing unit 34, the display processing unit 35, the calculation requesting unit 36, the reception processing unit 37, and the switching unit 38 by reading and executing the program stored in the memory 102.
  • the processor 101 is an example of a processing circuit, and includes at least one of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).
  • the memory 102 includes one or more of a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, and an EPROM (Erasable Programmable Read Only Memory).
  • the memory 102 includes a recording medium in which the above-mentioned program that can be read by a computer is recorded.
  • a recording medium includes at least one of a nonvolatile or volatile semiconductor memory, a magnetic disk, a flexible memory, an optical disk, a compact disk, and a DVD.
  • control unit 33 of the processing device 30 When the control unit 33 of the processing device 30 is realized by dedicated hardware, the control unit 33 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, and an ASIC (Application Specific Integrated Integrated). Circuit), FPGA (Field Programmable Gate Array), or a combination thereof.
  • ASIC Application Specific Integrated Integrated
  • FPGA Field Programmable Gate Array
  • the arithmetic unit 40 has the same hardware configuration as the hardware configuration shown in FIG.
  • the communication unit 41 is realized by the interface circuit 103.
  • the storage unit 42 is realized by the memory 102.
  • the processor 101 reads out and executes the program stored in the memory 102 to execute the functions of the acquisition processing unit 44, the arithmetic processing unit 45, the output processing unit 46, and the learning processing unit 47.
  • the control unit 43 is realized by dedicated hardware, it is a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • the control device 50 also has the same hardware configuration as the hardware configuration illustrated in FIG.
  • the communication unit 51 and the input / output unit 54 are realized by the interface circuit 103.
  • the storage unit 52 is realized by the memory 102.
  • the processor 101 executes the functions of the input processing unit 55, the blower control unit 56, and the pump control unit 57 by reading and executing the program stored in the memory 102.
  • the control unit 53 is realized by dedicated hardware, it is a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • the information output from the arithmetic device 40 is output from the processing device 30 to the control device 50, but the information output from the arithmetic device 40 is directly input to the control device 50 without passing through the processing device 30. It may be a configuration to make it.
  • the precursor score of the water treatment apparatus 10 is a score indicating a degree indicating whether or not there is a precursor to an undesired state in the tank in the future.
  • Information can be output to the processing device 30 for each type of precursor.
  • the display processing unit 35 of the processing device 30 can display the acquired precursor score for each type of precursor on the display device 62.
  • calculation model using only image data as input data has been described as an example of the calculation model for image.
  • calculation model for image uses numerical data or other data in addition to image data as input data. Calculation model.
  • a convolutional neural network in which a plurality of image data is input and a plurality of control target values are output has been described as an example of the image calculation model, but the image calculation model is not limited to the above example.
  • a convolutional neural network can be provided for each control target value as an image calculation model.
  • a convolutional neural network can be provided for each imaging device 20 as an image calculation model.
  • a convolutional neural network can be provided for each imaging device 20 and each control target device as an image calculation model.
  • control information which is information in which the type of the control target device and the control target value are associated with each other, is stored for each type of precursor.
  • the arithmetic device 40 can generate or update a recurrent neural network by performing machine learning based on the time-series image data stored in the storage device 61 and the time-series control target values.
  • the recurrent neural network outputs a control target value from the time-series image data.
  • blower 14 and the pump 15 have been described as examples of the control target devices controlled using the arithmetic device 40.
  • the control target devices controlled using the calculation device 40 are Devices other than the pump 14 and the pump 15 may be included.
  • the water treatment plant 1 includes the water treatment device 10 that performs water treatment, the imaging device 20, the treatment device 30, the arithmetic device 40, and the control device 50.
  • the imaging device 20 images the water treatment environment of the water treatment device 10 and outputs image data obtained by the imaging.
  • the processing device 30 causes the arithmetic device 40 that performs an operation using one or more calculation models generated by machine learning to execute the operation using the image data output from the imaging device 20 as input data of the one or more calculation models.
  • the control device 50 controls the water treatment device 10 based on output information output from the arithmetic device 40 by performing the arithmetic.
  • the water treatment control performed by the operator of the water treatment plant 1 based on the past experience or knowledge based on the image of the water treatment environment of the water treatment device 10 is performed by the arithmetic device 40. It can be performed using: Therefore, more effective water treatment control can be performed for changes in the water treatment environment.
  • the one or more calculation models include a convolutional neural network using image data as input data.
  • the processing device 30 causes the arithmetic device 40 to execute an operation using the convolutional neural network.
  • the convolutional neural network is an example of an image calculation model. As described above, by preparing a convolutional neural network using image data as input data and causing the arithmetic unit 40 to perform an arithmetic operation using the convolutional neural network on image data output from the imaging device 20, the water treatment device 10 can be accurately controlled.
  • the water treatment plant 1 also includes a sensor that detects a characteristic indicating the water treatment environment of the water treatment device 10 and outputs numerical data of the detected characteristic.
  • the arithmetic unit 40 includes a sensor neural network that uses numerical data output from the sensor as input data.
  • the sensor neural network is an example of the sensor calculation model described above.
  • the processing device 30 causes the arithmetic device 40 to execute an arithmetic operation using the sensor neural network.
  • the sensor 2 detects the characteristic indicating the water treatment environment of the water treatment apparatus 10, outputs the numerical data of the detected characteristic from the sensor 2, and uses the numerical data output from the sensor 2 as input data.
  • the water treatment device 10 can be controlled using the detection result by the sensor. it can.
  • the processing device 30 includes a switching unit 38 that switches between the use of the convolutional neural network and the use of the sensor neural network to cause the arithmetic device 40 to execute the arithmetic.
  • a switching unit 38 that switches between the use of the convolutional neural network and the use of the sensor neural network to cause the arithmetic device 40 to execute the arithmetic.
  • the processing device 30 further includes a reception processing unit 37 that receives selection of one or more image data from a plurality of image data captured by the imaging device 20.
  • the arithmetic device 40 executes machine learning of one or more calculation models based on the one or more image data received by the reception processing unit 37. Thereby, for example, the calculation model of the arithmetic device 40 can be updated, and the water treatment device 10 can be accurately controlled.
  • the control device 50 controls the control target device provided in the water treatment device 10 by proportional integral control or proportional integral derivative control. Thereby, the water treatment device 10 can be accurately controlled.
  • the water treatment device 10 includes a control target device to be controlled by the control device 50.
  • the processing device 30 causes the arithmetic device 40 to execute the arithmetic to generate the control target values RV1 and RV2 of the controlled device.
  • the control device 50 controls the water treatment device 10 using the control target values RV1 and RV2 generated by the treatment device 30 as output information. Thereby, the control target equipment provided in the water treatment apparatus 10 can be controlled with high accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Water Supply & Treatment (AREA)
  • Business, Economics & Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Organic Chemistry (AREA)
  • Artificial Intelligence (AREA)
  • Hydrology & Water Resources (AREA)
  • Environmental & Geological Engineering (AREA)
  • Molecular Biology (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • General Business, Economics & Management (AREA)
  • Microbiology (AREA)
  • Tourism & Hospitality (AREA)
  • Public Health (AREA)

Abstract

水処理装置(10)を用いて水処理を行う水処理プラント(1)は、撮像装置(20)と、処理装置(30)と、制御装置(50)とを備える。撮像装置(20)は、水処理装置(10)の水処理環境を撮像し、撮像して得られる画像データを出力する。処理装置(30)は、機械学習によって生成される1以上の計算モデルを用いた演算を行う演算装置(40)に、撮像装置(30)から出力される画像データを1以上の計算モデルの入力データとして演算を実行させる。制御装置(50)は、演算の実行によって演算装置(40)から出力される出力情報に基づいて、水処理装置(10)を制御する。

Description

水処理プラントおよび水処理プラントの運転方法
 本発明は、上水または下水などの水処理を行う水処理プラントおよび水処理プラントの運転方法に関する。
 水処理プラントでは、環境変化に応じて制御目標値を変更しつつ、水処理制御が行われている。例えば、季節の温度差、流入水の流量、流入水の水質などの水処理環境の変化に伴い制御目標値が変更されることで、水処理プラントにおいて水処理環境の変化に応じた水処理制御が行われている。
 制御目標値の変更は、オペレータが過去の経験などに基づいて行っており、専門性が要求される。特許文献1では、環境変化に応じた制御目標値の変更に対してオペレータの経験を反映できるように、下水処理装置の制御にAI(Artificial Intelligent)装置を用いる技術が提案されている。かかる技術では、下水処理装置への流入水の流量、温度、BOD(Biochemical Oxygen Demand:生物化学的酸素要求量)、およびNH などを検出する複数のセンサの検出値がAI装置に入力され、かかるAI装置の出力に基づいて下水処理装置が制御される。
特開2004-25160号公報
 上述したような従来の水処理プラントでは、流入水における流量、温度、BOD、およびNH といった数値を指標としてAI装置を用いた水処理制御が行われている。しかしながら上述したような従来の水処理プラントには、改善の余地が有る。例えば、上述したような従来の水処理プラントでは、センサで検出される数値には表れないような水処理装置の水処理環境の変化に対しては、効果的な水処理制御を行うことができない虞がある。
 本発明は、上記に鑑みてなされたものであって、水処理環境の変化に対してより効果的な水処理制御を行うことができる水処理プラントを得ることを目的とする。
 本発明にかかる水処理プラントは、水処理装置を用いて水処理を行う水処理プラントであって、撮像装置と、処理装置と、制御装置とを備える。撮像装置は、水処理装置の水処理環境を撮像し、撮像して得られる画像データを出力する。処理装置は、機械学習によって生成される1以上の計算モデルを用いた演算を行う演算装置に、撮像装置から出力される画像データを1以上の計算モデルの入力データとして演算を実行させる。制御装置は、演算の実行によって演算装置から出力される情報に基づいて、水処理装置を制御する。
 本発明によれば、水処理環境の変化に対してより効果的な水処理制御を行い得る水処理プラントを提供することができる、という効果を奏する。
実施の形態1にかかる水処理プラントの概略を示す図 実施の形態1にかかる水処理プラントの構成例を示す図 実施の形態1にかかる複数のセンサ群の構成例を示す図 実施の形態1にかかる処理装置の構成例を示す図 実施の形態1にかかる記憶装置に記憶されるデータテーブルの一例を示す図 実施の形態1にかかる演算装置の構成例を示す図 実施の形態1にかかる制御装置の構成例を示す図 実施の形態1にかかる処理装置の処理の一例を示すフローチャート 実施の形態1にかかる演算装置の処理の一例を示すフローチャート 実施の形態1にかかる制御装置の処理の一例を示すフローチャート 実施の形態1にかかる処理装置のハードウェア構成の一例を示す図
 以下に、本発明の実施の形態にかかる水処理プラントおよび水処理プラントの運転方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、実施の形態1にかかる水処理プラントの概略を示す図である。図1に示すように、実施の形態1にかかる水処理プラント1は、水処理装置10と、撮像装置20と、処理装置30と、演算装置40と、制御装置50とを備える。演算装置40は、AI装置の一例である。
 水処理装置10は、例えば、上水または下水などの水処理を行う装置であり、水処理状態を制御するポンプまたはブロワなどの制御対象機器を備える。水処理装置10の一例としては、ポンプまたはブロワなどの制御対象機器を備える実施の形態1にかかる装置だけでなく、水処理プラントの沈砂池、最初沈殿池、汚泥減容装置などを用いてもよい。
 制御装置50は、水処理装置10を制御する。撮像装置20は、水処理装置10の水処理環境を撮像し、撮像して得られる水処理環境の画像データを出力する。水処理装置10の水処理環境は、水処理装置10の内部にある水処理環境および水処理装置10の外部にある水処理環境の少なくとも一つを含む。処理装置30は、撮像装置20から画像データを取得する。
 処理装置30は、取得した画像データを入力データとする演算を演算装置40に実行させ、演算装置40の演算結果を演算装置40から取得する。演算装置40は、機械学習によって生成される計算モデルを有している。かかる計算モデルは、例えば、撮像装置20の画像データを入力し、制御対象機器の制御目標値の情報を出力する。制御目標値は、例えば、水処理装置10の水処理状態を制御するポンプまたはブロワなどの制御対象機器の制御量の目標値である。
 演算装置40は、処理装置30から取得した画像データを入力データとする上述の計算モデルを用いた演算を行い、演算装置40の演算結果を含む情報を処理装置30へ出力する。処理装置30は、演算装置40から取得した情報を制御装置50へ出力する。制御装置50は、処理装置30から出力された情報に基づいて、水処理装置10を制御する。例えば、制御装置50は、演算装置40から出力される情報が制御対象機器の制御目標値の情報である場合、制御目標値を含む制御情報を水処理装置10の制御対象機器へ出力することで、水処理装置10を制御することができる。演算装置40は、例えば、人工知能等と呼ばれるAIであり、入力された画像データに基づく機械学習を介し、制御対象機器の好ましい制御目標値の推測に貢献する。
 このように、水処理プラント1では、水処理装置10の水処理環境の画像を新たな指標として演算装置40を用いて水処理制御を行うことができる。そのため、水処理プラント1では、例えば、水処理装置10の水処理環境の画像に基づいて水処理プラント1のオペレータが過去の経験または知識に基づいて行っていた水処理制御を、演算装置40を用いて行うことができ、効果的な水処理制御を行うことができる。
 上記の実施の形態1では、処理装置30を介して撮像装置20の画像データを演算装置40へ出力し、演算装置40の演算結果を処理装置30に出力して制御装置50に対する制御を行う一例について説明した。しかしながら、本発明はこの一例に限定されない。例えば、処理装置30の機能を演算装置40および制御装置50の少なくとも一つに組み込んで処理装置30を省略するように変形してもよい。この変形例では、例えば、演算装置40および制御装置50の少なくとも一つと別体の処理装置30が省略可能となるため、装置構成の自由度が高まる効果が得られる。
 以下、実施の形態1にかかる水処理プラント1について詳細に説明する。図2は、実施の形態1にかかる水処理プラントの構成例を示す図である。なお、以下においては、水処理装置10が行う水処理の一例として、下水処理について説明する。
 図2に示すように、実施の形態1にかかる水処理プラント1は、上述した水処理装置10と、撮像装置20~20と、センサ群21~21と、処理装置30と、演算装置40と、制御装置50と、記憶装置61と、表示装置62と、入力装置63とを備える。なお、以下において、撮像装置20~20の各々を区別せずに示す場合、撮像装置20と記載し、センサ群21~21の各々を区別せずに示す場合、センサ群21と記載する場合がある。
 処理装置30、演算装置40、制御装置50、記憶装置61、表示装置62、および入力装置63は、互いに通信ネットワーク64を介して通信可能に接続される。通信ネットワーク64は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、バス、または専用線である。
 図2に示す水処理装置10は、下水を処理する下水処理装置である。かかる水処理装置10は、下水道などからの流入水である下水を貯留し、下水中の比較的沈みやすい固形物などを沈殿させる最初沈殿槽11と、最初沈殿槽11の上澄み水を好気処理する処理槽12と、処理槽12から流入する活性汚泥混合液を上澄み水と活性汚泥とに分離する最終沈殿槽13とを備える。最終沈殿槽13の上澄み水は処理水として最終沈殿槽13から放出される。
 処理槽12において、最初沈殿槽11から流入する上澄み水は、有機物を含んでおり、例えば、りん蓄積菌、硝化菌、および脱窒菌といった好気性微生物の消化によって上澄み水に含まれる有機物が処理される。
 水処理装置10は、さらに、処理槽12に空気を送り込んで活性汚泥混合液中に空気を溶解させるブロワ14と、最終沈殿槽13と処理槽12とを接続する配管に設けられ、最終沈殿槽13から処理槽12に活性汚泥を返送するポンプ15とを備える。ブロワ14およびポンプ15の各々は、上述した制御対象機器の一例であり、以下、ブロワ14とポンプ15とを互いに区別せずに示す場合、制御対象機器と記載する場合がある。
 複数の撮像装置20,20,20は、水処理装置10の水処理環境であって互いに異なる被撮像対象となる水処理環境を撮像する。撮像装置20は、最初沈殿槽11内の被撮像対象となる水処理環境を撮像する。最初沈殿槽11内の被撮像対象は、例えば、最初沈殿槽11の水の状態、泡の状態、または沈殿物の状態などである。
 撮像装置20は、処理槽12内の被撮像対象となる水処理環境を撮像する。処理槽12内の被撮像対象は、例えば、処理槽12の活性汚泥の状態、または水の状態などである。活性汚泥の状態は、例えば、活性汚泥の量または分布などを含む。なお、活性汚泥の状態は、例えば、各微生物の量であってもよい。
 撮像装置20は、最終沈殿槽13内の被撮像対象となる水処理環境を撮像する。最終沈殿槽13内の被撮像対象は、例えば、最終沈殿槽13の上澄み水の状態、または沈殿物の状態などである。なお、以下において、最初沈殿槽11、処理槽12、および最終沈殿槽13の各々を区別せずに示す場合、槽と記載する場合がある。撮像装置20が撮像する被撮像対象は、上述した例に限定されず、撮像装置20は、槽の内壁の状態、または槽の周囲の状態などを被撮像対象として撮像することもできる。なお、図2に示す撮像装置20,20,20は、水処理装置10の水処理環境として、水処理装置10内の状態または環境を撮像するが、図2に示す水処理装置10の外部の状態または環境を撮像する撮像装置を設けてよい。
 撮像装置20は、例えば、デジタルカメラ、またはデジタルマイクロスコープなどである。撮像装置20は、例えば、顕微鏡用のデジタルカメラであってもよい。この場合、撮像装置20は、槽内の水などを水処理プラント1のオペレータが顕微鏡に載置したときに、顕微鏡の画像を撮像することができる。なお、撮像装置20の数は、3つに限定されず、2つ以下であってもよく、4つ以上であってもよい。以下、水処理プラント1のオペレータを単にオペレータと記載する。
 複数のセンサ群21~21は、水処理装置10の水処理環境を示す各種の特性を検出する。例えば、センサ群21は、最初沈殿槽11への流入水の特性である流入水特性を検出する。センサ群21は、処理槽12の状態を示す処理槽内特性を検出する。センサ群21は、最終沈殿槽13から放出される処理水の特性である処理水特性を検出する。
 図3は、実施の形態1にかかる複数のセンサ群の構成例を示す図である。図3に示すように、センサ群21は、流入水の流入量を検出する流量センサ22と、流入水のBODを検出するBODセンサ22と、流入水の温度を検出する水温センサ22と、流入水のNHの濃度を検出するNHセンサ22とを含む。なお、センサ群21は、NHセンサ22に代えてまたは加えて、流入水のNH またはアンモニア性窒素濃度を検出するセンサを含む構成であってもよい。
 センサ群21は、処理槽12における溶存酸素量を検出する溶存酸素量センサ23と、処理槽12における活性微生物濃度を検出する活性微生物濃度センサ23と、処理槽12におけるBODを検出するBODセンサ23とを含む。また、センサ群21は、さらに、アンモニア性窒素濃度、硝酸性窒素濃度、全窒素濃度、リン酸性リン濃度、または全リン濃度を各々検出する複数のセンサを含む。
 センサ群21は、処理水の流出量を検出する流量センサ24と、処理水のBODを検出するBODセンサ24と、処理水の全窒素濃度を検出する全窒素濃度センサ24とを含む。
 なお、センサ群21~21は、上述した被検出対象以外を被検出対象とするセンサを含んでもよく、また、上述した複数のセンサのうち一部を含まない構成であってもよい。以下、センサ群21~21における各センサが検出した数値のデータを数値データと記載する。また、画像データと数値データとを各々区別せずに示す場合、検出データと記載する場合がある。
 処理装置30は、撮像装置20から出力される画像データおよびセンサ群21から出力される数値データを取得し、取得した画像データおよび数値データを記憶装置61に記憶する。処理装置30は、撮像装置20から出力される画像データおよびセンサ群21から出力される数値データのうち選択したデータを入力データとして演算を演算装置40に実行させ、演算装置40の演算結果を含む情報を取得する。処理装置30は、演算装置40から出力される情報を制御装置50へ送信し、また、演算装置40から出力される情報を記憶装置61に記憶する。
 また、処理装置30は、撮像装置20から出力される画像データを表示装置62に表示することができる。オペレータは、例えば、表示装置62に表示された槽内の画像に基づいて、水処理装置10において槽内が将来的に好ましくない状態になる前兆が現われているか否かを判断することができる。なお、ここでの将来的とは、例えば、数時間先、または1日以上先を示す。
 また、槽内が将来的に好ましくない状態とは、例えば、有機物の除去が不十分になる状態、窒素の除去が不十分になる状態、不図示の濾過膜が詰まりやすくなる状態などである。また、槽内が将来的に好ましくない状態になる前兆は、例えば、水処理を阻害する微生物が増加している状態、または水処理を行う微生物の分布が特定の分布になっている状態などである。実施の形態1にかかる水処理プラント1では、上記のような将来的に好ましくない状態になる前兆を撮像装置20による画像データに基づいて判断し得るようになる。そのため、数値データのみによる前兆判断と比較し、前兆判断の根拠に対する多様化、高精度化に貢献し得る。以下、槽内が将来的に好ましくない状態になる前兆を単に前兆と記載する場合がある。
 オペレータは、表示装置62に表示された槽内の画像が上述した前兆を示していると判断した場合、入力装置63を操作することで、前兆を示す環境変化が生じているタイミングの画像データを学習用データとして演算装置40に含まれる計算モデルを生成したり更新したりすることができる。
 図4は、実施の形態1にかかる処理装置の構成例を示す図である。図4に示すように、処理装置30は、通信部31と、記憶部32と、制御部33とを備える。通信部31は、通信ネットワーク64に接続される。制御部33は、通信部31および通信ネットワーク64を介し、演算装置40、制御装置50、記憶装置61、表示装置62、および入力装置63の各々との間でデータの送受信を行うことができる。
 制御部33は、データ処理部34と、表示処理部35と、演算要求部36と、受付処理部37と、切替部38とを備える。データ処理部34は、撮像装置20から出力される画像データおよびセンサ群21から出力される数値データを繰り返し取得し、取得した画像データおよび数値データを記憶装置61に記憶する。
 データ処理部34は、各撮像装置20から取得した画像データを時刻と関連付けて記憶装置61に記憶する。また、データ処理部34は、各センサから取得した数値データを時刻と関連付けて記憶装置61に記憶する。また、データ処理部34は、演算装置40から出力される情報を取得し、取得した情報を制御装置50に出力し、また、取得した情報を記憶装置61に記憶する。
 図5は、実施の形態1にかかる記憶装置に記憶されるデータテーブルの一例を示す図である。図5に示すデータテーブルには、時刻毎の画像データ、数値データ、および制御目標値が含まれる。図5において、画像データIM1(t0),IM1(t1),・・・,IM1(tm),・・・,IM1(tn)は、撮像装置20の画像データである。また、画像データIM2(t0),IM2(t1),・・・,IM2(tm),・・・,IM2(tn)は、撮像装置20の画像データである。
 また、画像データIM3(t0),IM3(t1),・・・,IM3(tm),・・・,IM3(tn)は、撮像装置20の画像データである。なお、mおよびnは、自然数であり、n>mである。また、図5において、一つのセンサの数値データNU1(t0),NU1(t1),・・・,NU1(tm),・・・,NU1(tn)のみを示しているが、残りのセンサの数値データもデータテーブルに含まれる。
 また、図5に示すデータテーブルには、各時刻において処理装置30により制御装置50に出力された各制御対象機器の制御目標値の情報が含まれる。図5において、制御目標値RV1(t0),RV1(t1),・・・,RV1(tm),・・・,RV1(tn)は、ブロワ14の制御目標値である。また、制御目標値RV2(t0),RV2(t1),・・・,RV2(tm),・・・,RV2(tn)は、ポンプ15の制御目標値である。
 図4に戻って制御部33の説明を続ける。表示処理部35は、データ処理部34で取得された画像データおよび数値データを表示装置62に表示する。また、表示処理部35は、オペレータの入力装置63への操作によって入力された情報を記憶装置61から取得して、取得した情報を表示装置62に表示することができる。
 演算要求部36は、データ処理部34で取得された画像データおよび数値データのうち、後述する選択条件を満たす計算モデルの入力に必要なデータを、通信ネットワーク64経由で演算装置40へ出力する。
 例えば、演算要求部36は、選択条件を満たす計算モデルが画像用計算モデルである場合、データ処理部34で取得された画像データを演算装置40へ出力する。また、演算要求部36は、選択条件を満たす計算モデルがセンサ用計算モデルである場合、データ処理部34で取得された数値データを演算装置40へ出力する。
 また、演算要求部36は、選択条件を満たす計算モデルが画像用計算モデルおよびセンサ用計算モデルである場合、データ処理部34で取得された画像データおよび数値データを演算装置40へ出力する。なお、演算要求部36は、選択条件を満たす計算モデルの入力に必要なデータを記憶装置61から取得し、取得したデータを演算装置40へ出力することもできる。
 演算要求部36は、検出データを演算装置40へ出力することで、検出データを入力データとする演算を演算装置40に実行させる。データ処理部34は、演算装置40から出力される演算結果を示す情報を取得し、取得した情報を制御装置50へ出力する。演算装置40から出力される情報には、例えば、制御対象機器の制御目標値を含む制御情報が含まれており、制御装置50は、処理装置30から出力される情報に基づいて、水処理装置10に設けられた制御対象機器を制御することで、水処理装置10を制御する。
 受付処理部37は、オペレータによる入力装置63への操作に基づいて、演算装置40が有する複数の計算モデルを生成および更新するための画像データの選択を受け付ける。演算要求部36は、受付処理部37によって選択が受け付けられた画像データを記憶装置61から取得する。また、演算要求部36は、選択された画像データが取得された時刻に関連付けられた各制御対象機器の制御目標値の情報を記憶装置61から取得する。
 演算要求部36は、選択された画像データと制御対象データとを関連付けた学習データを演算装置40へ通信ネットワーク64経由で送信する。学習データにおいて、選択された画像データと関連付けられる制御対象データは、記憶装置61から取得された制御目標値と制御対象機器の種別を含むデータである。例えば、選択された画像データが図5に示す時刻tmの画像データIM1(tm),IM2(tm),IM3(tm)である場合、制御対象データには、図5に示す制御目標値RV1(tm),RV2(tm)が含まれる。
 受付処理部37は、オペレータによる入力装置63への操作に基づいて、記憶装置61に記憶された時系列の画像データを選択するための期間の情報を受け付けることもできる。例えば、受付処理部37は、過去1年間の画像データを選択するための入力装置63への操作を受け付けることができる。
 演算要求部36は、受付処理部37によって受け付けられた期間に撮像装置20から出力された時系列の画像データを記憶装置61から取得する。また、演算要求部36は、受付処理部37によって受け付けられた期間において各制御対象機器に設定された時系列の制御目標値のデータを、記憶装置61から取得する。演算要求部36は、取得した時系列の画像データと時系列の制御目標値のデータとを含む学習用データを演算装置40へ通信ネットワーク64経由で送信する。
 また、後述するように、画像用計算モデルが、例えば、上述した前兆を示す環境変化が生じているか否かの程度を示すスコアの情報を出力するリカレントニューラルネットワークである場合、オペレータは、正解データと不正解データを選択することができる。例えば、オペレータは、水処理装置10において上述した前兆が生じている状態で撮像装置20によって撮像された画像データを正解データとして選択することができる。また、オペレータは、例えば、上述した前兆が生じていないタイミングで撮像装置20によって撮像された画像データを不正解データとして選択することができる。
 切替部38は、オペレータによる入力装置63への操作に基づき選択条件を変更する手動切替モードで動作することができる。例えば、切替部38は、動作モードが手動切替モードである状態で、受付処理部37によってオペレータによる選択条件の切替操作が受け付けられた場合、記憶部32に設定される選択条件を変更する。
 また、切替部38は、自動的に選択条件を変更する自動切替モードで動作することもできる。例えば、切替部38は、動作モードが自動切替モードであり、かつ選択条件がセンサ用計算モデルに設定されている場合、第1切替条件を満たすか否かを判定する。切替部38は、第1切替条件を満たすと判定した場合、記憶部32に設定される選択条件をセンサ用計算モデルから画像用計算モデルに変更する。これにより、演算装置40で用いられる計算モデルが画像用計算モデルに変更される。
 例えば、切替部38は、複数のセンサ群21に含まれる特定の1以上のセンサの数値データで示される数値が予め設定された時間以上継続して予め設定された範囲外である場合に、第1切替条件を満たすと判定することができる。第1切替条件は、センサの検出結果の条件に限定されず、例えば、時間帯、季節、天候、またはそれ以外の条件であってもよい。
 また、切替部38は、動作モードが自動切替モードであり、かつ画像用計算モデルが選択条件に設定されている場合、第2切替条件を満たすか否かを判定する。切替部38は、第2切替条件を満たすと判定した場合、記憶部32に設定される選択条件を画像用計算モデルからセンサ用計算モデルに変更する。これにより、演算装置40で用いられる計算モデルがセンサ用計算モデルに変更される。
 例えば、切替部38は、複数のセンサ群21に含まれる特定の1以上のセンサの数値データで示される数値が予め設定された時間以上継続して予め設定された範囲内になった場合に、第2切替条件を満たすと判定することができる。第2切替条件は、センサの検出結果の条件に限定されず、例えば、時間帯、季節、天候、またはそれ以外の条件であってもよい。
 なお、切替部38の動作モードは、オペレータによる操作に基づき変更することができる。また、切替部38は、センサ用計算モデルと画像用計算モデルとを交互に変更することもできる。例えば、切替部38は、第1期間T1は、センサ用計算モデルを設定し、第1期間T1と交互に到来する第2期間T2は、画像用計算モデルを設定することができる。なお、この場合、第2期間T2は、第1期間T1よりも短くすることで、数値による水処理制御を主として行いつつ、画像による水処理制御を行うことができる。
 次に、演算装置40について説明する。図6は、実施の形態1にかかる演算装置の構成例を示す図である。図6に示すように、演算装置40は、通信部41と、記憶部42と、制御部43とを備える。
 通信部41は、通信ネットワーク64に接続される。制御部43は、通信部41および通信ネットワーク64を介し、撮像装置20、処理装置30、制御装置50、記憶装置61、および入力装置63の各々との間でデータの送受信を行うことができる。
 記憶部42には、複数の計算モデルが記憶される。記憶部42に記憶される複数の計算モデルは、上述した画像用計算モデルとセンサ用計算モデルとを含む。
 画像用計算モデルは、例えば、複数の撮像装置20から出力される複数の画像データを入力とし、複数の制御対象機器の制御目標値を出力とする畳み込みニューラルネットワークである。畳み込みニューラルネットワークを用いることにより、一般的なニューラルネットワークを用いる場合と比較し、重みの共有によって画像データに対する学習が効率的に行われ、精度の高い結果取得が可能となる。なお、システム構築の多様性を考慮し、画像用計算モデルは、畳み込みニューラルネットワーク以外のニューラルネットワークであってもよい。
 センサ用計算モデルは、例えば、複数のセンサ群21~21に設けられた複数のセンサから出力される複数の数値データを入力とし、複数の制御対象機器の制御目標値を出力とするニューラルネットワークである。センサ用計算モデルは、画像用計算モデルである畳み込みニューラルネットワークとは異なり、数値データの演算に適したニューラルネットワークである。また、例えば、センサ用計算モデルは、線形回帰、ロジスティック回帰といった学習アルゴリズムで生成される計算モデルであってもよい。なお、センサ用計算モデルは、装置構成の自由度が高まるため、畳み込みニューラルネットワークであってもよい。
 制御部43は、取得処理部44と、演算処理部45と、出力処理部46と、学習処理部47とを備える。取得処理部44は、通信ネットワーク64および通信部41を介して処理装置30からの検出データを取得する。処理装置30からの検出データは、上述したように、画像データ、数値データ、または画像データおよび数値データである。
 演算処理部45は、取得処理部44で取得された検出データに対応する計算モデルを記憶部42から読み出し、読み出した計算モデルに検出データを入力して計算モデルを用いた演算を行うことで、計算モデルの出力を取得する。例えば、演算処理部45は、取得処理部44で取得された検出データが画像データである場合、画像用計算モデルに画像データを入力して画像用計算モデルを用いた演算を行い、画像用計算モデルの出力を取得する。
 また、演算処理部45は、取得処理部44で取得された検出データが数値データである場合、センサ用計算モデルに数値データを入力してセンサ用計算モデルを用いた演算を行い、センサ用計算モデルの出力を取得する。
 また、演算処理部45は、取得処理部44で取得された検出データが画像データおよび数値データである場合、画像用計算モデルとセンサ用計算モデルとを共に用いる。すなわち、演算処理部45は、画像データおよび数値データのうち画像データを画像用計算モデルに入力して画像用計算モデルを用いた演算を行い、画像用計算モデルから出力される情報を取得する。また、演算処理部45は、画像データおよび数値データのうち数値データをセンサ用計算モデルに入力してセンサ用計算モデルを用いた演算を行いセンサ用計算モデルから出力される情報を取得する。
 出力処理部46は、演算処理部45において計算モデルを用いた演算によって取得された情報を演算装置40の出力情報として処理装置30へ通信部41から出力する。計算モデルから出力される情報は、上述した複数の制御対象機器の制御目標値の情報である。
 なお、出力処理部46は、取得処理部44で取得された検出データが画像データおよび数値データである場合、センサ用計算モデルから出力される情報および画像用計算モデルから出力される情報のうち一つを選択して通信部41から処理装置30へ出力することができる。
 例えば、出力処理部46は、画像用計算モデルから出力される制御目標値とセンサ用計算モデルから出力される制御目標値との差が予め設定された値以上である場合に、画像用計算モデルから出力される制御目標値を選択して処理装置30へ出力する。また、出力処理部46は、画像用計算モデルから出力される制御目標値とセンサ用計算モデルから出力される制御目標値との差が予め設定された値未満である場合に、センサ用計算モデルから出力される制御目標値を選択して処理装置30へ出力する。
 また、演算処理部45は、取得処理部44で取得された検出データが画像データおよび数値データである場合、センサ用計算モデルから出力される制御目標値と画像用計算モデルから出力される制御目標値との平均値を制御対象機器毎に演算することができる。出力処理部46は、演算処理部45によって演算された制御対象機器毎の制御目標値の平均値を含む制御情報を出力情報として出力することができる。
 画像用計算モデルは、上述した畳み込みニューラルネットワークに加え、リカレントニューラルネットワークを含む構成であってもよい。この場合、演算処理部45は、リカレントニューラルネットワークに撮像装置20で撮像された時系列の画像データを入力し、時間Ta後に撮像装置20で撮像されると予測される画像のデータをリカレントニューラルネットワークから取得する。時間Taは、例えば、12時間以上の時間である。そして、演算処理部45は、時間Ta後に撮像装置20で撮像されると予測される画像のデータを畳み込みニューラルネットワークに入力し、畳み込みニューラルネットワークから出力される情報を取得する。
 また、画像用計算モデルは、リカレントニューラルネットワークのみで構成されていてもよい。かかるリカレントニューラルネットワークは、例えば、撮像装置20で撮像された時系列の画像データを入力し、上述した前兆を示す環境変化が生じているか否かの程度を示すスコアの情報を出力とする。かかるリカレントニューラルネットワークは、前兆の種別毎に記憶部42に記憶される。記憶部42には、制御対象機器の種別と制御目標値とが互いに関連付けられた情報である制御情報が前兆の種別毎に記憶されている。かかる制御情報は、例えば、オペレータが入力装置63を操作して記憶部42に記憶することができる。
 演算処理部45は、前兆の種別毎のリカレントニューラルネットワークに撮像装置20で撮像された時系列の画像データを入力し、各リカレントニューラルネットワークから出力されるスコアの情報を取得することができる。演算処理部45は、スコアが閾値以上である前兆の種別に関連付けられた制御対象機器の種別と制御目標値を含む制御情報を記憶部42から取得する。また、演算処理部45は、スコアが閾値以上である前兆が複数種類あるとき、最も高いスコアの前兆の種別に関連付けられた制御対象機器の種別と制御目標値を含む制御情報を記憶部42から取得する。演算処理部45は、取得した制御対象機器の種別と制御目標値を含む制御情報を演算装置40の出力情報として処理装置30へ通信部41から出力する。
 学習処理部47は、処理装置30から出力される学習用データに基づいて、上述した画像用計算モデルを生成および更新することができる。学習処理部47は、生成または更新した画像用計算モデルを記憶部42に記憶する。
 例えば、画像用計算モデルが畳み込みニューラルネットワークを含む場合、学習処理部47は、学習用データに含まれる画像データと制御対象データに基づいて、畳み込みニューラルネットワークの最適化を行うことで、画像用計算モデルを生成したり更新したりすることができる。
 また、画像用計算モデルがリカレントニューラルネットワークを含む場合、学習処理部47は、時系列の画像データを含む学習用データに基づいて、リカレントニューラルネットワークの最適化を行うことで、画像用計算モデルを生成したり更新したりすることができる。
 演算装置40におけるニューラルネットワークは、人工ニューラルネットワークである。人工ニューラルネットワークは、入力信号の重み付き和を取り、活性化関数と呼ばれる非線形関数を適用して出力とするパーセプトロンを階層的に配置した計算モデルである。パーセプトロンの出力outは、入力をX=(x1,x2,・・・,xn)、重みをW=(w1,w2,・・・,wn)、活性化関数をf(・)とし、かつ、*をベクトルの要素積として以下の式(1)により表すことができる。
 out=f(X*W)・・・(1)
 畳み込みニューラルネットワークにおいて、パーセプトロンは画像に対応する2次元信号を入力にとり、入力の重み付き和を計算して次の層に渡す。活性化関数には、シグモイド関数またはReLU(Rectified Linear Unit)関数が用いられる。
 人工ニューラルネットワークには、上述のパーセプトロンが階層的に配置されており、各層が入力信号を処理していくことで、識別結果が計算される。なお、最終層は、例えば、人工ニューラルネットワークにおけるタスクの種別が回帰タスクであれば活性化関数の出力をそのままタスクの出力とし、タスクの種別が分類タスクであれば最終層についてソフトマックス関数を適用し、タスクの出力とする。
 畳み込みニューラルネットワークの場合、2次元信号のマップとして人工ネットワークが構成される。2次元信号の各々がパーセプトロンに対応するとみなすことができ、前層の特徴マップに対し重み付き和を計算して活性化関数を適用した結果を出力する。
 畳み込みニューラルネットワークにおいて、上述の処理は畳み込み演算と呼ばれ、このほかにプーリング処理を行うプーリング層が各層に挿入される場合がある。このプーリング層は、特徴マップに対して平均値演算または最大値演算を行うことによりダウンサンプリングを行う。
 このような人工ニューラルネットワークの学習は、誤差逆伝播により行われるものであり、例えば、公知の確率的勾配降下法が用いられる。誤差逆伝播とは、人工ニューラルネットワークの出力誤差を最終層から順に前の層に向かって伝播させ、重みを更新させていく枠組みのことである。
 次に、図2に示す制御装置50について説明する。制御装置50は、ブロワ14およびポンプ15などを制御することで、水処理装置10を制御することができる。例えば、制御装置50は、ブロワ14を制御して活性汚泥混合液中に送り込む空気の量を調整することで、活性汚泥混合液中の溶在酸素濃度を制御することができる。また、制御装置50は、ポンプ15を制御することで、最終沈殿槽13から処理槽12に返送する活性汚泥の流量を調整する。
 図7は、実施の形態1にかかる制御装置の構成例を示す図である。図7に示すように、制御装置50は、通信部51と、記憶部52と、制御部53と、入出力部54とを備える。通信部51は、通信ネットワーク64に接続される。制御部53は、通信部51および通信ネットワーク64を介し、処理装置30との間でデータの送受信を行うことができる。
 制御部53は、入力処理部55と、ブロワ制御部56と、ポンプ制御部57とを備える。入力処理部55は、通信部51を介して、処理装置30から出力される制御情報を取得し、取得した制御情報を記憶部52に記憶する。記憶部52に記憶される制御情報は、ブロワ14の制御目標値と、ポンプ15の制御目標値とを含む。
 ブロワ制御部56は、記憶部52に記憶されているブロワ14の制御目標値を読み出す。また、ブロワ制御部56は、溶存酸素量センサ23で検出される溶存酸素量を示す数値データを記憶装置61または溶存酸素量センサ23から取得する。ブロワ制御部56は、ブロワ14の制御目標値と取得した溶存酸素量とに基づいて、PI(Proportional Integral)制御またはPID(Proportional Integral Differential)制御によって制御信号を生成する。ブロワ制御部56は、生成した制御信号を入出力部54からブロワ14へ出力する。ブロワ14は、制御装置50の入出力部54から出力される制御信号に基づいて、処理槽12へ送り込む空気の量を調整する。
 ポンプ制御部57は、記憶部52に記憶されているポンプ15の制御目標値を読み出す。また、ポンプ制御部57は、入出力部54を介して不図示のセンサから、最終沈殿槽13から処理槽12への活性汚泥の流量を示す数値データを取得する。ポンプ制御部57は、ポンプ15の制御目標値と取得した活性汚泥の流量とに基づいて、PI制御またはPID制御によって制御信号を生成する。ポンプ制御部57は、生成した制御信号を入出力部54からポンプ15へ出力する。ポンプ15は、制御装置50の入出力部54から出力される制御信号に基づいて、最終沈殿槽13から処理槽12への活性汚泥の流量を調整する。
 つづいて、水処理プラント1の動作を、フローチャートを用いて説明する。図8は、実施の形態1にかかる処理装置の処理の一例を示すフローチャートであり、処理装置30の制御部33によって繰り返し実行される。
 図8に示すように、処理装置30の制御部33は、オペレータから選択条件の切替操作を受け付けたか否かを判定する(ステップS10)。制御部33は、選択条件の切替操作を受け付けたと判定した場合(ステップS10:Yes)、記憶部32に記憶されている選択条件を切替操作に応じた選択条件に変更することで、選択条件を切り替える(ステップS11)。
 制御部33は、ステップS11の処理が終了した場合、または選択条件の切替操作を受け付けていないと判定した場合(ステップS10:No)、オペレータから画像データの選択を受け付けたか否かを判定する(ステップS12)。制御部33は、画像データの選択を受け付けたと判定した場合(ステップS12:Yes)、選択された画像データを含む学習用データを演算装置40へ出力する(ステップS13)。
 制御部33は、ステップS13の処理が終了した場合、または画像データの選択を受け付けていないと判定した場合(ステップS12:No)、検出データを取得したか否かを判定する(ステップS14)。制御部33は、検出データを取得したと判定した場合(ステップS14:Yes)、動作モードが自動切替モードであるか否かを判定する(ステップS15)。
 制御部33は、動作モードが自動切替モードであると判定した場合(ステップS15:Yes)、自動切替処理を行う(ステップS16)。ステップS16において、制御部33は、センサ用計算モデルが選択条件に設定されている状態で、第1切替条件を満たすと判定した場合、画像用計算モデルを選択条件に設定する。また、制御部33は、画像用計算モデルが選択条件に設定されている状態で、第2切替条件を満たすと判定した場合、センサ用計算モデルを選択条件に設定する。
 制御部33は、ステップS16の処理が終了した場合、または動作モードが自動切替モードではないと判定した場合(ステップS15:No)、選択条件に対応する検出データを記憶装置61から取得し、取得した検出データを演算装置40へ出力する(ステップS17)。ステップS17において、選択条件に対応する検出データは、例えば、設定されている選択条件が画像用計算モデルである場合、画像データである。また、選択条件に対応する検出データは、設定されている選択条件がセンサ用計算モデルである場合、数値データである。
 次に、制御部33は、ステップS17に応答して演算装置40から出力される出力情報を取得し(ステップS18)、取得した出力情報を制御装置50へ出力する(ステップS19)。かかる出力情報には、上述したように制御情報が含まれる。制御部33は、ステップS19の処理が終了した場合、または検出データを取得していないと判定した場合(ステップS14:No)、図8に示す処理を終了する。
 図9は、実施の形態1にかかる演算装置の処理の一例を示すフローチャートであり、演算装置40の制御部43によって繰り返し実行される。
 図9に示すように、演算装置40の制御部43は、処理装置30から検出データを取得したか否かを判定する(ステップS20)。制御部43は、検出データを取得したと判定した場合(ステップS20:Yes)、取得した検出データを計算モデルの入力として、計算モデルを用いた演算処理を実行し(ステップS21)、計算モデルの出力情報を処理装置30へ送信する(ステップS22)。
 制御部43は、ステップS22の処理が終了した場合、または検出データを取得していないと判定した場合(ステップS20:No)、学習用データを処理装置30から取得したか否かを判定する(ステップS23)。制御部43は、学習用データを処理装置30から取得したと判定した場合(ステップS23:Yes)、学習用データを用いて計算モデルの学習処理を実行する(ステップS24)。
 制御部43は、ステップS24の処理が終了した場合、または学習用データを取得していないと判定した場合(ステップS23:No)、図9に示す処理を終了する。
 図10は、実施の形態1にかかる制御装置の処理の一例を示すフローチャートであり、制御装置50の制御部53によって繰り返し実行される。
 図10に示すように、制御装置50の制御部53は、処理装置30から制御情報を取得したか否かを判定する(ステップS30)。制御部53は、制御情報を取得したと判定した場合(ステップS30:Yes)、取得した制御情報に基づいて制御対象機器を制御する(ステップS31)。制御部53は、ステップS31の処理が終了した場合、または制御情報を取得していないと判定した場合(ステップS30:No)、図10に示す処理を終了する。
 図11は、実施の形態1にかかる処理装置のハードウェア構成の一例を示す図である。図11に示すように、処理装置30は、プロセッサ101と、メモリ102と、インタフェイス回路103とを備えるコンピュータを含む。
 プロセッサ101、メモリ102およびインタフェイス回路103は、バス104によって互いにデータの送受信が可能である。通信部31は、インタフェイス回路103によって実現される。記憶部32は、メモリ102によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、データ処理部34、表示処理部35、演算要求部36、受付処理部37、および切替部38の機能を実行する。プロセッサ101は、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。
 メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびEPROM(Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能な上述のプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVDのうち一つ以上を含む。
 また、処理装置30の制御部33が専用のハードウェアで実現される場合、制御部33は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものである。
 また、演算装置40も図11に示すハードウェア構成と同様のハードウェア構成を有する。通信部41は、インタフェイス回路103によって実現される。記憶部42は、メモリ102によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得処理部44、演算処理部45、出力処理部46、および学習処理部47の機能を実行する。なお、制御部43が専用のハードウェアで実現される場合、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものである。
 また、制御装置50も図11に示すハードウェア構成と同様のハードウェア構成を有する。通信部51および入出力部54は、インタフェイス回路103によって実現される。記憶部52は、メモリ102によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、入力処理部55、ブロワ制御部56、およびポンプ制御部57の機能を実行する。なお、制御部53が専用のハードウェアで実現される場合、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものである。
 上述した例では、演算装置40から出力された情報は、処理装置30から制御装置50へ出力されるが、処理装置30を介さずに演算装置40から出力された情報を制御装置50へ直接入力させる構成であってもよい。
 また、画像用計算モデルは、リカレントニューラルネットワークで構成される場合、水処理装置10において槽内が将来的に好ましくない状態になる前兆が生じているか否かの程度を示すスコアである前兆スコアの情報を前兆の種別毎に処理装置30へ出力することができる。この場合、処理装置30の表示処理部35は、取得した前兆の種別毎の前兆スコアを表示装置62に表示することができる。
 また、上述した例では、画像用計算モデルの例として、画像データのみを入力データとする計算モデルを説明したが、画像用計算モデルは、画像データに加え数値データまたはその他のデータを入力データとする計算モデルであってもよい。
 また、上述では、画像用計算モデルの一例として、複数の画像データを入力とし複数の制御目標値を出力とする畳み込みニューラルネットワークについて説明したが、画像用計算モデルは、上述した例に限定されない。例えば、画像用計算モデルとして制御目標値毎に畳み込みニューラルネットワークを設けることもできる。画像用計算モデルとして撮像装置20毎に畳み込みニューラルネットワークを設けることもできる。また、画像用計算モデルとして撮像装置20毎かつ制御対象機器毎に畳み込みニューラルネットワークを設けることもできる。
 また、上述した例では、画像用計算モデルは、リカレントニューラルネットワークのみで構成される場合、制御対象機器の種別と制御目標値とが互いに関連付けられた情報である制御情報が前兆の種別毎に記憶されているが、かかる例に限定されない。例えば、演算装置40は、記憶装置61に記憶された時系列の画像データと時系列の制御目標値に基づいて機械学習を行ってリカレントニューラルネットワークの生成または更新をすることもできる。この場合、リカレントニューラルネットワークは、時系列の画像データから制御目標値を出力する。これにより、例えば、水処理プラント1において、槽内が将来的に好ましくない状態になる複数の前兆のうちオペレータによってまだ認識されていない前兆が生じている場合にも、効果的な水処理を行うことができる。
 また、上述した例では、演算装置40を利用して制御される制御対象機器の例として、ブロワ14およびポンプ15を説明したが、演算装置40を利用して制御される制御対象機器は、ブロワ14およびポンプ15以外の機器を含んでもよい。
 以上のように、実施の形態1にかかる水処理プラント1は、水処理を行う水処理装置10と、撮像装置20と、処理装置30と、演算装置40と、制御装置50とを備える。撮像装置20は、水処理装置10の水処理環境を撮像し、撮像して得られる画像データを出力する。処理装置30は、機械学習によって生成される1以上の計算モデルを用いた演算を行う演算装置40に、撮像装置20から出力される画像データを1以上の計算モデルの入力データとして演算を実行させる。制御装置50は、演算の実行によって演算装置40から出力される出力情報に基づいて、水処理装置10を制御する。そのため、水処理プラント1では、例えば、水処理装置10の水処理環境の画像に基づいて水処理プラント1のオペレータが過去の経験または知識に基づいて行っていた水処理制御を、演算装置40を用いて行うことができる。したがって、水処理環境の変化に対してより効果的な水処理制御を行うことができる。
 また、1以上の計算モデルは、画像データを入力データとする畳み込みニューラルネットワークを含む。処理装置30は、畳み込みニューラルネットワークを用いた演算を演算装置40に実行させる。畳み込みニューラルネットワークは、画像用計算モデルの一例である。このように、画像データを入力データとする畳み込みニューラルネットワークを準備し、撮像装置20から出力される画像データに対して畳み込みニューラルネットワークを用いた演算を演算装置40に実行させることで、水処理装置10を精度よく制御することができる。
 また、水処理プラント1は、水処理装置10の水処理環境を示す特性を検出し、検出した特性の数値データを出力するセンサを備える。演算装置40は、センサから出力される数値データを入力データとするセンサ用ニューラルネットワークを含む。センサ用ニューラルネットワークは、上述したセンサ用計算モデルの一例である。処理装置30は、センサ用ニューラルネットワークを用いた演算を演算装置40に実行させる。このように、水処理装置10の水処理環境を示す特性をセンサ2で検出し、検出した特性の数値データをセンサ2から出力し、センサ2から出力される数値データを入力データとするセンサ用ニューラルネットワークを準備し、センサ2から出力される数値データに対しセンサ用ニューラルネットワークを用いた演算を演算装置40に実行させることで、センサによる検出結果を用いて水処理装置10を制御することができる。
 また、処理装置30は、畳み込みニューラルネットワークの使用とセンサ用ニューラルネットワークの使用とを切り替えて演算装置40に演算を実行させる切替部38を備える。これにより、例えば、撮像装置20で撮像された画像を用いた水処理制御とセンサによる検出結果を用いた水処理制御とを状況に応じて切り替えることで、水処理装置10を精度よく制御することができる。
 また、処理装置30は、撮像装置20によって撮像された複数の画像データの中から1以上の画像データの選択を受け付ける受付処理部37を備える。演算装置40は、受付処理部37によって受け付けられた1以上の画像データに基づいて、1以上の計算モデルの機械学習を実行する。これにより、例えば、演算装置40が有する計算モデルを更新することができ、水処理装置10を精度よく制御することができる。
 また、制御装置50は、水処理装置10に設けられた制御対象機器を比例積分制御または比例積分微分制御によって制御する。これにより、水処理装置10を精度よく制御することができる。
 また、水処理装置10は、制御装置50の制御対象となる制御対象機器を備える。処理装置30は、演算装置40に演算を実行させて制御対象機器の制御目標値RV1,RV2を生成させる。制御装置50は、処理装置30が生成させた制御目標値RV1,RV2を出力情報として水処理装置10を制御する。これにより、水処理装置10に設けられた制御対象機器を精度よく制御することができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1 水処理プラント、10 水処理装置、11 最初沈殿槽、12 処理槽、13 最終沈殿槽、14 ブロワ、15 ポンプ、20,20,20,20 撮像装置、21,21,21,21 センサ群、22 流量センサ、22 BODセンサ、22 水温センサ、22 NHセンサ、23 溶存酸素量センサ、23 活性微生物濃度センサ、23 BODセンサ、24 流量センサ、24 BODセンサ、24 全窒素濃度センサ、30 処理装置、31,41,51 通信部、32,42,52 記憶部、33,43,53 制御部、34 データ処理部、35 表示処理部、36 演算要求部、37 受付処理部、38 切替部、40 演算装置、44 取得処理部、45 演算処理部、46 出力処理部、47 学習処理部、50 制御装置、54 入出力部、55 入力処理部、56 ブロワ制御部、57 ポンプ制御部、61 記憶装置、62 表示装置、63 入力装置、64 通信ネットワーク。

Claims (16)

  1.  水処理装置を用いて水処理を行う水処理プラントにおいて、
     前記水処理装置の水処理環境を撮像し、撮像して得られる画像データを出力する撮像装置と、
     機械学習によって生成される1以上の計算モデルを用いた演算を行う演算装置に、前記撮像装置から出力される前記画像データを前記1以上の計算モデルの入力データとして前記演算を実行させる処理装置と、
     前記演算の実行によって前記演算装置から出力される出力情報に基づいて、前記水処理装置を制御する制御装置と、
     を備えることを特徴とする水処理プラント。
  2.  前記演算装置は、前記画像データを入力データとする畳み込みニューラルネットワークを前記計算モデルとして含み、
     前記処理装置は、前記撮像装置が出力した前記画像データに対して前記畳み込みニューラルネットワークを用いた演算を前記演算装置に実行させる
     ことを特徴とする請求項1に記載の水処理プラント。
  3.  前記水処理装置の水処理環境を示す特性を検出し、検出した特性の数値データを出力するセンサを備え、
     前記演算装置は、前記センサから出力される数値データを入力データとするセンサ用ニューラルネットワークを含み、
     前記処理装置は、
     前記センサから出力される前記数値データに対して前記センサ用ニューラルネットワークを用いた演算を前記演算装置に実行させる
     ことを特徴とする請求項2に記載の水処理プラント。
  4.  前記処理装置は、
     前記畳み込みニューラルネットワークの使用と前記センサ用ニューラルネットワークの使用とを切り替えて前記演算装置に前記演算を実行させる切替部を備える
     ことを特徴とする請求項3に記載の水処理プラント。
  5.  前記処理装置は、
     前記撮像装置によって撮像された複数の画像データの中から1以上の画像データの選択を受け付ける受付処理部を備え、
     前記演算装置は、
     前記受付処理部が受け付けた前記1以上の画像データに基づいて、前記1以上の計算モデルの機械学習を実行する
     ことを特徴とする請求項1から4のいずれか一つに記載の水処理プラント。
  6.  前記制御装置は、
     前記水処理装置に設けられた制御対象機器を比例積分制御または比例積分微分制御によって制御する
     ことを特徴とする請求項1から5のいずれか一つに記載の水処理プラント。
  7.  前記演算装置は、AIである
     ことを特徴とする請求項1から6のいずれか一つに記載の水処理プラント。
  8.  前記水処理装置は、前記制御装置の制御対象となる制御対象機器を備え、
     前記処理装置は、前記演算装置に前記演算を実行させて前記制御対象機器の制御目標値を生成させ、
     前記制御装置は、前記処理装置が生成させた前記制御目標値を前記出力情報として前記水処理装置を制御する
     ことを特徴とする請求項1から7のいずれか一つに記載の水処理プラント。
  9.  水処理装置を用いて水処理を行う水処理プラントの運転方法において、
     前記水処理装置の水処理環境を撮像し、撮像して得られる画像データを出力する撮像ステップと、
     機械学習によって生成される1以上の計算モデルを用いた演算を行う演算装置に、前記撮像ステップで出力された前記画像データを前記1以上の計算モデルの入力データとして前記演算を実行させる処理ステップと、
     前記演算の実行によって前記演算装置から出力される出力情報に基づいて、前記水処理装置を制御する制御ステップと、
     を含むことを特徴とする水処理プラントの運転方法。
  10.  前記演算装置に対し、前記画像データを入力データとする畳み込みニューラルネットワークを前記計算モデルとして準備する畳み込みニューラルネットワーク準備ステップと、
     前記撮像ステップで出力した前記画像データに対して前記畳み込みニューラルネットワークを用いた演算を前記演算装置に実行させる畳み込みニューラルネットワーク実行ステップと、
     を含むことを特徴とする請求項9に記載の水処理プラントの運転方法。
  11.  前記水処理装置の水処理環境を示す特性をセンサで検出し、検出した特性の数値データを出力する数値データ出力ステップと、
     前記演算装置に対し、前記数値データ出力ステップで出力される前記数値データを入力データとするセンサ用ニューラルネットワークを前記計算モデルとして準備するセンサ用ニューラルネットワーク準備ステップと、
     前記数値データ出力ステップで出力される前記数値データに対し前記センサ用ニューラルネットワークを用いた演算を前記演算装置に実行させるセンサ用ニューラルネットワーク実行ステップと、
     を含むことを特徴とする請求項10に記載の水処理プラントの運転方法。
  12.  前記演算装置が使用する前記畳み込みニューラルネットワークと前記センサ用ニューラルネットワークとを切り替えて前記演算装置に前記演算を実行させる切替ステップ
     を含むことを特徴とする請求項11に記載の水処理プラントの運転方法。
  13.  前記撮像ステップで撮像された複数の画像データの中から1以上の画像データの選択を受け付ける選択ステップと、
     前記選択ステップで選択された前記1以上の画像データに基づいて、前記1以上の計算モデルの機械学習を実行する機械学習実行ステップと
     を含むことを特徴とする請求項9から12のいずれか一つに記載の水処理プラントの運転方法。
  14.  前記制御ステップでは、
     前記水処理装置に設けられた制御対象機器を比例積分制御または比例積分微分制御によって制御する
     ことを特徴とする請求項9から13のいずれか一つに記載の水処理プラントの運転方法。
  15.  前記演算装置としてAIを準備するAI準備ステップ
     を含むことを特徴とする請求項9から14のいずれか一つに記載の水処理プラントの運転方法。
  16.  前記水処理装置は、制御対象となる制御対象機器を備えており、
     前記演算の実行によって前記演算装置から出力される出力情報として前記制御対象機器の制御目標値を生成させる制御目標値生成ステップと、
     前記制御目標値生成ステップで生成させた前記制御目標値を前記出力情報として前記水処理装置を制御する制御目標値制御ステップと
     を含むことを特徴とする請求項9から15のいずれか一つに記載の水処理プラントの運転方法。
PCT/JP2018/028153 2018-07-26 2018-07-26 水処理プラントおよび水処理プラントの運転方法 WO2020021689A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019504146A JP6541913B1 (ja) 2018-07-26 2018-07-26 水処理プラントおよび水処理プラントの運転方法
SG11202012657RA SG11202012657RA (en) 2018-07-26 2018-07-26 Water treatment plant and method for operating water treatment plant
PCT/JP2018/028153 WO2020021689A1 (ja) 2018-07-26 2018-07-26 水処理プラントおよび水処理プラントの運転方法
US17/259,549 US20210133575A1 (en) 2018-07-26 2018-07-26 Water treatment plant and method for operating water treatment plant
KR1020217001510A KR20210021387A (ko) 2018-07-26 2018-07-26 수처리 플랜트 및 수처리 플랜트의 운전 방법
CN201880095731.5A CN112424126B (zh) 2018-07-26 2018-07-26 水处理设备及水处理设备的运转方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028153 WO2020021689A1 (ja) 2018-07-26 2018-07-26 水処理プラントおよび水処理プラントの運転方法

Publications (1)

Publication Number Publication Date
WO2020021689A1 true WO2020021689A1 (ja) 2020-01-30

Family

ID=67212133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028153 WO2020021689A1 (ja) 2018-07-26 2018-07-26 水処理プラントおよび水処理プラントの運転方法

Country Status (6)

Country Link
US (1) US20210133575A1 (ja)
JP (1) JP6541913B1 (ja)
KR (1) KR20210021387A (ja)
CN (1) CN112424126B (ja)
SG (1) SG11202012657RA (ja)
WO (1) WO2020021689A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163207A (ja) * 2020-03-31 2021-10-11 月島機械株式会社 制御装置、制御方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304546A (ja) * 1993-04-21 1994-11-01 Hitachi Ltd 上水道プラントの運用制御装置
JPH0852459A (ja) * 1994-08-11 1996-02-27 Toshiba Corp 下水処理プロセス制御装置
JP2013161336A (ja) * 2012-02-07 2013-08-19 Metawater Co Ltd 監視対象量予測方法及び監視対象量予測装置
JP2013185320A (ja) * 2012-03-06 2013-09-19 Toshiba Corp ポンプ運転計画支援装置及び水処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100456413B1 (ko) 2002-06-21 2004-11-10 에치투엘 주식회사 신경회로망 및 역전파 알고리즘에 의한 하폐수처리인공지능제어 시스템 및 방법
JP2005242524A (ja) * 2004-02-25 2005-09-08 Ebara Corp 処理プラント設備の運転制御方法及び運転制御装置
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
CN101369135B (zh) * 2007-08-14 2010-11-10 上海大地自动化系统工程有限公司 污水处理智能管理系统
JP6431363B2 (ja) * 2014-12-25 2018-11-28 川崎重工業株式会社 水処理システムおよびその曝気風量制御方法
JP6059375B1 (ja) * 2016-02-09 2017-01-11 ファナック株式会社 生産制御システムおよび統合生産制御システム
JP6422901B2 (ja) * 2016-02-12 2018-11-14 株式会社東芝 管理支援システム、管理支援方法及び管理支援プログラム
JP6562883B2 (ja) * 2016-09-20 2019-08-21 株式会社東芝 特性値推定装置および特性値推定方法
CN107741738A (zh) * 2017-10-20 2018-02-27 重庆华绿环保科技发展有限责任公司 一种污水处理过程监控智能预警云系统及污水处理监测预警方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304546A (ja) * 1993-04-21 1994-11-01 Hitachi Ltd 上水道プラントの運用制御装置
JPH0852459A (ja) * 1994-08-11 1996-02-27 Toshiba Corp 下水処理プロセス制御装置
JP2013161336A (ja) * 2012-02-07 2013-08-19 Metawater Co Ltd 監視対象量予測方法及び監視対象量予測装置
JP2013185320A (ja) * 2012-03-06 2013-09-19 Toshiba Corp ポンプ運転計画支援装置及び水処理システム

Also Published As

Publication number Publication date
CN112424126B (zh) 2022-12-27
JPWO2020021689A1 (ja) 2020-08-06
JP6541913B1 (ja) 2019-07-10
SG11202012657RA (en) 2021-02-25
US20210133575A1 (en) 2021-05-06
KR20210021387A (ko) 2021-02-25
CN112424126A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
Bagheri et al. Modeling and optimization of activated sludge bulking for a real wastewater treatment plant using hybrid artificial neural networks-genetic algorithm approach
JP2533942B2 (ja) 知識抽出方法およびプロセス運転支援システム
Kovacs et al. Membrane fouling prediction and uncertainty analysis using machine learning: A wastewater treatment plant case study
JP6764487B2 (ja) 水処理プラントおよび水処理プラントの運転方法
JP2004025160A (ja) 神経回路網及び逆転波アルゴリズムによる下排水処理人工知能制御システム及び方法
CN115108617B (zh) 混凝加药方法及系统
Solaimany-Aminabad et al. Application of artificial neural network (ANN) for the prediction of water treatment plant influent characteristics
US11649183B2 (en) Water treatment plant
WO2020021689A1 (ja) 水処理プラントおよび水処理プラントの運転方法
Alharbi et al. Sliding window neural network based sensing of bacteria in wastewater treatment plants
Wu et al. Data-driven intelligent warning method for membrane fouling
JP4146610B2 (ja) 濁度予測システム、濁度制御システムおよび濁度管理システム
JP7388249B2 (ja) 汚水処理施設の運転操作量導出装置及び運転操作量導出方法
JP7000063B2 (ja) 洗浄風量制御装置及び洗浄風量制御方法
RU2758854C1 (ru) Способ определения концентрации веществ в системе биологической очистки сточных вод
JP2022039126A (ja) 水処理施設の運転支援装置及び運転支援方法
JPH0852459A (ja) 下水処理プロセス制御装置
JP2021137748A (ja) 水処理施設の運転支援装置
KR102641807B1 (ko) 센서보정장치 및 센서보정장치의 동작 방법
Beltrán et al. On-line estimation of suspended solids in biological reactors of WWTPs using a Kalman observer
TWI813437B (zh) 水處理控制系統及水處理裝置之控制方法
Ramkumar et al. Tertiary treatment using ultrafiltration in an existing sewage treatment plant for industrial reuse: a modelling approach using artificial neural network with uncertainty estimation
JPH06335694A (ja) 排水の生物学的処理装置の制御装置
JP2010088988A (ja) 曝気槽制御方法および装置
Verhaeghe HYBRID MODELLING OF WASTEWATER TREATMENT PROCESSES

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019504146

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18927581

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217001510

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18927581

Country of ref document: EP

Kind code of ref document: A1