JP7020160B2 - Water quality analyzer - Google Patents

Water quality analyzer Download PDF

Info

Publication number
JP7020160B2
JP7020160B2 JP2018023058A JP2018023058A JP7020160B2 JP 7020160 B2 JP7020160 B2 JP 7020160B2 JP 2018023058 A JP2018023058 A JP 2018023058A JP 2018023058 A JP2018023058 A JP 2018023058A JP 7020160 B2 JP7020160 B2 JP 7020160B2
Authority
JP
Japan
Prior art keywords
unit
convolution
clustering
learning
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018023058A
Other languages
Japanese (ja)
Other versions
JP2019136664A (en
JP2019136664A5 (en
Inventor
信彰 高▲瀬▼
雄喜 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2018023058A priority Critical patent/JP7020160B2/en
Publication of JP2019136664A publication Critical patent/JP2019136664A/en
Priority to JP2021116028A priority patent/JP7147933B2/en
Publication of JP2019136664A5 publication Critical patent/JP2019136664A5/en
Application granted granted Critical
Publication of JP7020160B2 publication Critical patent/JP7020160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A20/00Water conservation; Efficient water supply; Efficient water use
    • Y02A20/152Water filtration

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、下水道処理施設等の水質分析装置及び水質分析方法に関する。 The present invention relates to a water quality analyzer and a water quality analysis method for sewage treatment facilities and the like.

近年、下水道処理施設の維持及び管理の効率化が求められている。従来技術の一例である非特許文献1には、浄水場に発生する凝集物であるフロックの監視を、運転操作員の目視に代えて画像処理によって行う技術が開示されている。非特許文献1に開示された技術では、グレースケール画像に対して空間フィルタリング処理を適用することで輝度を調整し、輝度を調整した画像を二値化処理することでフロックを抽出し、抽出したフロックに対してラベリング及び粒径分布計算を行っている。 In recent years, there has been a demand for more efficient maintenance and management of sewage treatment facilities. Non-Patent Document 1, which is an example of the prior art, discloses a technique for monitoring frock, which is an agglomerate generated in a water purification plant, by image processing instead of visual inspection by an operator. In the technique disclosed in Non-Patent Document 1, the brightness is adjusted by applying a spatial filtering process to a grayscale image, and the flocs are extracted and extracted by binarizing the image with the adjusted brightness. Labeling and particle size distribution calculation are performed for flocs.

また、従来技術の一例である特許文献1には、オートエンコーダで画像データの特徴抽出を行い、One-Class SVM(Support Vector Machine)等の1クラス分類器を用いて正常値と外れ値とを識別して異常判定を行う技術が開示されている。 Further, in Patent Document 1, which is an example of the prior art, the feature of the image data is extracted by the autoencoder, and the normal value and the outlier are obtained by using a one-class classifier such as One-Class SVM (Support Vector Machine). A technique for identifying and determining an abnormality is disclosed.

特開2018-5773号公報Japanese Unexamined Patent Publication No. 2018-5773

馬場研二,依田幹雄,谷本正巳、「浄水場におけるフロック画像監視技術の基礎研究」、電気学会論文誌D、1987年、Vol.107、No.7、p.844-851Kenji Baba, Mikio Yoda, Masami Tanimoto, "Basic Research on Flock Image Surveillance Technology in Water Purification Plants", IEEJ Journal D, 1987, Vol. 107, No. 7, p. 844-851

しかしながら、非特許文献1に開示された技術によれば、二値化処理のしきい値並びに空間フィルタリング処理のフィルタサイズ及び重みの調整を要し、別の対象に対してはモデルを再構築して再度のチューニングを要する、という問題があった。 However, according to the technique disclosed in Non-Patent Document 1, it is necessary to adjust the threshold value of the binarization process and the filter size and weight of the spatial filtering process, and the model is reconstructed for another object. There was a problem that tuning was required again.

また、特許文献1に開示された技術では、単一の1クラス分類器により判定を行うため、色、スカム及びフロックといった、水質の多様な特徴に対応することが困難である、という問題があった。 Further, in the technique disclosed in Patent Document 1, since the determination is made by a single one-class classifier, there is a problem that it is difficult to deal with various characteristics of water quality such as color, scum and floc. rice field.

本発明は、上記に鑑みてなされたものであって、特別なチューニングを行うことなく、水質の多様な特徴に対応した水質分析を行うことを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to perform water quality analysis corresponding to various characteristics of water quality without performing special tuning.

上述の課題を解決して目的を達成する本発明は、沈殿池の画像データについて畳み込みAE(Auto Encoder)を学習して前記沈殿池の色相の特徴量を抽出し、該色相の特徴量からクラスタリングにより前記画像データを色相のクラスタに分類して色相の特徴空間及びクラスタ分布を描画する色相分析部と、前記画像データについて畳み込みAEを学習して前記沈殿池の浮遊物の特徴量を抽出し、該浮遊物の特徴量からクラスタリングにより前記画像データを浮遊物のクラスタに分類して浮遊物の特徴空間及びクラスタ分布を描画する浮遊物分析部とを備える水質分析装置である。 The present invention, which solves the above-mentioned problems and achieves the object, learns the convolution AE (Auto Encoder) of the image data of the settling pond, extracts the feature amount of the hue of the settling pond, and clusters from the feature amount of the hue. The image data is classified into clusters of hues, and the hue analysis unit that draws the feature space and cluster distribution of the hues, and the convolution AE of the image data are learned to extract the features of the suspended matter in the sedimentation pond. It is a water quality analyzer provided with a suspended matter analysis unit that classifies the image data into clusters of suspended matter by clustering from the feature amount of the suspended matter and draws a feature space of the suspended matter and a cluster distribution.

上記構成の水質分析装置は、前記画像データについて畳み込みAEを学習して前記沈殿池の移動体の特徴量を抽出し、該移動体の特徴量からクラスタリングにより前記画像データを移動体のクラスタに分類して移動体の特徴空間及びクラスタ分布を描画する移動体分析部を備えることが好ましい。 The water quality analyzer having the above configuration learns the convolution AE of the image data, extracts the feature amount of the moving body of the settling pond, and classifies the image data into a cluster of the moving body by clustering from the feature amount of the moving body. It is preferable to provide a moving body analysis unit that draws the feature space and the cluster distribution of the moving body.

又は、本発明は、各々が、少なくとも画像加工部と、畳み込みAE学習部と、畳み込みAEパラメータ記憶部と、特徴量抽出部と、クラスタリング部と、クラスタリングパラメータ記憶部と、クラスタ分類部と、特徴空間描画部とを含む、色相分析部及び浮遊物分析部を備える水質分析装置の水質分析方法であって、前記画像加工部が、沈殿池の画像データを加工すること、前記畳み込みAE学習部が、加工した前記画像データについて畳み込みAE学習を要する場合には前記画像データについて畳み込みAE学習を行うこと、前記畳み込みAEパラメータ記憶部が、前記畳み込みAE学習により得られた畳み込みAEパラメータを記憶すること、前記特徴量抽出部が、前記畳み込みAEパラメータを適用したエンコーダに、加工した前記画像データから特徴量抽出を行うこと、前記クラスタリング部が、加工した前記画像データについてクラスタリングを要する場合には前記画像データについてクラスタリングを行うこと、前記クラスタリングパラメータ記憶部が、前記クラスタリングにより得られたクラスタリングパラメータを記憶すること、前記クラスタ分類部が、特徴量抽出を行った前記画像データをクラスタに分類すること、前記特徴空間描画部が、クラスタ分類された前記画像データによる特徴空間及びクラスタ分布を描画することを含む水質分析方法である。 Alternatively, the present invention has at least an image processing unit, a convolution AE learning unit, a convolution AE parameter storage unit, a feature amount extraction unit, a clustering unit, a clustering parameter storage unit, and a cluster classification unit. A water quality analysis method of a water quality analyzer including a hue analysis unit and a floating matter analysis unit including a space drawing unit, wherein the image processing unit processes image data of a sedimentation pond, and the convolution AE learning unit When the convolution AE learning is required for the processed image data, the convolution AE learning is performed for the image data, and the convolution AE parameter storage unit stores the convolution AE parameters obtained by the convolution AE learning. The feature amount extraction unit extracts the feature amount from the processed image data to the encoder to which the convolution AE parameter is applied, and when the clustering unit requires clustering for the processed image data, the image data. The clustering is performed, the clustering parameter storage unit stores the clustering parameters obtained by the clustering, and the cluster classification unit classifies the image data from which the feature amount has been extracted into clusters. The space drawing unit is a water quality analysis method including drawing a feature space and a cluster distribution based on the image data classified into clusters.

本発明によれば、特別なチューニングを行うことなく、水質の多様な特徴に対応した水質分析を行うことができる、という効果を奏する。 According to the present invention, there is an effect that water quality analysis corresponding to various characteristics of water quality can be performed without performing special tuning.

実施形態1に係る水質分析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the water quality analyzer which concerns on Embodiment 1. FIG. 畳み込みAEの概要を説明する図である。It is a figure explaining the outline of the convolution AE. 学習済みエンコーダによる特徴量抽出の概要を説明する図である。It is a figure explaining the outline of the feature amount extraction by the trained encoder. クラスタリング手法の概要を説明する図である。It is a figure explaining the outline of the clustering method. 実施形態1に係る水質分析装置の色相分析部の動作を示すフローチャートである。It is a flowchart which shows the operation of the hue analysis part of the water quality analysis apparatus which concerns on Embodiment 1. FIG. 実施形態2に係る水質分析装置の前提となる移動体分析部の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile body analysis part which is the premise of the water quality analysis apparatus which concerns on Embodiment 2. 実施形態2に係る水質分析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the water quality analyzer which concerns on Embodiment 2.

以下、添付図面を参照して、本発明の水質分析装置及び水質分析方法を実施するための形態について説明する。ただし、本発明は、以下の実施形態の記載によって限定解釈されるものではない。 Hereinafter, a mode for carrying out the water quality analyzer and the water quality analysis method of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the description of the following embodiments.

<実施形態1>
図1は、本実施形態に係る水質分析装置の構成を示すブロック図である。図1に示す水質分析装置100は、データ蓄積部101と、色相分析部110と、浮遊物分析部120とを備える。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration of a water quality analyzer according to the present embodiment. The water quality analysis device 100 shown in FIG. 1 includes a data storage unit 101, a hue analysis unit 110, and a suspended matter analysis unit 120.

データ蓄積部101は、下水道処理施設等の沈殿池に設置された、図示しないカメラが取得した沈殿池の画像データを蓄積する。データ蓄積部101は、半導体メモリ及び磁気ディスク等の記録媒体により実現することができる。この画像データは、静止画又は複数の連続した静止画により構成される動画の双方を含む。 The data storage unit 101 stores image data of a settling basin acquired by a camera (not shown) installed in a settling basin such as a sewage treatment facility. The data storage unit 101 can be realized by a recording medium such as a semiconductor memory and a magnetic disk. This image data includes both a still image and a moving image composed of a plurality of continuous still images.

色相分析部110は、データ蓄積部101の画像データを用いて処理水の色を分析する。色相分析部110を用いて処理水の色を分析することにより、例えば、処理水中に巻き上がる汚泥による沈殿池の色の変化を判別し、処理水中に巻き上がる汚泥の量を評価することが可能である。浮遊物分析部120は、データ蓄積部101の画像データを用いて処理水の浮遊物を分析する。浮遊物分析部120を用いて処理水を分析することにより、例えば、浮遊物の有無を判別することが可能である。また、浮遊物が存在する場合には、当該浮遊物の成分を特定することも可能である。ここで、浮遊物には、スカム及び泡を例示することができる。浮遊物の成分を分析することにより、例えば、この浮遊物がスカムであるか否かの判別が可能となる。色相分析部110及び浮遊物分析部120は、データ蓄積部101に蓄積された画像データについて、畳み込みAE学習、特徴量抽出及びクラスタリングを行う。 The hue analysis unit 110 analyzes the color of the treated water using the image data of the data storage unit 101. By analyzing the color of the treated water using the hue analysis unit 110, for example, it is possible to determine the change in the color of the settling basin due to the sludge rolled up in the treated water and evaluate the amount of sludge rolled up in the treated water. Is. The suspended matter analysis unit 120 analyzes the suspended matter in the treated water using the image data of the data storage unit 101. By analyzing the treated water using the suspended matter analysis unit 120, for example, it is possible to determine the presence or absence of suspended matter. Further, when a floating substance is present, it is possible to specify the component of the floating substance. Here, as the floating matter, scum and foam can be exemplified. By analyzing the components of the suspended matter, for example, it becomes possible to determine whether or not the suspended matter is a scum. The hue analysis unit 110 and the suspended matter analysis unit 120 perform convolution AE learning, feature quantity extraction, and clustering on the image data stored in the data storage unit 101.

ここで、色相分析部110の構成について説明する。色相分析部110は、第1の画像加工部111と、第1の畳み込みAE学習部112と、第1の畳み込みAEパラメータ記憶部113と、第1の特徴量抽出部114と、第1のクラスタリング部115と、第1のクラスタリングパラメータ記憶部116と、第1のクラスタ分類部117と、第1の特徴空間描画部118と、第1の学習要否判定部119とを備え、RGB画像データを用いて処理水の色を分析する。 Here, the configuration of the hue analysis unit 110 will be described. The hue analysis unit 110 includes a first image processing unit 111, a first convolution AE learning unit 112, a first convolution AE parameter storage unit 113, a first feature amount extraction unit 114, and a first clustering unit. A unit 115, a first clustering parameter storage unit 116, a first cluster classification unit 117, a first feature space drawing unit 118, and a first learning necessity determination unit 119 are provided to obtain RGB image data. Use to analyze the color of the treated water.

第1の画像加工部111は、データ蓄積部101の画像データにトリミング処理又は正規化を行うことで、加工済みのRGB3チャネル画像を得る。第1の画像加工部111は、MPU(Micro-Processing Unit)及びCPU(Central Processing Unit)等のプロセッサにより実現することができる。 The first image processing unit 111 obtains a processed RGB3 channel image by performing trimming processing or normalization on the image data of the data storage unit 101. The first image processing unit 111 can be realized by a processor such as an MPU (Micro-Processing Unit) and a CPU (Central Processing Unit).

第1の畳み込みAE学習部112は、第1の画像加工部111によって加工済みのRGB3チャネル画像を用いて、畳み込みAEを学習する。第1の畳み込みAE学習部112は、MPU及びCPU等のプロセッサにより実現することができる。第1の畳み込みAEパラメータ記憶部113は、第1の畳み込みAE学習部112で学習されて得られた畳み込みAEパラメータを記憶する。第1の畳み込みAEパラメータ記憶部113は、半導体メモリ及び磁気ディスク等の記録媒体により実現することができる。 The first convolution AE learning unit 112 learns the convolution AE using the RGB3 channel image processed by the first image processing unit 111. The first convolution AE learning unit 112 can be realized by a processor such as an MPU and a CPU. The first convolution AE parameter storage unit 113 stores the convolution AE parameters learned and obtained by the first convolution AE learning unit 112. The first convolution AE parameter storage unit 113 can be realized by a recording medium such as a semiconductor memory and a magnetic disk.

図2は、畳み込みAEの概要を説明する図である。図2に示すように、畳み込みAEは次元を圧縮するエンコーダと次元を復元するデコーダとを含む。エンコーダとデコーダの間に存在する全結合層は、入力画像に対して次元が低く、学習済みのエンコーダは次元圧縮器として適切に動作する。第1の畳み込みAE学習部112では、教師データを入力画像として、ネットワークが生成する画像と教師データとの誤差が最小となるような学習を行うことで、画像の有する特徴をエンコーダが学習する。ここで、畳み込みAEは、教師なし学習であり、教師データを入力画像として学習を行うため、ユーザが処理水の画像に対して、色及び浮遊物に対するラベリングを行う必要がないという利点がある。また、畳み込みAEでは設計に特別なチューニングを要さず、その学習は画像の入力のみで行われる。 FIG. 2 is a diagram illustrating an outline of the convolution AE. As shown in FIG. 2, the convolution AE includes an encoder that compresses the dimension and a decoder that restores the dimension. The fully coupled layer that exists between the encoder and the decoder has a lower dimension with respect to the input image, and the trained encoder behaves appropriately as a dimensional compressor. In the first convolution AE learning unit 112, the encoder learns the features of the image by learning so that the error between the image generated by the network and the teacher data is minimized by using the teacher data as an input image. Here, the convolution AE is unsupervised learning, and since the learning is performed using the teacher data as an input image, there is an advantage that the user does not need to label the image of the treated water with respect to colors and suspended matter. In addition, the convolution AE does not require any special tuning in the design, and the learning is performed only by inputting an image.

第1の特徴量抽出部114は、第1の畳み込みAEパラメータ記憶部113に記憶された畳み込みAEパラメータを適用して、学習済みのエンコーダを含む畳み込みAEを用いて、第1の画像加工部111によって加工済みのデータの特徴量抽出を行う。第1の特徴量抽出部114は、MPU及びCPU等のプロセッサにより実現することができる。 The first feature amount extraction unit 114 applies the convolution AE parameters stored in the first convolution AE parameter storage unit 113, and uses the convolution AE including the trained encoder to use the first image processing unit 111. The feature amount of the processed data is extracted by. The first feature amount extraction unit 114 can be realized by a processor such as an MPU and a CPU.

図3は、学習済みエンコーダによる特徴量抽出の概要を説明する図である。第1の特徴量抽出部114は、学習済みエンコーダに入力画像を入力し、入力画像の次元圧縮を行うことで特徴量抽出を行う。 FIG. 3 is a diagram illustrating an outline of feature amount extraction by the trained encoder. The first feature amount extraction unit 114 inputs the input image to the trained encoder and performs dimensional compression of the input image to extract the feature amount.

第1のクラスタリング部115は、第1の特徴量抽出部114が抽出した特徴量に対してクラスタリング手法を適用し、画像データのクラスタリングを行う。第1のクラスタリング部115は、MPU及びCPU等のプロセッサにより実現することができる。なお、このクラスタリングは、ユーザの知識に基づいた判定条件によって可否が決定される。第1のクラスタリングパラメータ記憶部116は、第1のクラスタリング部115によって得られたクラスタリングパラメータを記憶する。第1のクラスタリングパラメータ記憶部116は、半導体メモリ及び磁気ディスク等の記録媒体により実現することができる。第1のクラスタ分類部117は、第1の特徴量抽出部114が特徴量抽出を行った画像データの所属クラスタを特徴量に基づいて決定し、各画像データをクラスタに分類する。第1のクラスタ分類部117は、MPU及びCPU等のプロセッサにより実現することができる。 The first clustering unit 115 applies a clustering method to the feature amount extracted by the first feature amount extraction unit 114 to perform clustering of image data. The first clustering unit 115 can be realized by a processor such as an MPU and a CPU. Whether or not this clustering is possible is determined by the determination conditions based on the user's knowledge. The first clustering parameter storage unit 116 stores the clustering parameters obtained by the first clustering unit 115. The first clustering parameter storage unit 116 can be realized by a recording medium such as a semiconductor memory and a magnetic disk. The first cluster classification unit 117 determines the cluster to which the image data to which the first feature amount extraction unit 114 has been extracted belongs based on the feature amount, and classifies each image data into clusters. The first cluster classification unit 117 can be realized by a processor such as an MPU and a CPU.

図4は、クラスタリング手法の概要を説明する図である。ここで用いるクラスタリング手法は非階層型クラスタリングであり、k-means法、混合正規分布、DBSCAN(Density-Based Spatial Clustering of Applications with Noise)を例示することができる。図4では、データがクラスタ1、クラスタ2又はクラスタ3のいずれかに分類され、特徴空間に描画されている。 FIG. 4 is a diagram illustrating an outline of the clustering method. The clustering method used here is non-hierarchical clustering, and examples thereof include k-means method, mixed normal distribution, and DBSCAN (Density-Based Spatial Clustering of Applications with Noise). In FIG. 4, the data is classified into cluster 1, cluster 2, or cluster 3, and is drawn in the feature space.

第1の特徴空間描画部118は、第1のクラスタリング部115及び第1のクラスタ分類部117の情報に基づいて特徴空間及びクラスタ分布を描画することで情報の可視化を行う。第1の特徴空間描画部118は、例えば、特徴空間を主成分分析(principal component analysis)によって、2次元又は3次元に圧縮することでデータ及びクラスタの分布を提示する。ユーザには、各クラスタが有する特徴が提示され、ユーザは手動で各クラスタのラベル付けを行うことが可能になる。第1の特徴空間描画部118としては、タッチパネル等の入出力装置により実現することができる。 The first feature space drawing unit 118 visualizes information by drawing the feature space and the cluster distribution based on the information of the first clustering unit 115 and the first cluster classification unit 117. The first feature space drawing unit 118 presents the distribution of data and clusters by, for example, compressing the feature space into two or three dimensions by principal component analysis. The user is presented with the characteristics of each cluster, and the user can manually label each cluster. The first feature space drawing unit 118 can be realized by an input / output device such as a touch panel.

なお、第1の畳み込みAE学習部112による学習及び第1のクラスタリング部115によるクラスタリングは、学習が必要な場合、すなわち最初の動作時又は再学習が必要な場合にのみ行えばよい。第1の学習要否判定部119は、第1の畳み込みAE学習部112及び第1のクラスタリング部115の学習の要否を判定し、第1の畳み込みAE学習部112及び第1のクラスタリング部115に対して学習すべきか否かを指示する。ここで、再学習のタイミングは、ユーザによって決定され、設定された一定の周期又は沈殿池の環境変化時とする。設定された一定の周期は、例えば一週間又は一か月であり、沈殿池の環境変化は、例えば、季節の変化又は処理場の工事によって生じるものである。 The learning by the first convolution AE learning unit 112 and the clustering by the first clustering unit 115 may be performed only when learning is required, that is, at the time of the first operation or when re-learning is required. The first learning necessity determination unit 119 determines the learning necessity of the first convolution AE learning unit 112 and the first clustering unit 115, and determines the learning necessity of the first convolution AE learning unit 112 and the first clustering unit 115. Instruct whether or not to learn. Here, the timing of re-learning is determined by the user and is set at a fixed cycle or when the environment of the sedimentation basin changes. The set fixed cycle is, for example, one week or one month, and the environmental change of the settling basin is caused by, for example, seasonal change or construction of the treatment plant.

次に、浮遊物分析部120の構成について説明する。浮遊物分析部120は、第2の画像加工部121と、第2の畳み込みAE学習部122と、第2の畳み込みAEパラメータ記憶部123と、第2の特徴量抽出部124と、第2のクラスタリング部125と、第2のクラスタリングパラメータ記憶部126と、第2のクラスタ分類部127と、第2の特徴空間描画部128と、第2の学習要否判定部129とを備え、グレースケール画像を用いて処理水上の浮遊物を分析する。 Next, the configuration of the suspended matter analysis unit 120 will be described. The floating matter analysis unit 120 includes a second image processing unit 121, a second convolution AE learning unit 122, a second convolution AE parameter storage unit 123, a second feature amount extraction unit 124, and a second. A gray scale image including a clustering unit 125, a second clustering parameter storage unit 126, a second cluster classification unit 127, a second feature space drawing unit 128, and a second learning necessity determination unit 129. Is used to analyze suspended matter on the treated water.

第2の画像加工部121は、データ蓄積部101の画像データを加工する。具体的には、第2の画像加工部121は、浮遊物の分析のために、データ蓄積部101のデータに対してグレースケール変換を行う。 The second image processing unit 121 processes the image data of the data storage unit 101. Specifically, the second image processing unit 121 performs grayscale conversion on the data of the data storage unit 101 for the analysis of suspended matter.

第2の畳み込みAE学習部122は、第2の画像加工部121によって加工済みのデータを用いて、畳み込みAEを学習する。畳み込みAEについては、第1の畳み込みAE学習部112の説明を援用する。第2の畳み込みAEパラメータ記憶部123は、第2の畳み込みAE学習部122で学習されて得られた畳み込みAEパラメータを記憶する。 The second convolution AE learning unit 122 learns the convolution AE using the data processed by the second image processing unit 121. For the convolution AE, the explanation of the first convolution AE learning unit 112 is referred to. The second convolution AE parameter storage unit 123 stores the convolution AE parameters learned and obtained by the second convolution AE learning unit 122.

第2の特徴量抽出部124は、第2の畳み込みAEパラメータ記憶部123に記憶された畳み込みAEパラメータを適用して、学習済みのエンコーダを含む畳み込みAEを用いて、第2の画像加工部121によって加工済みのデータの特徴量抽出を行う。特徴量抽出については、第1の特徴量抽出部114の説明を援用する。 The second feature amount extraction unit 124 applies the convolution AE parameters stored in the second convolution AE parameter storage unit 123, and uses the convolution AE including the trained encoder to use the second image processing unit 121. The feature amount of the processed data is extracted by. For the feature amount extraction, the description of the first feature amount extraction unit 114 is referred to.

第2のクラスタリング部125は、第2の特徴量抽出部124が抽出した特徴量に対してクラスタリング手法を適用し、画像データのクラスタリングを行う。第2のクラスタリングパラメータ記憶部126は、第2のクラスタリング部125によって得られたクラスタリングパラメータを記憶する。第2のクラスタ分類部127は、第2の特徴量抽出部124が特徴量抽出を行った画像データの所属クラスタを特徴量に基づいて決定し、各画像データをクラスタに分類する。クラスタリング手法については、第1のクラスタリング部115の説明を援用する。 The second clustering unit 125 applies a clustering method to the feature amount extracted by the second feature amount extraction unit 124 to perform clustering of image data. The second clustering parameter storage unit 126 stores the clustering parameters obtained by the second clustering unit 125. The second cluster classification unit 127 determines the cluster to which the image data to which the second feature amount extraction unit 124 has been extracted belongs based on the feature amount, and classifies each image data into clusters. As for the clustering method, the description of the first clustering unit 115 is referred to.

第2の特徴空間描画部128は、第2のクラスタリング部125及び第2のクラスタ分類部127の情報に基づいて特徴空間及びクラスタ分布を描画することで情報の可視化を行う。特徴空間及びクラスタ分布の描画については、第1の特徴空間描画部118の説明を援用する。 The second feature space drawing unit 128 visualizes the information by drawing the feature space and the cluster distribution based on the information of the second clustering unit 125 and the second cluster classification unit 127. Regarding the drawing of the feature space and the cluster distribution, the description of the first feature space drawing unit 118 is referred to.

なお、第2の畳み込みAE学習部122による学習及び第2のクラスタリング部125によるクラスタリングは、学習が必要な場合、すなわち最初の動作時又は再学習が必要な場合にのみ行えばよい。第2の学習要否判定部129は、第2の畳み込みAE学習部122及び第2のクラスタリング部125の学習の要否を判定し、第2の畳み込みAE学習部122及び第2のクラスタリング部125に対して学習すべきか否かを指示する。 The learning by the second convolution AE learning unit 122 and the clustering by the second clustering unit 125 may be performed only when learning is required, that is, at the time of the first operation or when re-learning is required. The second learning necessity determination unit 129 determines the learning necessity of the second convolution AE learning unit 122 and the second clustering unit 125, and determines the learning necessity of the second convolution AE learning unit 122 and the second clustering unit 125. Instruct whether or not to learn.

このように、色相分析部110が第1の畳み込みAE学習部112を備え、浮遊物分析部120が第2の畳み込みAE学習部122を備えるため、水質の多様な特徴に対応することが可能であり、単一の畳み込みAEで特徴量抽出を行う構成よりも高精度に特徴量抽出を行うことができる。 As described above, since the hue analysis unit 110 includes the first convolution AE learning unit 112 and the suspended matter analysis unit 120 includes the second convolution AE learning unit 122, it is possible to deal with various characteristics of water quality. Therefore, it is possible to perform feature quantity extraction with higher accuracy than a configuration in which feature quantity extraction is performed by a single convolution AE.

更には、第1の特徴空間描画部118及び第2の特徴空間描画部128を備えるため、自動生成されたクラスタ分布を視覚的に確認することができ、ユーザは、畳み込みAEにより抽出された特徴を確認することができる。 Furthermore, since the first feature space drawing unit 118 and the second feature space drawing unit 128 are provided, the automatically generated cluster distribution can be visually confirmed, and the user can visually confirm the features extracted by the convolution AE. Can be confirmed.

なお、上述の色相分析部110及び浮遊物分析部120が備える構成のうちプロセッサにより実現されるものは同一の1つのプロセッサにより実現されていてもよい。また、上述の色相分析部110及び浮遊物分析部120が備える構成のうち記録媒体により実現されるものは同一の1つの記録媒体により実現されていてもよい。更には、上述の色相分析部110及び浮遊物分析部120が備える構成のうちタッチパネル等の入出力装置により実現されるものは同一の1つの入出力装置により実現されていてもよい。 Of the configurations included in the hue analysis unit 110 and the suspended matter analysis unit 120 described above, those realized by the processor may be realized by the same one processor. Further, among the configurations included in the hue analysis unit 110 and the suspended matter analysis unit 120 described above, those realized by the recording medium may be realized by the same one recording medium. Further, among the configurations included in the hue analysis unit 110 and the suspended matter analysis unit 120 described above, those realized by an input / output device such as a touch panel may be realized by the same one input / output device.

次に、色相分析部110の動作について説明する。図5は、色相分析部110の動作を示すフローチャートである。まず、第1の画像加工部111は、データ蓄積部101から画像データを取得して加工する(S1:画像データ加工ステップ)。第1の学習要否判定部119は、第1の畳み込みAE学習部112の学習の要否を判定する(S2:畳み込みAE学習部の学習要否判定ステップ)。第1の学習要否判定部119が、第1の畳み込みAE学習部112の学習を不要と判定した場合(S2:否)には、フローはS5に進む。第1の学習要否判定部119が、第1の畳み込みAE学習部112の学習を必要と判定した場合(S2:要)には、第1のAE畳み込み学習部112は、加工済みの画像データを用いて畳み込みAEの学習を行い(S3:畳み込みAE学習ステップ)、得られた畳み込みAEパラメータを第1の畳み込みAEパラメータ記憶部113に記憶させる(S4:畳み込みAEパラメータ記憶ステップ)。次に、第1の特徴量抽出部114は、第1の畳み込みAEパラメータ記憶部113から畳み込みAEパラメータを取得し、当該畳み込みAEパラメータを適用したエンコーダに加工済みの画像データを入力して次元圧縮を行うことで特徴量抽出を行う(S5:特徴量抽出ステップ)。第1の学習要否判定部119は、第1のクラスタリング部115の学習の要否を判定する(S6:クラスタリング部の学習要否判定ステップ)。第1の学習要否判定部119が、第1のクラスタリング部115の学習を不要と判定した場合(S6:否)には、フローはS9に進む。第1の学習要否判定部119が、第1のクラスタリング部115の学習を必要と判定した場合(S6:要)には、第1のクラスタリング部115は、第1の特徴量抽出部114で抽出された特徴量を取得してクラスタリングを行い(S7:クラスタリングステップ)、得られたクラスタリングパラメータを第1のクラスタリングパラメータ記憶部116に記憶させる(S8:クラスタリングパラメータ記憶ステップ)。次に、第1のクラスタ分類部117は、特徴量抽出を行った画像データをクラスタに分類する(S9:クラスタ分類ステップ)。次に、第1の特徴空間描画部118は、クラスタ分類された画像データによる特徴空間及びクラスタ分布を描画し(S10:描画ステップ)、処理をエンドする。このように描画された情報はユーザに提示され、提示された情報についてユーザはラベリング処理を行う。 Next, the operation of the hue analysis unit 110 will be described. FIG. 5 is a flowchart showing the operation of the hue analysis unit 110. First, the first image processing unit 111 acquires image data from the data storage unit 101 and processes it (S1: image data processing step). The first learning necessity determination unit 119 determines the learning necessity of the first convolution AE learning unit 112 (S2: learning necessity determination step of the convolution AE learning unit). When the first learning necessity determination unit 119 determines that the learning of the first convolution AE learning unit 112 is unnecessary (S2: No), the flow proceeds to S5. When the first learning necessity determination unit 119 determines that the learning of the first convolution AE learning unit 112 is necessary (S2: required), the first AE convolution learning unit 112 is the processed image data. Is used to learn the convolution AE (S3: convolution AE learning step), and the obtained convolution AE parameters are stored in the first convolution AE parameter storage unit 113 (S4: convolution AE parameter storage step). Next, the first feature amount extraction unit 114 acquires the convolution AE parameter from the first convolution AE parameter storage unit 113, inputs the processed image data to the encoder to which the convolution AE parameter is applied, and performs dimensional compression. (S5: Feature amount extraction step). The first learning necessity determination unit 119 determines the learning necessity of the first clustering unit 115 (S6: learning necessity determination step of the clustering unit). When the first learning necessity determination unit 119 determines that the learning of the first clustering unit 115 is unnecessary (S6: No), the flow proceeds to S9. When the first learning necessity determination unit 119 determines that the learning of the first clustering unit 115 is necessary (S6: required), the first clustering unit 115 is the first feature amount extraction unit 114. The extracted features are acquired and clustered (S7: clustering step), and the obtained clustering parameters are stored in the first clustering parameter storage unit 116 (S8: clustering parameter storage step). Next, the first cluster classification unit 117 classifies the image data from which the feature amount has been extracted into clusters (S9: cluster classification step). Next, the first feature space drawing unit 118 draws the feature space and the cluster distribution based on the image data classified into clusters (S10: drawing step), and ends the process. The information drawn in this way is presented to the user, and the user performs labeling processing on the presented information.

浮遊物分析部120の動作は、色相分析部110と同様であるため、色相分析部110の説明を援用する。 Since the operation of the suspended matter analysis unit 120 is the same as that of the hue analysis unit 110, the description of the hue analysis unit 110 is incorporated.

以上説明した本実施形態によれば、従来技術では必要であった、二値化処理のしきい値並びに空間フィルタリング処理のフィルタサイズ及び重みの調整が不要であり、対象が異なってもモデルの再構築及び再度のチューニングが不要である。更には、複数の畳み込みAE学習部を備えてクラスタリングを行うことから、柔軟な特徴抽出及びクラスタ分類が可能である。従って、特別なチューニングを行うことなく、水質の多様な特徴に対応した水質分析を行うことが可能である。また、本実施形態によれば、色相分析部110及び浮遊物分析部120の出力を連関させることで、高精度な分析が可能となる。 According to the present embodiment described above, it is not necessary to adjust the threshold value of the binarization process and the filter size and weight of the spatial filtering process, which are necessary in the prior art, and the model can be re-modeled even if the target is different. No need to build and retune. Furthermore, since clustering is performed by providing a plurality of convolutional AE learning units, flexible feature extraction and cluster classification are possible. Therefore, it is possible to perform water quality analysis corresponding to various characteristics of water quality without performing special tuning. Further, according to the present embodiment, by linking the outputs of the hue analysis unit 110 and the suspended matter analysis unit 120, highly accurate analysis becomes possible.

<実施形態2>
実施形態1では、色相分析部及び浮遊物分析部を備える水質分析装置を説明したが、本発明に係る水質分析装置は、これに限定されるものではなく、更に移動体分析部を備える構成とすることも可能である。
<Embodiment 2>
In the first embodiment, the water quality analyzer including the hue analysis unit and the suspended matter analysis unit has been described, but the water quality analyzer according to the present invention is not limited to this, and further includes a mobile body analysis unit. It is also possible to do.

<前提技術>
図6は、本実施形態に係る水質分析装置の前提となる移動体分析部の構成を示すブロック図である。図6に示す移動体分析部210は、画像加工部211と、フロー推定部212と、統計量算出部213とを備える。移動体分析部210は、データ蓄積部201のデータを供給可能に構成されている。データ蓄積部201は、データ蓄積部101と同様に、沈殿池に設置されたカメラが取得した沈殿池の動画データを蓄積する。データ蓄積部201は、半導体メモリ及び磁気ディスク等の記録媒体により実現することができる。画像加工部211は、データ蓄積部201の動画データをグレースケール変換し、複数のグレースケール画像データに加工する。フロー推定部212は、物体の動きをベクトル表示するオプティカル・フロー(Optical Flow)によって移動体のフローを推定する。この移動体は、スカム及びフロックである。ここで、オプティカル・フロー(Optical Flow)の計算アルゴリズムには、画素全体の移動体を解析する、密なオプティカル・フロー(Dense Optical Flow)を用いる。密なオプティカル・フロー(Dense Optical Flow)には、Gunnar Farneback法、TV-L1法、Brox法を例示することができる。統計量算出部213は、フロー推定部212によって得られた速度及び移動方向の情報から統計量を算出する。一般に、スカム及びフロックは、処理水そのものと比較して、乱雑な方向及び速度で移動するため、算出した統計量によりスカム及びフロックの有無を評価することが可能となる。画像加工部211、フロー推定部212及び統計量算出部213は、MPU(Micro-Processing Unit)及びCPU(Central Processing Unit)等のプロセッサにより実現することができる。
<Prerequisite technology>
FIG. 6 is a block diagram showing a configuration of a mobile body analysis unit which is a premise of the water quality analysis device according to the present embodiment. The mobile body analysis unit 210 shown in FIG. 6 includes an image processing unit 211, a flow estimation unit 212, and a statistic calculation unit 213. The mobile analysis unit 210 is configured to be able to supply the data of the data storage unit 201. Similar to the data storage unit 101, the data storage unit 201 stores moving image data of the settling basin acquired by a camera installed in the settling basin. The data storage unit 201 can be realized by a recording medium such as a semiconductor memory and a magnetic disk. The image processing unit 211 converts the moving image data of the data storage unit 201 into grayscale and processes it into a plurality of grayscale image data. The flow estimation unit 212 estimates the flow of a moving object by an optical flow that displays the movement of an object as a vector. The mobiles are scum and flock. Here, as the calculation algorithm of the optical flow, a dense optical flow (Dense Optical Flow) that analyzes the moving object of the entire pixel is used. Examples of the dense optical flow (Dense Optical Flow) include the Gunnar Farneback method, the TV-L1 method, and the Brox method. The statistic calculation unit 213 calculates the statistic from the speed and movement direction information obtained by the flow estimation unit 212. In general, scum and frock move in a messy direction and speed as compared with the treated water itself, so that it is possible to evaluate the presence or absence of scum and frock from the calculated statistics. The image processing unit 211, the flow estimation unit 212, and the statistic calculation unit 213 can be realized by a processor such as an MPU (Micro-Processing Unit) and a CPU (Central Processing Unit).

このように、動画を用いた移動体分析部を備えることで、フロック及びスカムの位置、移動方向及び移動速度の定量的な評価が可能である。 As described above, by providing the moving body analysis unit using moving images, it is possible to quantitatively evaluate the positions, moving directions and moving speeds of the flocs and scums.

図7は、本実施形態に係る水質分析装置の構成を示すブロック図である。図7に示す水質分析装置100Aは、データ蓄積部101と、色相分析部110と、浮遊物分析部120と、移動体分析部130とを備える。色相分析部110及び浮遊物分析部120は、図1に示すものと同じであるため実施形態1の説明を援用する。 FIG. 7 is a block diagram showing the configuration of the water quality analyzer according to the present embodiment. The water quality analysis device 100A shown in FIG. 7 includes a data storage unit 101, a hue analysis unit 110, a suspended matter analysis unit 120, and a mobile body analysis unit 130. Since the hue analysis unit 110 and the suspended matter analysis unit 120 are the same as those shown in FIG. 1, the description of the first embodiment is incorporated.

移動体分析部130は、第3の画像加工部131と、第3の畳み込みAE学習部132と、第3の畳み込みAEパラメータ記憶部133と、第3の特徴量抽出部134と、第3のクラスタリング部135と、第3のクラスタリングパラメータ記憶部136と、第3のクラスタ分類部137と、第3の特徴空間描画部138と、第3の学習要否判定部139と、フロー推定部140とを備え、スカム及びフロックの有無を評価可能とする。 The moving body analysis unit 130 includes a third image processing unit 131, a third convolution AE learning unit 132, a third convolution AE parameter storage unit 133, a third feature amount extraction unit 134, and a third. The clustering unit 135, the third clustering parameter storage unit 136, the third cluster classification unit 137, the third feature space drawing unit 138, the third learning necessity determination unit 139, and the flow estimation unit 140. It is possible to evaluate the presence or absence of scum and floc.

次に、移動体分析部130の構成について説明する。第3の画像加工部131は、前提技術における図6に示す画像加工部211と同様に、データ蓄積部101の動画データをグレースケール変換し、複数のグレースケール画像データに加工する。フロー推定部140は、第3の画像加工部131によって加工済みのデータを用いて、前提技術における図6に示すフロー推定部212と同様に、オプティカル・フロー(Optical Flow)によって移動体のフローを推定する。これにより、移動体の移動方向及び移動速度の情報が抽出される。 Next, the configuration of the mobile body analysis unit 130 will be described. The third image processing unit 131 grayscale-converts the moving image data of the data storage unit 101 and processes it into a plurality of grayscale image data, similarly to the image processing unit 211 shown in FIG. 6 in the prerequisite technology. The flow estimation unit 140 uses the data processed by the third image processing unit 131 to generate the flow of the moving body by the optical flow, as in the flow estimation unit 212 shown in FIG. 6 in the prerequisite technology. presume. As a result, information on the moving direction and moving speed of the moving body is extracted.

第3の畳み込みAE学習部132は、フロー推定部140によって得られた、移動体の移動方向及び移動速度の情報を用いて、畳み込みAEを学習する。畳み込みAEについては、実施形態1における第1の畳み込みAE学習部112の説明を援用する。第3の畳み込みAEパラメータ記憶部133は、第3の畳み込みAE学習部132で学習されて得られた畳み込みAEパラメータを記憶する。 The third convolution AE learning unit 132 learns the convolution AE by using the information of the moving direction and the moving speed of the moving body obtained by the flow estimation unit 140. As for the convolution AE, the description of the first convolution AE learning unit 112 in the first embodiment is referred to. The third convolution AE parameter storage unit 133 stores the convolution AE parameters learned and obtained by the third convolution AE learning unit 132.

第3の特徴量抽出部134は、第3の畳み込みAEパラメータ記憶部133に記憶された畳み込みAEパラメータを適用した学習済みのエンコーダを含む畳み込みAEを用いて、第3の画像加工部131によって加工済みのデータの特徴量抽出を行う。特徴量抽出については、実施形態1における第1の特徴量抽出部114の説明を援用する。 The third feature amount extraction unit 134 is processed by the third image processing unit 131 using a convolution AE including a trained encoder to which the convolution AE parameter stored in the third convolution AE parameter storage unit 133 is applied. Extract the features of the completed data. For the feature amount extraction, the description of the first feature amount extraction unit 114 in the first embodiment is referred to.

第3のクラスタリング部135は、第3の特徴量抽出部134が抽出した特徴量に対してクラスタリング手法を適用し、画像データのクラスタリングを行う。第3のクラスタリングパラメータ記憶部136は、第3のクラスタリング部135によって得られたクラスタリングパラメータを記憶する。第3のクラスタ分類部137は、第3の特徴量抽出部134が特徴量抽出を行った画像データの所属クラスタを特徴量に基づいて決定し、各画像データをクラスタに分類する。クラスタリング手法については、第3のクラスタリング部135の説明を援用する。 The third clustering unit 135 applies a clustering method to the feature amount extracted by the third feature amount extraction unit 134 to perform clustering of image data. The third clustering parameter storage unit 136 stores the clustering parameters obtained by the third clustering unit 135. The third cluster classification unit 137 determines the cluster to which the image data to which the third feature amount extraction unit 134 has been extracted belongs based on the feature amount, and classifies each image data into clusters. As for the clustering method, the description of the third clustering unit 135 is referred to.

第3の特徴空間描画部138は、第3のクラスタリング部135及び第3のクラスタ分類部137の情報に基づいて特徴空間及びクラスタ分布を描画することで情報の可視化を行う。特徴空間及びクラスタ分布の描画については、第1の特徴空間描画部118の説明を援用する。 The third feature space drawing unit 138 visualizes the information by drawing the feature space and the cluster distribution based on the information of the third clustering unit 135 and the third cluster classification unit 137. Regarding the drawing of the feature space and the cluster distribution, the description of the first feature space drawing unit 118 is referred to.

なお、第3の畳み込みAE学習部132による学習及び第3のクラスタリング部135によるクラスタリングは、学習が必要な場合、すなわち最初の動作時又は再学習が必要な場合にのみ行えばよい。第3の学習要否判定部139は、第3の畳み込みAE学習部132及び第3のクラスタリング部135の学習の要否を判定し、第3の畳み込みAE学習部132及び第3のクラスタリング部135に対して学習すべきか否かを指示する。 The learning by the third convolution AE learning unit 132 and the clustering by the third clustering unit 135 may be performed only when learning is required, that is, at the time of the first operation or when re-learning is required. The third learning necessity determination unit 139 determines the learning necessity of the third convolution AE learning unit 132 and the third clustering unit 135, and determines the learning necessity of the third convolution AE learning unit 132 and the third clustering unit 135. Instruct whether or not to learn.

なお、上述の移動体分析部130が備える構成のうちプロセッサにより実現されるものは、同一の1つのプロセッサにより実現されていてもよいし、色相分析部110及び浮遊物分析部120が備えるプロセッサと兼用であってもよい。また、上述の移動体分析部130が備える構成のうち記録媒体により実現されるものは、同一の1つの記録媒体により実現されていてもよいし、色相分析部110及び浮遊物分析部120が備える記録媒体と兼用であってもよい。なお、上述の移動体分析部130が備える構成のうちタッチパネル等の入出力装置により実現されるものは、同一の1つのタッチパネルにより実現されていてもよいし、色相分析部110及び浮遊物分析部120が備えるタッチパネルと兼用であってもよい。 Of the configurations included in the mobile body analysis unit 130 described above, those realized by the processor may be realized by the same one processor, or may be realized by the same processor, or the processor included in the hue analysis unit 110 and the suspended matter analysis unit 120. It may be combined. Further, among the configurations included in the mobile body analysis unit 130 described above, those realized by the recording medium may be realized by the same one recording medium, and the hue analysis unit 110 and the suspended matter analysis unit 120 include. It may also be used as a recording medium. Of the configurations included in the mobile body analysis unit 130 described above, those realized by an input / output device such as a touch panel may be realized by the same one touch panel, and the hue analysis unit 110 and the suspended matter analysis unit may be used. It may also be used as a touch panel included in the 120.

移動体分析部130の動作は、色相分析部110と同様であるため、色相分析部110の説明を援用する。 Since the operation of the mobile body analysis unit 130 is the same as that of the hue analysis unit 110, the description of the hue analysis unit 110 is incorporated.

本実施形態によれば、オプティカル・フロー(Optical Flow)の推定結果に対して畳み込みAE及びクラスタリングを行うことで、移動体の特徴抽出及びクラスタ分類が可能となる。また、本実施形態によれば、統計量によって移動体を分析する前提技術と異なり、移動体の移動方向及び移動速度情報に対して、特徴量抽出を直接行うため、より高精度な分析が可能となる。更には、本実施形態によれば、色相分析部110、浮遊物分析部120及び移動体分析部130の出力を連関させることで、更に高精度な分析が可能となる。 According to the present embodiment, by performing convolution AE and clustering on the estimation result of the optical flow, it is possible to extract the features of the moving body and classify the clusters. Further, according to the present embodiment, unlike the precondition technique for analyzing a moving body by statistics, since feature quantity extraction is directly performed for the moving direction and moving speed information of the moving body, more accurate analysis is possible. It becomes. Further, according to the present embodiment, by linking the outputs of the hue analysis unit 110, the suspended matter analysis unit 120, and the mobile body analysis unit 130, more accurate analysis becomes possible.

以上説明した本実施形態によれば、動画を用いる移動体分析部を備えることで、フロック及びスカムの位置、移動方向及び移動速度の定量的な評価が可能であるため、フロックと他の粒子との判別が可能となる。 According to the present embodiment described above, by providing the moving body analysis unit using moving images, it is possible to quantitatively evaluate the positions, moving directions, and moving speeds of the flocs and scums, so that the flocs and other particles can be used. Can be discriminated.

また、本発明は、上述の実施形態に限定されるものではなく、上述の構成に対して、構成要素の付加、削除又は転換を行った様々な変形例も含むものとする。 Further, the present invention is not limited to the above-described embodiment, and includes various modifications in which components are added, deleted, or converted with respect to the above-mentioned configuration.

100 水質分析装置
101 データ蓄積部
110 色相分析部
111 第1の画像加工部
112 第1の畳み込みAE学習部
113 第1の畳み込みAEパラメータ記憶部
114 第1の特徴量抽出部
115 第1のクラスタリング部
116 第1のクラスタリングパラメータ記憶部
117 第1のクラスタ分類部
118 第1の特徴空間描画部
119 第1の学習要否判定部
120 浮遊物分析部
121 第2の画像加工部
122 第2の畳み込みAE学習部
123 第2の畳み込みAEパラメータ記憶部
124 第2の特徴量抽出部
125 第2のクラスタリング部
126 第2のクラスタリングパラメータ記憶部
127 第2のクラスタ分類部
128 第2の特徴空間描画部
129 第2の学習要否判定部
130 移動体分析部
131 第3の画像加工部
132 第3の畳み込みAE学習部
133 第3の畳み込みAEパラメータ記憶部
134 第3の特徴量抽出部
135 第3のクラスタリング部
136 第3のクラスタリングパラメータ記憶部
137 第3のクラスタ分類部
138 第3の特徴空間描画部
139 第3の学習要否判定部
140 フロー推定部
201 データ蓄積部
210 移動体分析部
211 画像加工部
212 フロー推定部
213 統計量算出部
100 Water quality analyzer 101 Data storage unit 110 Huatric analysis unit 111 First image processing unit 112 First convolution AE learning unit 113 First convolution AE parameter storage unit 114 First feature quantity extraction unit 115 First clustering unit 116 First clustering parameter storage unit 117 First cluster classification unit 118 First feature space drawing unit 119 First learning necessity determination unit 120 Floating material analysis unit 121 Second image processing unit 122 Second convolution AE Learning unit 123 Second convolution AE parameter storage unit 124 Second feature amount extraction unit 125 Second clustering unit 126 Second clustering parameter storage unit 127 Second cluster classification unit 128 Second feature space drawing unit 129 Second 2 Learning necessity determination unit 130 Moving object analysis unit 131 Third image processing unit 132 Third convolution AE learning unit 133 Third convolution AE parameter storage unit 134 Third feature quantity extraction unit 135 Third clustering unit 136 Third clustering parameter storage unit 137 Third cluster classification unit 138 Third feature Space drawing unit 139 Third learning necessity determination unit 140 Flow estimation unit 201 Data storage unit 210 Moving object analysis unit 211 Image processing unit 212 Flow estimation unit 213 Statistics calculation unit

Claims (2)

沈殿池の画像データについて第1の畳み込みAEを学習して前記沈殿池の色相の特徴量を抽出し、該色相の特徴量からクラスタリングにより前記画像データを色相のクラスタに分類して色相の特徴空間及びクラスタ分布を描画する色相分析部と、
前記画像データについて前記第1の畳み込みAEとは異なる第2の畳み込みAEを学習して前記沈殿池の浮遊物の特徴量を抽出し、該浮遊物の特徴量からクラスタリングにより前記画像データを浮遊物のクラスタに分類して浮遊物の特徴空間及びクラスタ分布を描画する浮遊物分析部とを備える水質分析装置。
The first convolution AE is learned for the image data of the settling pond, the hue feature amount of the settling pond is extracted, and the image data is classified into hue clusters by clustering from the hue feature amount, and the hue feature space. And the hue analysis unit that draws the cluster distribution,
For the image data, a second convolution AE different from the first convolution AE is learned to extract the feature amount of the suspended matter in the settling pond, and the image data is obtained from the feature amount of the suspended matter by clustering. A water quality analyzer equipped with a floating matter analysis unit that classifies the floating matter into clusters and draws the feature space of the floating matter and the cluster distribution.
前記画像データについて畳み込みAEを学習して前記沈殿池の密なオプティカルフローで求めた移動方向及び移動速度の特徴量を抽出し、該特徴量からクラスタリングにより前記画像データを移動体のクラスタに分類して移動体の特徴空間及びクラスタ分布を描画する移動体分析部を備える請求項1に記載の水質分析装置。 The convolution AE is learned from the image data, and the features of the moving direction and the moving speed obtained by the dense optical flow of the settling pond are extracted, and the image data is classified into a cluster of moving bodies by clustering from the features . The water quality analyzer according to claim 1, further comprising a moving body analysis unit that draws a feature space and a cluster distribution of the moving body.
JP2018023058A 2018-02-13 2018-02-13 Water quality analyzer Active JP7020160B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018023058A JP7020160B2 (en) 2018-02-13 2018-02-13 Water quality analyzer
JP2021116028A JP7147933B2 (en) 2018-02-13 2021-07-14 Water quality analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018023058A JP7020160B2 (en) 2018-02-13 2018-02-13 Water quality analyzer

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021116028A Division JP7147933B2 (en) 2018-02-13 2021-07-14 Water quality analysis method

Publications (3)

Publication Number Publication Date
JP2019136664A JP2019136664A (en) 2019-08-22
JP2019136664A5 JP2019136664A5 (en) 2021-08-26
JP7020160B2 true JP7020160B2 (en) 2022-02-16

Family

ID=67692693

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018023058A Active JP7020160B2 (en) 2018-02-13 2018-02-13 Water quality analyzer
JP2021116028A Active JP7147933B2 (en) 2018-02-13 2021-07-14 Water quality analysis method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021116028A Active JP7147933B2 (en) 2018-02-13 2021-07-14 Water quality analysis method

Country Status (1)

Country Link
JP (2) JP7020160B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7424112B2 (en) 2020-03-06 2024-01-30 株式会社明電舎 Water quality determination device
JP7484535B2 (en) 2020-07-30 2024-05-16 株式会社明電舎 ABNORMALITY DETECTION SYSTEM AND ABNORMALITY DETECTION METHOD
CN113743424B (en) * 2021-09-15 2023-06-27 昆明理工大学 Quantitative characterization method for dynamic flocculation sedimentation dispersion degree of flocs in dynamic flocculation sedimentation of full tailings
CN113588650B (en) * 2021-09-30 2021-12-10 武汉市中卫寰宇医疗系统工程有限公司 Medical sewage purification monitoring system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159614A1 (en) 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0664048B2 (en) * 1985-10-09 1994-08-22 株式会社日立製作所 Aquatic life monitor
JPH06119454A (en) * 1992-10-08 1994-04-28 Babcock Hitachi Kk Method and device for detecting abnormality
JP3319944B2 (en) * 1996-04-12 2002-09-03 日本鋼管株式会社 Water quality monitoring device
JP4173246B2 (en) * 1999-04-28 2008-10-29 株式会社リコー Similar image display method and recording medium storing similar image display processing program
JP5352435B2 (en) * 2009-11-26 2013-11-27 株式会社日立製作所 Classification image creation device
JP6842745B2 (en) * 2016-07-28 2021-03-17 国立大学法人信州大学 Image discrimination device and image discrimination method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159614A1 (en) 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device

Also Published As

Publication number Publication date
JP2019136664A (en) 2019-08-22
JP2021170373A (en) 2021-10-28
JP7147933B2 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
JP7020160B2 (en) Water quality analyzer
CN111768432B (en) Moving target segmentation method and system based on twin deep neural network
Bautista et al. Convolutional neural network for vehicle detection in low resolution traffic videos
WO2022111219A1 (en) Domain adaptation device operation and maintenance system and method
Chen et al. A light-weighted CNN model for wafer structural defect detection
Jahedsaravani et al. An image segmentation algorithm for measurement of flotation froth bubble size distributions
CN110135514B (en) Workpiece classification method, device, equipment and medium
CN112381788A (en) Part surface defect increment detection method based on double-branch matching network
CN106203461B (en) Image processing method and device
CN112261403B (en) Device and method for detecting dirt of vehicle-mounted camera
US11807551B2 (en) Systems and methods for treating wastewater
CN112488229A (en) Domain self-adaptive unsupervised target detection method based on feature separation and alignment
CN112949378A (en) Bacterial microscopic image segmentation method based on deep learning network
CN114863098A (en) Tiny weak defect segmentation method for industrial scene
AU2017443986A1 (en) Color adaptation using adversarial training networks
CN111161213A (en) Industrial product defect image classification method based on knowledge graph
Gharehchobogh et al. Flotation froth image segmentation using Mask R-CNN
CN107679581B (en) Method for processing gas flow distribution based on characteristic values of infrared image pixel matrix
Culibrk Neural network approach to Bayesian background modeling for video object segmentation
CN116958113A (en) Product detection method, device, equipment and storage medium
CN110414595B (en) Method for estimating direction field of texture image with direction consistency
KR20220167827A (en) Smart factory system capable of detecting defects based on artificial intelligence
Chen et al. Artificial intelligence application to bridge painting assessment
JP7424112B2 (en) Water quality determination device
Ganegedara et al. Self organising map based region of interest labelling for automated defect identification in large sewer pipe image collections

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7020160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150