JP7262301B2 - Determination device, determination method, and program - Google Patents
Determination device, determination method, and program Download PDFInfo
- Publication number
- JP7262301B2 JP7262301B2 JP2019093677A JP2019093677A JP7262301B2 JP 7262301 B2 JP7262301 B2 JP 7262301B2 JP 2019093677 A JP2019093677 A JP 2019093677A JP 2019093677 A JP2019093677 A JP 2019093677A JP 7262301 B2 JP7262301 B2 JP 7262301B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- determination
- stool
- estimation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、判定装置、判定方法、及びプログラムに関する。 The present invention relates to a determination device, determination method, and program.
生体の排泄の状況を把握する試みがある。例えば、カメラで排泄物を撮影し、その画像を解析する技術が開示されている(例えば特許文献1参照)。
Attempts have been made to grasp the state of excretion in living organisms. For example, a technique of photographing excrement with a camera and analyzing the image has been disclosed (see
また、人間の表情の解析などを行うために機械学習を用いることが一般的に行われている。機械学習を用いた手法では、例えば、人間の表情と、その表情に対応する感情とを対応付けた学習データを用いて機械学習を実行することにより、学習済みモデルを作成する。この学習済みモデルに人間の表情を入力させることにより、その表情が意味する感情を推定させることができ、表情の解析を行うことが可能である。 Machine learning is generally used to analyze human facial expressions. In the technique using machine learning, for example, a learned model is created by executing machine learning using learning data in which human facial expressions and emotions corresponding to the facial expressions are associated with each other. By inputting a human facial expression into this trained model, it is possible to estimate the emotion that the facial expression means, and to analyze the facial expression.
上記の特許文献1のような技術を用いた場合においては、解析の精度が十分なものになるとは言い難かった。すなわち、予め作成した便の排出速度、固さ又は大きさと、便の分類(硬便や水様便など)を対応付けたテーブルを用いた解析を行うため、テーブルに設定されていない対象について正しい分類が得られない懸念がある。
It is difficult to say that the accuracy of the analysis is sufficient when the technique disclosed in
一方、上述した機械学習の手法を、排泄物の解析に応用することが考えられる。例えば、排泄後の便鉢の内部空間を撮像した画像と、その分類やその状況を評価した結果とを対応付けた学習データを用いて機械学習を実行することにより学習済みモデルを作成する。この学習済みモデルに、解析の対象とする画像を入力させることにより、排泄物における望ましい解析の結果を推定することができる。 On the other hand, it is conceivable to apply the above-described machine learning method to the analysis of excrement. For example, a learned model is created by executing machine learning using learning data in which an image of the internal space of the toilet bowl after excretion is associated with the results of evaluating the classification and the situation. By inputting an image to be analyzed into this trained model, it is possible to estimate a desirable analysis result of the excreta.
しかしながら、機械学習の手法を用いて、画像の全体から詳細な判定内容を推定させようとすると、高い演算能力が必要となり、装置コストが増大してしまうという問題があった。 However, when attempting to estimate detailed determination contents from the entire image using a machine learning method, high computing power is required, which causes the problem of increased device cost.
本発明は、このような事情に鑑みてなされたものであり、その目的は、機械学習を用いた排泄物に関する解析において、装置コストの上昇を低減することができる判定装置、判定方法、及びプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a determination device, a determination method, and a program that can reduce the increase in device cost in the analysis of excrement using machine learning. is to provide
上述した課題を解決するために本発明の一実施形態は、便に関する判定事項を判定する対象となる対象画像であり、排泄後における便鉢の内部空間を撮像した対象画像の画像情報を取得する画像情報取得部と、前記対象画像の全体を示す全体画像、及び前記対象画像の一部の領域を示す部分画像を生成する前処理部と、排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行う推定部と、前記推定部による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う判定部と、を備える判定装置である。 In order to solve the above-described problems, one embodiment of the present invention acquires image information of a target image, which is a target image for determining items related to feces, and captures the internal space of a toilet bowl after excretion. an image information acquisition unit; a preprocessing unit that generates an entire image showing the entire target image and a partial image showing a partial area of the target image; and an image showing the entire internal space of the toilet bowl after excretion. and the overall image for learning is input to a trained model that has learned the correspondence relationship between the overall image for learning and the determination result of the first overall determination item among the determination items by machine learning using a neural network. By doing so, a first estimation regarding the first determination item is performed for the entire image, and a learning partial image that is a partial area of the learning entire image and the first determination item among the determination items are obtained in more detail than the first determination item. A second estimation regarding the second determination item is performed for the partial image by inputting the partial image to a trained model that has learned the correspondence relationship with the second determination item by machine learning using a neural network. The determination device includes an estimation unit, and a determination unit that determines the determination item for the target image based on the estimation result of the estimation unit.
また、本発明の一実施形態は、上述の判定装置であって、前記前処理部は、前記対象画像における便鉢の開口部を少なくとも含む部分画像を生成する。 Moreover, one embodiment of the present invention is the above-described determination device, wherein the preprocessing unit generates a partial image including at least the opening of the toilet bowl in the target image.
また、本発明の一実施形態は、上述の判定装置であって、前記推定部は、前記第1推定として便の飛散の有無を推定し、前記第2推定として便の性状を推定する。 Moreover, one embodiment of the present invention is the above-described determination device, wherein the estimation unit estimates the presence or absence of scattering of stool as the first estimation, and estimates the nature of the stool as the second estimation.
また、本発明の一実施形態は、上述の判定装置であって、前記判定部は、前記第1推定についての推定結果を用いて、前記第2推定の推定結果を補正する。 Moreover, one embodiment of the present invention is the above-described determination device, wherein the determination unit corrects the estimation result of the second estimation using the estimation result of the first estimation.
また、本発明の一実施形態は、画像情報取得部が、便に関する判定事項を判定する対象となる対象画像であり、排泄後における便鉢の内部空間を撮像した対象画像の画像情報を取得し、前処理部が、前記対象画像としての全体画像、及び前記対象画像の一部の領域である部分画像を生成し、推定部が、排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行い、判定部が、前記推定部による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う、判定方法である。 Further, in one embodiment of the present invention, the image information acquisition unit acquires image information of a target image that is a target image for determining items related to stool, and that is an image of the internal space of the toilet bowl after excretion. , the preprocessing unit generates a whole image as the target image and a partial image that is a partial area of the target image, and the estimation unit is an image showing the entire internal space of the toilet bowl after excretion. By inputting the whole image to a learned model that has learned the correspondence relationship between the whole image for learning and the determination result of the first overall judgment item among the judgment items by machine learning using a neural network. and performing a first estimation on the first determination item for the whole image, and performing a learning partial image that is a partial area of the learning whole image and a first determination item that is more detailed than the first determination item among the determination items. 2, by inputting the partial image into a trained model that has learned a correspondence relationship with the second judgment item by machine learning using a neural network, performing a second estimation regarding the second judgment item for the partial image, and making a judgment. A determination method in which a unit determines the determination item for the target image based on an estimation result by the estimation unit.
また、本発明の一実施形態は、判定装置のコンピュータを、便に関する判定事項を判定する対象となる対象画像であり、排泄後における便鉢の内部空間を撮像した対象画像の画像情報を取得する画像情報取得手段、前記対象画像としての全体画像、及び前記対象画像の一部の領域である部分画像を生成する前処理手段、排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行う推定手段、前記推定手段による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う判定手段、として機能させるためのプログラムである。 In one embodiment of the present invention, the computer of the determination device acquires image information of a target image that is a target image for determining a determination item related to stool, and that is an image of the internal space of the toilet bowl after excretion. image information acquisition means; preprocessing means for generating an entire image as the target image; and a partial image that is a partial area of the target image; By inputting the whole image to a trained model that has learned the correspondence relationship between the whole image and the judgment result of the first big judgment item among the judgment items by machine learning using a neural network, performing a first estimation on the first determination item for the entire image, and performing a learning partial image that is a partial area of the learning entire image and a second determination that is more detailed than the first determination item among the determination items; estimating means for performing a second estimation on the second determination item for the partial image by inputting the partial image to a trained model that has learned a correspondence relationship with the item by machine learning using a neural network; A program for functioning as determination means for performing determination regarding the determination item for the target image based on an estimation result by the estimation means.
機械学習を用いた排泄物に関する解析において、装置コストの上昇を低減することができる。 An increase in device cost can be reduced in the analysis of excreta using machine learning.
以下、実施形態の判定装置を、図面を参照して説明する。 A determination device according to an embodiment will be described below with reference to the drawings.
(第1の実施形態)
まず、第1の実施形態について説明する。
図1は、第1の実施形態に係る判定装置10が適用される判定システム1の構成を示すブロック図である。判定システム1は、例えば、判定装置10と、学習装置20とを備える。
(First embodiment)
First, the first embodiment will be described.
FIG. 1 is a block diagram showing the configuration of a
判定装置10は、判定の対象とする対象画像(以下、単に画像ともいう)を基に、排泄に関する判定を行う。対象画像は、排泄に関する画像であって、例えば、排泄後の便鉢32(図3参照)の内部空間34(同)を撮像した画像である。排泄後とは、使用者が排泄をした後、便器が洗浄される前までの任意の時点であり、例えば、便器30(同)に着座していた使用者が脱座した時である。排泄に関する判定とは、排泄行動と状況、及び排泄物の洗浄に関する判定事項であって、例えば、排泄の有無、尿の有無、便の有無、便の性状、紙(トイレットペーパ)の使用の有無、紙の使用量等の情報に基づく排泄後の便器30洗浄方法や排泄の状況などである。便の性状は、便の形状を示す「硬便」「普通便」「軟便」「泥状便」「水様便」等の便の状態を示す情報であってもよいし、「硬い」「柔らかい」など性状や状態を示す情報であってもよい。便の形状は、便鉢への飛び散りや、溜水部の便の溶け出し方、濁り方、溜水内部(水中)や水面より上(空気中)での特徴などの観点でラベル付(評価)を行う。また便の性状は便の量を示す情報であってもよいし、便の量は多いか少ないかの二つ、あるいは多いか普通か少ないかの三つ等の区分けを示す情報であっても良いし、便の量を数値で示す情報であっても良い。また、便の性状は、便の色を示す情報であってもよい。便の色は、例えば、黄土色~茶色である場合を通常の便の色とし、通常の便の色か否かを示す情報であってもよいし、特に便の色が黒色(いわゆるタール便の色)か否かを示す情報であってもよい。排泄後の便器30の洗浄方法には、洗浄に用いる洗浄水の水量、水圧、及び洗浄の回数などが含まれる。
The
判定装置10は、例えば、画像情報取得部11と、解析部12と、判定部13と、出力部14と、画像情報記憶部15と、学習済みモデル記憶部16と、判定結果記憶部17と、を備える。ここで、解析部12は、「推定部」の一例である。
The
画像情報取得部11は、排泄に関して撮像された、便鉢32の内部空間34の画像(対象画像)の画像情報を取得する。画像情報取得部11は、取得した画像情報を、解析部12に出力すると共に、画像情報記憶部15に記憶させる。画像情報取得部11は、便器装置3及び撮像装置4(図3参照)と接続する。
The image
解析部12は、画像情報取得部11から得られた画像情報に対応する画像(対象画像)の解析を行う。解析部12による解析とは、排泄に関する画像を基に、排泄に関する判定の項目について推定を行うことである。
The
解析部12は、例えば、判定部13の判定項目に応じた学習済みモデルを用いて推定を行う。学習済みモデルは、例えば、学習済みモデル記憶部16に記憶されたモデルであって、排泄に関する画像と、排泄に関する評価の結果との対応関係を学習したモデルである。
The
例えば、解析部12は、画像と尿の有無との対応関係を学習した学習済みモデルから得られた出力を尿の有無を推定した推定結果とする。また、解析部12は、画像と便の有無との対応関係を学習した学習済みモデルから得られた出力を便の有無を推定した推定結果とする。また、解析部12は、画像と便の性状との対応関係を学習した学習済みモデルから得られた出力を便の性状を推定した推定結果とする。また、解析部12は、画像と紙の使用の有無との対応関係を学習した学習済みモデルから得られた出力を紙の使用の有無を推定した推定結果とする。また、解析部12は、画像と紙の使用量との対応関係を学習した学習済みモデルから得られた出力を紙の使用量を推定した推定結果とする。
For example, the
解析部12は、画像から複数の項目を推定する学習済みモデルを用いて推定を行うようにしてもよい。例えば、解析部12は、画像と、尿及び便それぞれの有無との対応関係を学習した学習済みモデルを用いて推定を行うようにしてもよい。解析部12は、学習済みモデルから画像に尿及び便の何れもないと推定された場合に、排泄が無いと推定する。
The
判定部13は、解析部12から得られた解析結果を用いて、排泄に関する判定を行う。例えば、判定部13は、画像から推定した尿の有無を、その画像における尿の有無を判定した判定結果とする。また、判定部13は、画像から推定した便の有無を、その画像における便の有無を判定した判定結果とする。また、判定部13は、画像から推定した便の性状を、その画像における便の性状を判定した判定結果とする。また、判定部13は、画像から推定した紙の使用の有無を、その画像における紙の使用の有無を判定した判定結果とする。また、判定部13は、画像から推定した紙の使用量を、その画像における紙の使用量を判定した判定結果とする。
The
判定部13は、複数の推定結果を用いて、排泄に関する判定を行うようにしてもよい。例えば、画像から推定した便の性状、及び紙の使用量に基づいて、排泄後の便器30の洗浄方法を判定するようにしてもよい。
The
出力部14は、判定部13による判定結果を出力する。出力部14は、例えば、排泄行動を行ったユーザの端末に判定結果を送信するようにしてもよい。これにより、ユーザが、自身の排泄行動と状況の判定結果を認識することが可能である。
画像情報記憶部15は、画像情報取得部11により取得された画像情報を記憶する。
学習済みモデル記憶部16は、判定項目の各々に対応した学習済みモデルを記憶する。
判定結果記憶部17は、判定部13による判定結果を記憶する。
The
The image
The learned
The determination
学習済みモデル記憶部16に記憶される学習済みモデルは、例えば、ディープラーニング(DL)の手法を用いて作成される。DLは、多層のニューラルネットワークで構成されるディープニューラルネットワーク(DNN)による機械学習の手法である。DNNは、神経科学における予測符号化の原理から発想を得たネットワークにより実現され、神経伝達網を摸した関数により構築される。DLの手法を用いることにより、学習済みモデルに、あたかも人間の思考と同じように、画像に内在する特徴量を自動的に認識させることができる。すなわち、特徴量を抽出する作業を行うことなく、学習済みモデルにデータそのものを学習させることにより、直接画像から推定を行うことが可能となる。
A trained model stored in the trained
なお、本実施形態では、学習済みモデルがDLの手法を用いて作成された場合を例に説明するが、これに限定されない。学習済みモデルは、少なくとも画像データからその特徴量を抽出することなく、画像データと便性の評価結果とを対応付けた学習データを学習させることにより作成されたモデルであればよい。ここでの画像データは、便鉢32の内部空間34の様々な画像である。
In this embodiment, a case in which a trained model is created using the DL technique will be described as an example, but the present invention is not limited to this. The trained model may be a model created by learning learning data in which image data and convenience evaluation results are associated with each other without extracting feature amounts from at least image data. The image data here are various images of the
図2は、第1の実施形態に係る学習済みモデル記憶部16の構成を示すブロック図である。学習済みモデル記憶部16は、例えば、尿有無推定モデル161と、便有無推定モデル162と、便性状推定モデル163と、紙使用有無推定モデル165と、使用紙量推定モデル166とを備える。
FIG. 2 is a block diagram showing the configuration of the learned
尿有無推定モデル161は、画像と尿の有無との対応関係を学習した学習済みモデルであり、排泄に関する画像に、その画像から判断された尿の有無を示す情報が対応付けられた学習データを学習させることにより作成される。
便有無推定モデル162は、画像と便の有無との対応関係を学習した学習済みモデルであり、排泄に関する画像に、その画像から判断された便の有無を示す情報が対応付けられた学習データを学習させることにより作成される。
The urine presence/
The stool presence/
便性状推定モデル163は、画像と便の性状との対応関係を学習した学習済みモデルであり、排泄に関する画像に、その画像から判断された便の性状を示す情報が対応付けられた学習データを学習させることにより作成される。
The stool
紙使用有無推定モデル165は、画像と紙の使用の有無との対応関係を学習した学習済みモデルであり、排泄に関する画像に、その画像から判断された使用された紙の有無を示す情報が対応付けられた学習データを学習させることにより作成される。
使用紙量推定モデル166は、画像と紙の使用量との対応関係を学習した学習済みモデルであり、排泄に関する画像に、その画像から判断された紙の使用量を示す情報が対応付けられた学習データを学習させることにより作成される。紙の使用量は多いか少ないかの二つ、或いは多いか普通か少ないかの三つなどの区分けを示す情報であってもよいし、紙の量を数値で示す情報であってもよい。
なお、画像から排泄の有無等を判断する方法としては、例えば、学習データを作成する担当者が判断することが考えられる。
The paper usage/
The paper
In addition, as a method of determining the presence or absence of excretion from the image, for example, it is conceivable that the person in charge of creating the learning data makes the determination.
図3は、第1の実施形態に係る判定装置10が判定の対象とする画像について説明する図である。図3には、便器装置3と、撮像装置4との位置関係が模式的に示されている。
FIG. 3 is a diagram illustrating an image to be determined by the
便器装置3は、例えば、便鉢32を有する便器30を備える。便器装置3は、便鉢32の内部空間34に設けられた開口部36に、洗浄水Sを供給可能に構成されている。便器装置3は、便器30に設けられた機能部(不図示)により、便器装置3の使用者の着座や脱座、局部洗浄の使用開始、及び排泄後の便鉢32の洗浄の操作などが検知される。便器装置3は、機能部による検知結果を、判定装置10に送信する。
The
なお、以下の説明では、便器装置3の使用者が便器30に着座した場合において、使用者の前側を「前側」、後側を「後側」という。また、便器装置3の使用者が便器30に着座した場合において、使用者の左側を「左側」、右側を「右側」という。また、便器装置3が設置されている床面から離れている側を「上側」、床面に近い側を「下側」という。
In the following description, when the user of the
撮像装置4は、排泄行動に関する内容が撮像可能に設けられる。撮像装置4は、便器30の上側、例えば、便鉢32の後側の縁の内側などに、便鉢32の内部空間34の方向にレンズが向くように設置される。撮像装置4は、例えば、判定装置10の指示により撮像を行い、撮像した画像の画像情報を判定装置10に送信する。この場合、判定装置10は、通信部18を介して、撮像装置4に撮像の指示を示す制御情報を送信する。
The
ここで、第1の実施形態に係る判定装置10が行う処理について、図4~図6を用いて説明する。図4は第1の実施形態に係る判定装置10が行う処理の全体の流れ、図5は判定装置10が行う判定処理の流れを示すフローチャートである。図6は判定装置10が行う洗浄方法の判定処理の流れを示すフローチャートである。
Here, processing performed by the
まず、図4を用いて、判定装置10が行う処理の全体の流れを説明する。
判定装置10は、便器装置3との通信により、便器装置3の使用者が便器30に着座したか否かを判定し(ステップS10)、使用者が便器30に着座したと判定する場合、画像情報を取得する(ステップS11)。画像情報は、排泄に関する画像の画像情報である。判定装置10は、撮像装置4に撮像を指示する制御信号を送信し、撮像装置4に便鉢32の内部空間34を撮像させ、撮像させた画像の画像情報を送信させることにより、画像情報を取得する。
なお、図4に示すフローチャートでは、使用者による着座を判定した判定結果を、画像情報を取得するトリガーとして用いる場合を例示して説明したが、これに限定されることはない。画像情報を取得するトリガーとして、他の内容の判定結果が用いられてもよいし、着座を判定した判定結果と他の内容の判定結果との双方を用いて、複合的な条件充足した場合に、画像情報を取得するようにしてもよい。他の内容の判定結果とは、例えば、赤外線などを用いて人体の存在を検知する人体検知センサの検知結果である。この場合、例えば人体検知センサにより、使用者が便器30に近づいたことを検知した場合に、画像取得を開始する。
First, with reference to FIG. 4, the overall flow of processing performed by the
The
In the flowchart shown in FIG. 4, the case where the determination result of determining whether the user is seated is used as a trigger for acquiring image information has been described as an example, but the present invention is not limited to this. As a trigger for acquiring image information, the determination result of other content may be used, and when multiple conditions are satisfied using both the determination result of determining the seating and the determination result of other content , the image information may be acquired. The determination result of other content is, for example, the detection result of a human body detection sensor that detects the presence of a human body using infrared rays or the like. In this case, for example, when the human body detection sensor detects that the user has approached the
次に判定装置10は、判定処理を行う(ステップS12)。判定処理の内容については、図5を用いて説明する。判定装置10は、判定結果を判定結果記憶部17に記憶する(ステップS13)。
次に、判定装置10は、便器装置3との通信により、便器装置3の使用者が脱座したか否かを判定し(ステップS14)、使用者が脱座したと判定する場合、処理を終了する。一方、判定装置10は、使用者が脱座していないと判定する場合、一定時間待機し(ステップS15)、ステップS11に戻る。
Next, the
Next, the
次に、図5を用いて、判定装置10が行う判定処理の流れを説明する。
判定装置10は、尿有無推定モデル161を用いて、画像における尿の有無を推定する(ステップS122)。
Next, the flow of determination processing performed by the
The
また、判定装置10は、便有無推定モデル162を用いて、画像における便の有無を推定し(ステップS123)、推定結果に基づいて便の有無を判定する(ステップS124)。
The
判定装置10は、ステップS124において便有りと推定した場合(ステップS124、YES)、便性状推定モデル163を用いて便の性状を推定する(ステップS125)。
If
また、判定装置10は、紙使用有無推定モデル165を用いて画像における紙の使用の有無を推定する(ステップS126)。
The
判定装置10は、ステップS126において紙の使用有りと推定した場合(ステップS127、YES)、使用紙量推定モデル166を用いて紙の使用量を推定する(ステップS128)。
判定装置10は、使用後の便器30の洗浄方法を判定する(ステップS129)。
If it is estimated that paper is used in step S126 (step S127, YES), the
The
判定装置10が洗浄方法を判定する処理の内容について、図6を用いて説明する。図6に示すフローチャートでは、判定装置10は、洗浄方法を「大」、「中」、「小」、又は「無」の4つの何れかに判定する場合を例示して説明する。洗浄方法における「大」、「中」、「小」は、「大」、「中」、「小」の順に洗浄の強度が小さいことを意味する。洗浄の強度は、便鉢32を洗浄する強さの度合いであり、例えば、強度が小さいほど洗浄水Sの量が少なく、強度が大きいほど洗浄水Sの量が多くなる。或いは、強度が小さいほど洗浄する回数が少なく、強度が大きいほど洗浄する回数が多くなるものであってもよい。なお、洗浄方法が「無」である場合、便鉢32の洗浄を行わないことを意味する。
The contents of the processing for determining the cleaning method by the
判定装置10は、紙の使用の有無を判定し(ステップS130)、紙の使用が有ったと判定した場合、紙の使用量が多いか否かを判定する(ステップS131)。判定装置10は、ステップS126にて推定した紙の量が所定の閾値以上である場合に紙の使用量が多いと判定し、所定の閾値未満である場合に紙の使用量が少ないと判定する。判定装置10は、紙の使用量が多いと判定した場合(ステップS131、YES)、洗浄方法を「大」と判定する(ステップS132)。
The
判定装置10は、紙の使用量が少ないと判定した場合(ステップS131、NO)、便が有るか否かを判定する(ステップS133)。判定装置10は、ステップS123にて推定した便の有無の推定結果に応じて便の有無を判定する。判定装置10は、便が有ると判定した場合(ステップS133、YES)、便の量が多いか否かを判定する(ステップS134)。判定装置10は、ステップS125にて推定した便の性状において、便の量が所定の閾値以上であると推定された場合に便の量が多いと判定し、所定の閾値未満である場合に便の量が少ないと判定する。判定装置10は、便の量が多いと判定した場合(ステップS134、YES)、洗浄方法を「大」と判定する(ステップS132)。
When determining that the amount of paper used is small (step S131, NO), the
判定装置10は、便の量が少ないと判定した場合(ステップS134、NO)、便の形状が水様便以外であるか否かを判定する(ステップS135)。判定装置10は、ステップS125にて推定した便の性状において、便の形状が水様便ではない(つまり、硬便、普通便、軟便、泥状便の何れかである)と推定された場合に、便の形状が水様便以外であると判定し、便の形状が水様便であると推定された場合に便の形状が水様便であると判定する。判定装置10は、便の形状が水様便以外であると判定した場合(ステップS135、YES)、洗浄方法を「中」と判定する(ステップS136)。一方、判定装置10は、便の形状が水様便であると判定した場合(ステップS135、NO)、洗浄方法を「小」と判定する(ステップS138)。
When determining that the amount of stool is small (step S134, NO), the
判定装置10は、ステップS133にて便が無いと判定した場合(ステップS133、NO)、尿が有るか否かを判定する(ステップS137)。判定装置10は、ステップS122にて推定した尿の有無の推定結果に応じて尿の有無を判定する。判定装置10は、尿が有ると判定した場合(ステップS137、YES)、洗浄方法を「小」と判定する(ステップS138)。一方、判定装置10は、尿が無いと判定した場合(ステップS137、NO)、洗浄方法を「無」と判定する(ステップS139)。
When determining that there is no stool in step S133 (step S133, NO), the
図6に示すフローチャートの例のように、判定装置10が、尿の有無、便の有無、紙の有無を推定した結果の組み合わせに応じて洗浄方法をそれぞれ判定することにより、洗浄水量を細かく制御することができ、十分な洗浄を行いつつ、水の無駄遣いを抑制して、適切な節水を行うことが可能である。
As in the example of the flowchart shown in FIG. 6, the
なお、判定装置10は、使用者が排泄を行ったか否かを、ステップS122に示す尿の有無を推定した推定結果、及びステップS123に示す便の有無を推定した推定結果、を用いて使用者が排泄を行ったか否かを判定してもよい。この場合、判定装置10は、尿が無いと推定され、且つ便が無いと推定された場合に、使用者が排泄を行っていないと判定する。
Note that the
以上説明したように、第1の実施形態の判定装置10は、画像情報取得部11と、解析部12と、判定部13とを備える。画像情報取得部11は、便鉢32の内部空間34を撮像した画像(対象画像)の画像情報を取得する。解析部12は、学習済みモデルに画像情報を入力させることにより、対象画像について排泄に関する判定事項の推定を行う。判定部13は、推定結果に基づいて画像について判定事項の判定を行う。学習済みモデルは、DLの手法を用いて学習されたモデルである。DLの手法を用いて学習を行う場合、画像における排泄の有無等の判定項目を判断した結果のラベリング(対応付け)のみすればよいため、画像から特徴量を抽出して学習データを作成する必要がない。このため、どのような特徴量をどのような手法により抽出すればよいかを検討する時間が必要ない。すなわち、第1の実施形態の判定装置10は、機械学習を用いた排泄行動に関する解析において、開発に要する時間を低減することができる。
As described above, the
また、第1の実施形態の判定装置10では、対象画像は、排泄後における便鉢32の内部空間34を撮像した画像である。これにより、例えば、排泄物が落下中の画像を連写することにより得られる、数百枚の画像を判定対象とする場合よりも、画像の枚数を抑えることが可能である。このため、推定や判定に要する負荷を低減させ、開発に要する時間を低減することができる。
Further, in the
また、第1の実施形態の判定装置10では、判定事項は、尿の有無、便の有無、便の性状のうち少なくとも何れか一つを含む。これにより、第1の実施形態の判定装置10では、排泄物に関する判定を行うことができる。
Further, in the
また、第1の実施形態の判定装置10では、判定事項は、排泄における紙の使用の有無、及び紙が使用された場合における紙の使用量を含む。これにより、第1の実施形態の判定装置10では、排泄における紙の使用に関する判定を行うことができ、判定結果を用いて例えば、便器30の洗浄方法を判定するための指標に用いることが可能となる。
Further, in the
また、第1の実施形態の判定装置10では、判定部13は、対象画像に示された状況における便器30を洗浄する洗浄方法を判定する。これにより、第1の実施形態の判定装置10では、排泄物の判定だけでなく、便器30の洗浄方法の判定を行うことができる。
Further, in the
また、第1の実施形態の判定装置10では、判定事項は、便の性状、及び排泄において使用された紙の量のうち少なくとも一つを含み、解析部12は、対象画像における便の性状、及び排泄において使用された紙の量のうち少なくとも一つを推定し、判定部13は、解析部12による推定結果を用いて対象画像に示された状況における便器30を洗浄する洗浄方法を判定する。これにより、第1の実施形態の判定装置10では、排泄物や紙の使用量に応じた適切な洗浄方法を判定することができる。
In addition, in the
なお、本実施形態では、排泄物の判定と洗浄方法の判定とを行う場合を例示して説明したが、排泄物の判定のみ、或いは洗浄方法の判定のみを行うようにしてもよい。 In the present embodiment, the case where the determination of the excrement and the determination of the cleaning method are performed has been described as an example, but only the determination of the excrement or the determination of the cleaning method may be performed.
また、第1の実施形態の判定装置10では、判定事項は、排泄を行ったか否かの判定を含む。これにより、例えば、高齢者施設などにおいて、高齢者の見守りを行う場合において、高齢者が便器装置3にて排泄を行ったか否かを把握することが可能である。高齢者をトイレに誘導した場合に自力で排泄したのか、或いは排泄しなかったのか否かを基に、介護の内容を検討することもできる。
なお、排泄物に関する判定結果を用いて使用者の健康状態を判定するようにしてもよい。
Moreover, in the
It should be noted that the user's health condition may be determined using the determination result regarding excrement.
(第2の実施形態)
次に、第2の実施形態について説明する。本実施形態では、紙の使用の有無などを判定対象とせず、便の性状のみを判定の対象とする点において上述した実施形態と異なる。また、対象画像に前処理を行う点において、上述した実施形態と異なる。ここでの前処理は、モデルに学習用の画像を機械学習させる前に、学習用の画像に対して行われる処理である。また、前処理は、学習済みモデルに未学習の画像を入力させる前に、未学習の画像に対して行われる処理である。以下の説明では、上述した実施形態と相違する構成のみ説明し、上述した実施形態と同等の構成については同じ符号を付してその説明を省略する。
(Second embodiment)
Next, a second embodiment will be described. This embodiment differs from the above-described embodiments in that it does not determine whether or not paper is used, but only the properties of stool. Moreover, it differs from the above-described embodiments in that preprocessing is performed on the target image. The preprocessing here is processing performed on the learning image before the model undergoes machine learning on the learning image. Also, preprocessing is processing performed on an unlearned image before inputting the unlearned image to the trained model. In the following description, only configurations different from the above-described embodiment will be described, and configurations equivalent to those of the above-described embodiment will be denoted by the same reference numerals, and descriptions thereof will be omitted.
図7は、第2の実施形態の判定装置10が行う判定について説明する図である。図7には、特定の物をタイプA、B、Cの三種類に分類しようとする際の概念図が示されている。
一般に、便などの様々な性状を取り得る物を、その性状に基づいてタイプA、B、Cの三種類に分類しようとする場合、全ての物を明確に分類することは困難である。すなわち、タイプA、B、Cがそれぞれ混ざり合う状況が発生する場合が多い。例えば、図7に示すように、明確にタイプAと分類することができる領域E1、タイプA又はBと分類されるタイプAとBとが混ざる領域E2、明確にタイプBと分類することができる領域E3、タイプB又はCと分類されるタイプBとCとが混ざる領域E4、明確にタイプCと分類することができる領域E5、タイプC又はAと分類されるタイプCとAとが混ざる領域E6の領域が発生する。
FIG. 7 is a diagram for explaining the determination made by the
In general, when trying to classify substances such as stool that can have various properties into three types of types A, B, and C based on their properties, it is difficult to clearly classify all substances. That is, there are many cases where types A, B, and C are mixed. For example, as shown in FIG. 7, an area E1 that can be clearly classified as type A, an area E2 that is a mixture of types A and B classified as type A or B, and an area that can be clearly classified as type B. Area E3, area E4 where type B and C are mixed and classified as type B or C, area E5 which can be clearly classified as type C, area where type C and A are mixed and classified as type C or A A region of E6 occurs.
DLにより、便の性状をタイプA、B、Cの三種類に分類するような学習済みモデルを構築した場合、タイプA、B、Cがそれぞれ混ざり合う領域において、推定の精度が低下することが考えられる。特に、水様便が便鉢32に溜められた洗浄水S(溜水面)に落下すると、落下した水様便から洗浄水Sに便の色が移り、拡散してしまう。これにより、水様便の前に排泄された水様便とは異なる性状の便がある場合であっても、水様便とは異なる性状の便と色が移った洗浄水Sとの色の差がほとんどなくなってしまう。この場合、学習済みモデルが、水様便とは異なる性状を有する便の性状を認識できなくなってしまい、水様便とは異なる性状の便があるにも関わらず、水様便と推定する等、推定誤りが生じることが考えられる。学習済みモデルによる推定に誤りがある場合、対象画像の判定に誤りが生じてしまう。
When building a trained model that classifies stool properties into three types, A, B, and C, using DL, estimation accuracy may decrease in areas where types A, B, and C are mixed. Conceivable. In particular, when watery stool falls into the wash water S (water surface) stored in the
この対策として、本実施形態では、前処理により洗浄水Sの濁りなどの、推定誤りの要因となり得る要素(以下、ノイズ成分という)を除去する。これにより、学習済みモデルによる推定誤りを低減させ、対象画像の判定誤りを低減させることができる。 As a countermeasure, in the present embodiment, elements (hereinafter referred to as noise components) that may cause estimation errors, such as turbidity of the cleaning water S, are removed by preprocessing. As a result, it is possible to reduce the estimation error by the trained model and the judgment error of the target image.
図8は、第2の実施形態に係る判定装置10Aが適用される判定システム1Aの構成を示すブロック図である。判定システム1Aは、例えば、判定装置10A備える。判定装置10Aは、画像情報取得部11Aと、解析部12Aと、判定部13Aと、前処理部19を備える。
FIG. 8 is a block diagram showing the configuration of a determination system 1A to which a
画像情報取得部11Aは、排泄前における便鉢32の内部空間34を撮像した画像(基準画像)、及び、排泄後における便鉢32の内部空間34を撮像した画像(対象画像)それぞれの画像情報を取得する。排泄前とは、便器装置3の使用者が排泄をする前の任意の時点であり、例えば、使用者がトイレの個室に入った時や、便器30に着座した時である。
The image
前処理部19は、基準画像と対象画像との画像情報を用いて、差分画像を生成する。差分画像は、基準画像と対象画像との差分を示す画像である。ここでの差分は、対象画像に撮像されており、基準画像に撮像されていない内容のことである。すなわち、差分画像は、排泄後の対象画像に撮像されており、排泄前の基準画像に撮像されていない、排泄物が表現された画像である。
The preprocessing
前処理部19は、生成した差分画像の画像情報を、解析部12Aに出力する。また、前処理部19は、生成した差分画像の画像情報を画像情報記憶部15に記憶するようにしてもよい。解析部12Aは、学習済みモデルを用いて、差分画像における便の性状の推定を行う。解析部12Aが推定に用いる学習済みモデルは、排泄の前後の画像の差分を示す学習用の画像と、便の性状の評価の結果との対応関係を学習したモデルである。ここで、学習済みモデルを作成する際の学習に用いられた画像(排泄の前後の画像の差分を示す学習用の画像)は、「学習用差分画像」の一例である。
The preprocessing
判定部13Aは、解析部12Aにより推定された便の性状に基づいて、対象画像に示された便の性状を判定する。また、判定部13Aは、解析部12Aにより推定された便の性状に基づいて、使用者の排泄の状況を判定するようにしてもよい。判定部13Aが、使用者の排泄の状況を判定する方法については、後述する本実施形態のフローチャートにて説明する。
The
ここで、前処理部19が、差分画像を生成する方法について、基準画像と対象画像と差分画像との各画像の色がR(Red)G(Green)B(Blue)により表現されたRGB画像である場合を例に説明する。しかしながら、各画像はRGBにより色が表現された画像に限定されることはなく、RGB画像以外の画像(例えば、Lab画像や、YCbCr画像)である場合でも同様な方法で生成することができる。ここで、RGB値は、画像の色を示す情報であり、「色情報」の一例である。
Here, regarding the method for generating the differential image by the preprocessing
前処理部19は、基準画像における所定の画素のRGB値と、前記対象画像における当該所定の画素に対応する画素のRGB値との差分に基づき、前記差分画像における当該所定画素に対応する画素のRGB値を決定する。所定の画素に対応する画素とは、画像において同じ、或いは近傍の位置座標にある画素である。ここでの差分とは、二つの画素における色の差分を示しており、例えば、RGB値の相違に基づいて判定される。例えば、前処理部19は、RGB値が同じ色を示している場合には差分がなく、RGB値が同じ色を示していない場合には差分があると判定する。
Based on the difference between the RGB value of a predetermined pixel in the reference image and the RGB value of the pixel corresponding to the predetermined pixel in the target image, the preprocessing
例えば、前処理部19は、基準画像における所定画素のRGB値が(255、255、0)(黄色)であり、対象画像における所定画素のRGB値が(255、255、0)(黄色)である場合、二つの画素における色の差分がないため、差分画像における所定画素のRGB値を、差分がない旨を示す所定の色(例えば、白色)とするマスク処理を行う。
For example, the preprocessing
一方、前処理部19は、基準画像における所定画素のRGB値が(255、255、0)(黄色)であり、対象画像における所定画素のRGB値が(255、0、0)(赤色)である場合、二つの画素における色の差分があるため、差分画像における所定画素のRGB値を、対象画像における所定画素のRGB値(255、0、0)(赤色)とする。
On the other hand, the preprocessing
或いは、前処理部19は、二つの画素における色の差分がある場合、その旨を示す予め定めた所定の色(例えば、黒色)とするようにしてもよい。
Alternatively, if there is a color difference between two pixels, the preprocessing
或いは、前処理部19は、二つの画素における色の差分がある場合、差分の度合いに応じて予め定めた所定の色とするようにしてもよい。差分の度合いは、例えば、色空間におけるRGB値のベクトル距離に応じて算出された値である。この場合、前処理部19は、二つの画素における色の差分を、その差分の度合いに応じて複数に分類する。例えば、差分の度合いが(大、中、小)の三種類に分類される場合、前処理部19は、差分の度合いが大きい画素については差分画像における当該画素のRGB値を黒色、差分の度合いが中程度の画素については差分画像における当該画素のRGB値を灰色、差分の度合いが小さい画素については差分画像における当該画素のRGB値を薄い灰色などとして、差分画像を生成するようにしてもよい。
Alternatively, when there is a color difference between two pixels, the preprocessing
ここで、使用者の着座の加減などの影響により、被写体(便鉢32の内部空間34)に照射する光の光量が変化することが考えられる。光量が変化した場合、排泄の前後において変化がない箇所であっても、色の濃淡が変化する場合がある。このような場合、前処理部19が、色の濃淡の変化を色の差分があると判定してしまうことが考えられる。
Here, it is conceivable that the amount of light illuminating the subject (the
この対策として、前処理部19は、基準画像における所定画素の色の比率と、対象画像における所定画素の色の比率とに応じて、差分画像における所定画素の色を決定するようにしてもよい。色の比率は、RGBそれぞれの色の比率であり、例えば、所定の基準値に対する割合で示される。つまり、RGB値(R、G、B)の色の比率は、(R/L:G/L:B/L)である。ここで、Lは所定の基準値を示す。所定の基準値Lは、任意の値であってよい。また、所定の基準値Lは、RGB値によらず固定された値であってもよいし、RGB値により変動する値(例えばRGB値のR値など)であってもよい。
As a countermeasure, the preprocessing
例えば、前処理部19は、基準画像における所定画素が灰色(RGB値(128、128、128))であり、対象画像における所定画素が薄い灰色(RGB値(192、192、192))である場合、二つの画素における色の比率が同じ比率であることから、二つの画素における色の差分がないと判定する。
For example, the preprocessing
一方、前処理部19は、基準画像における所定画素が黄色(RGB値(255、255、0))であり、対象画像における所定画素が赤色(RGB値(255、0、0))である場合、二つの画素における色の比率が同じ比率でないことから、二つの画素における色の差分があると判定する。
On the other hand, if the predetermined pixel in the reference image is yellow (RGB values (255, 255, 0)) and the predetermined pixel in the target image is red (RGB values (255, 0, 0)), the preprocessing
図9は、第2の実施形態に係る前処理部19が行う処理を説明する図である。図9の左側には基準画像の例として画像G1、中央には対象画像の例として画像G2、右側には差分画像の例として画像G3がそれぞれ示されている。
図9の画像G1に示すように、基準画像には、排泄前における、内部空間34が撮像されており、内部空間34の略中央にある開口部36に洗浄水Sが貯められた様子が撮像されている。
図9の画像G2に示すように、対象画像には、排泄後における、内部空間34が撮像されており、内部空間34の前側と後側との方向、洗浄水Sの上側に排泄物T1、T2がある様子が撮像されている。
図9の画像G3に示すように、差分画像には、基準画像と対象画像との差分である排泄物T1、T2が表現されている。
FIG. 9 is a diagram illustrating processing performed by the preprocessing
As shown in the image G1 of FIG. 9, the reference image is an image of the
As shown in the image G2 of FIG. 9, the target image shows the
As shown in the image G3 of FIG. 9, excretions T1 and T2, which are the differences between the reference image and the target image, are expressed in the difference image.
ここで、第2の実施形態に係る判定装置10Aが行う処理について、図10を用いて説明する。図10は第2の実施形態に係る判定装置10Aが行う処理の流れを示すフローチャートである。図10に示すフローチャートのうち、ステップS20、S22、S25~S27、及びS29については、図4のフローチャートのS10、S11、S12~S14、及びS15と同様であるため、その説明を省略する。
Here, processing performed by the
ステップS21において、判定装置10Aは、使用者が便器30に着座したと判定する場合、基準画像を生成する。基準画像は、排泄前の便鉢32の内部空間34を示す画像である。判定装置10Aは、使用者が便器30に着座したと判定したら、撮像装置4に撮像を指示する制御信号を送信することにより、基準画像の画像情報を取得する。
In step S21, when determining that the user is seated on the
ステップS23において、判定装置10Aは、基準画像と対象画像とを用いて、マスク処理を行う。マスク処理は、基準画像と対象画像とに差分がない画素について、所定の色(例えば白色)とする処理である。
ステップS24において、判定装置10Aは、差分画像を生成する。差分画像は、例えば、基準画像と対象画像とに差分がない画素についてマスク処理がなされ、基準画像と対象画像とに差分がある画素について対象画像の画素値(RGB値)が反映された画像である。
In step S23, the
In step S24, the
ステップS28において、判定装置10Aは、使用者が便器30から脱座したと判定する場合、基準画像、対象画像、及び差分画像の画像情報を破棄する。具体的に、判定装置10Aは、画像情報記憶部15に記憶していた基準画像、対象画像、及び差分画像の画像情報を消去する。これにより、記憶容量が逼迫してしまうことを抑制することが可能である。
In step S28, when determining that the user has left the
なお、図10のステップS25に示す判定処理について、図4のステップS12に示す処理と同様である旨を説明したが、本実施形態では、少なくとも、便の性状を判定項目とした判定処理が行われればよい。 It has been explained that the determination process shown in step S25 of FIG. 10 is the same as the process shown in step S12 of FIG. I wish I could.
また、図10のステップS25において、判定部13Aは、差分画像における便の性状の推定結果を用いて、使用者の排泄の状況を判定する。例えば、判定部13Aは、便の形状が、硬便であった場合は使用者の排便の状況が便秘傾向であると判定する。判定部13Aは、便の形状が、普通便であった場合は使用者の排便の状況が良好であると判定する。判定部13Aは、便の形状が、軟便であった場合は使用者の排便の状況が要観察状況であると判定する。判定部13Aは、便の形状が、泥状便、又は水様便であった場合は使用者の排便の状況が下痢傾向であると判定する。或いは、判定部13Aは、排便の状況から使用者の健康状態を判定しても良い。
In addition, in step S25 of FIG. 10, the
以上説明したように、第2の実施形態の判定装置10Aでは、前処理部19が基準画像と、対象画像との差分を示す差分画像を生成する。これにより、第2の実施形態の判定装置10Aでは、排泄の前後において差異がある部分を差分画像に示すことができるために、排泄物の性状をより精度よく把握して、その性状をより正確に判定することが可能となる。
As described above, in the
また、第2の実施形態の判定装置10Aでは、前処理部19は、基準画像における所定画素の色を示す色情報と、対象画像の画素における当該所定画素に対応する画素の色情報との差分に基づいて、差分画像における当該所定画素に対応する画素の色情報を決定する。これにより、第2の実施形態の判定装置10Aでは、排泄の前後において、色に差異がある部分を差分画像に示すことができるため、上述した効果と同様な効果を奏する。
Further, in the
また、第2の実施形態の判定装置10Aでは、前処理部19は、基準画像における所定画素のRGB値と、対象画像における当該所定画素に対応する画素のRGB値との差分を、差分画像における当該所定画素に対応する画素のRGB値とする。これにより、第2の実施形態の判定装置10Aでは、排泄の前後の色に差異を、RGB値の差異として認識することができるため、色の差異を定量的に算出でき、上述した効果と同様な効果を奏する。
Further, in the
また、第2の実施形態の判定装置10Aでは、前処理部19は、基準画像における所定画素のR値、G値、B値の比率を示す色比率と、対象画像における当該所定画素に対応する画素の色比率との差分に基づいて、差分画像における当該所定画素に対応する画素のRGB値を決定する。これにより、第2の実施形態の判定装置10Aでは、排泄の前後において被写体に照射される光量が異なるなどして、背景色に差異が生じた場合であっても、その差異を排泄物と誤認識することなく、排泄物の性状を抽出することができ、上述した効果と同様な効果を奏する。
In addition, in the
なお、上記では、画像情報取得部11Aが基準画像の画像情報を取得する場合を例に説明したが、これに限定されない。例えば、基準画像の画像情報は任意の機能部により取得されてよいし、予め画像情報記憶部15に記憶されているものであってもよい。
In addition, although the case where the image
(第2の実施形態の変形例1)
次に、第2の実施形態の変形例1について説明する。本変形例では、前処理として、対象画像を分割した分割画像を生成する点において、上述した実施形態と異なる。以下の説明では、上述した実施形態と相違する構成のみ説明し、上述した実施形態と同等の構成については同じ符号を付してその説明を省略する。
(
Next,
一般に、便鉢32は、便鉢32の縁部から開口部36に向かうにしたがって下側に傾斜するように形成される。このため、便鉢32に落下した便が複数ある場合、先に落下したものが、後に落下したものに押されるようにして、便鉢32の傾斜面に沿って下側に移動すると考えられる。すなわち、先に落下したものが開口部36の前側に移動する性質がある。
In general, the
この性質を利用して、本変形例では、排泄物の排出の時系列を考慮した推定を行う。具体的には、対象画像を前側と後側とに分割する。そして、対象画像の前側を分割した画像(前側分割画像)に撮像された排泄物を古い便、対象画像の後側を分割した画像(後側分割画像)に撮像された排泄物を新しい便とみなして、便の性状を判定する。これにより、使用者の排便の状況について、古い便を判定することで、現在の状態に近い便に基づく判定を行おうことができる。 Utilizing this property, in this modified example, estimation is performed in consideration of the time series of excrement discharge. Specifically, the target image is divided into a front side and a back side. Then, the excrement imaged in the image obtained by dividing the front side of the target image (front divided image) is regarded as old stool, and the excrement imaged in the image obtained by dividing the rear side of the target image (rear divided image) is regarded as new stool. and determine the properties of the stool. As a result, by judging old stools, it is possible to make a judgment based on stools that are close to the current state of the user's bowel movements.
本変形例において、前処理部19は、分割画像を生成する。分割画像は、対象画像の一部の領域が含まれている画像であって、例えば、前側分割画像、及び後側分割画像である。対象画像を前側分割画像と後側分割画像とに分割する境界は、任意に設定されてよいが、例えば、便鉢32に溜められた洗浄水Sの溜水面の中心を通る左右方向(左側と右側とを結ぶ方向)の線により分割される。
In this modified example, the preprocessing
なお、分割画像は、上記の前側分割画像と後側分割画像とに限定されることはない。分割画像は、対象画像の一部の領域が少なくとも含まれている画像であればよい。対象画像は、前後方向(前側と後側とを結ぶ方向)に三つの領域に分割された画像であってもよいし、前側分割画像が、更に左右方向に複数の領域に分割された画像であってもよい。また、対象画像から、一つの分割画像が生成されてもよいし、複数の分割画像が生成されてもよい。また、対象画像から複数の分割画像を生成する場合において、複数の分割画像に示される領域を結合した領域が、対象画像に示される領域の全部であってもよいし、一部の領域であってもよい。 Note that the divided images are not limited to the front divided image and the rear divided image. A divided image may be an image that includes at least a partial area of the target image. The target image may be an image divided into three regions in the front-back direction (direction connecting the front side and the back side), or an image in which the front-side divided image is further divided into a plurality of regions in the left-right direction. There may be. Also, one divided image may be generated from the target image, or a plurality of divided images may be generated. Further, when generating a plurality of divided images from a target image, the region obtained by combining the regions shown in the plurality of divided images may be the entire region shown in the target image, or may be a part of the region. may
前処理部19は、生成した分割画像の画像情報を解析部12Aに出力する。また、前処理部19は、生成した分割画像の画像情報を画像情報記憶部15に記憶するようにしてもよい。解析部12Aは、学習済みモデルを用いて、分割画像における便の性状の推定を行う。解析部12Aが推定に用いる学習済みモデルは、排泄における便鉢32の内部空間34を撮像した画像を分割した学習用の画像と、便の性状の評価の結果との対応関係を学習したモデルである。
The preprocessing
判定部13Aは、解析部12Aにより推定された分割画像における便の性状に基づいて、対象画像に示された状況における使用者の排泄の状況を判定する。判定部13Aは、対象画像から生成された分割画像が複数ある場合、分割画像それぞれの推定結果を総合的にみて使用者の排泄の状況を判定する。判定部13Aが総合的に使用者の排泄の状況を判定する方法については、後述する本変形例のフローチャートにて説明する。
The
ここで、学習済みモデルを作成する際の学習に用いられる画像(排泄における便鉢32の内部空間34を撮像した画像を分割した学習用の画像)について説明する。本変形例における学習用の画像としての分割画像は、「学習用分割画像」の一例である。学習用の画像としての分割画像は、過去の排泄の際に撮像された、便鉢32の内部空間34の様々な画像の一部の領域を分割した画像である。前処理部23による画像を分割する方法は、任意であってよいが、前処理部19による分割と同様な方法であることが望ましい。同様な方法とすることにより、学習済みモデルを用いた推定の精度の向上が期待できる。また、学習済みモデルに対象画像の全体を学習させる場合よりも、対象画像の一部の領域、つまり対象画像よりも狭い領域を学習させるようにしたために、学習済みモデルを、より精度よく領域の状態を推定するモデルとすることが可能である。
Here, images used for learning when creating a trained model (images for learning obtained by dividing an image of the
図11は、第2の実施形態の変形例1に係る前処理部19が行う処理を説明する図である。図11の左側には対象画像の例として画像G4、中央には前側分割画像の例として画像G5、右側には後側分割画像の例として画像G6がそれぞれ示されている。
図11の画像G4に示すように、対象画像には、内部空間34が撮像されており、内部空間34の略中央にある開口部36に洗浄水Sが貯められた様子を含む、内部空間34の全体が撮像されている。
図11の画像G5に示すように、前側分割画像には、内部空間34の前側の領域が抽出されており、開口部36に洗浄水Sが貯められた溜水面の中心を通る左右方向の境界線より前側の領域が抽出されている。
図11の画像G6に示すように、後側分割画像には、内部空間34の後側の領域が抽出されており、溜水面の中心を通る左右方向の境界線より後側の領域が抽出されている。
FIG. 11 is a diagram illustrating processing performed by the preprocessing
As shown in the image G4 in FIG. 11, the target image captures the
As shown in the image G5 of FIG. 11, the front side area of the
As shown in the image G6 of FIG. 11, the rear side area of the
ここで、第2の実施形態の変形例1に係る判定装置10Aが行う処理について、図12を用いて説明する。図12は第2の実施形態の変形例1に係る判定装置10Aが行う処理の流れを示すフローチャートである。図12に示すフローチャートのうち、ステップS30、S31、S33、S37、及びS42については、図4のフローチャートのS10、S11、S14、S15、及びS13と同様であるため、その説明を省略する。
Here, processing performed by the
ステップS32において、判定装置10Aは、対象画像を用いて、分割画像を生成する。分割画像は、例えば、対象画像に撮像された領域の前側の領域を示す前側分割画像、及び後側の領域を示す後側分割画像である。
In step S32, the
ステップS34において、判定装置10Aは、前側分割画像及び後側分割画像それぞれの分割画像について判定処理を行う。この判定処理の内容は、図10のフローチャートにおけるステップS25に示す処理と同様であるため、その説明を省略する。
In step S34, the
ステップS35において、判定装置10Aは、使用者が便器30から脱座したと判定しない場合(ステップS33、NO)、便器30における局部洗浄の操作が行われたか否かを判定し、便器30における局部洗浄の操作が行われた場合には、ステップS34に示す処理を行う。
ステップS36において、判定装置10Aは、便器30における局部洗浄の操作が行われたと判定しない場合(ステップS35、NO)、便器30における便器洗浄の操作が行われたか否かを判定し、便器30における便器洗浄の操作が行われた場合には、ステップS34に示す処理を行う。
In step S35, if the
In step S36, if the
ステップS38において、判定装置10Aは、前側分割画像及び後側分割画像の双方に判定結果があるか否かを判定する。双方に判定結果があるとは、双方に便の画像があり、それぞれの便の画像について性状についての判定結果があることを示す。
ステップS39において、判定装置10Aは、前側分割画像及び後側分割画像の双方に判定結果がある場合、前側分割画像の判定結果を古い便の判定結果、後側分割画像の判定結果を新しい便の判定結果とする。
In step S38, the
In step S39, when there are determination results for both the front divided image and the rear divided image, the
ステップS40において、判定装置10Aは、判定部13Aにより確定処理を行う。確定処理は、新しい便の判定結果、及び古い便の判定結果を用いて、使用者の排泄の状況を確定する処理である。判定装置10Aは、例えば、古い便が現在の排泄の状況を反映するとみなして排泄の状況を確定する。確定処理において、判定部13Aは、例えば、古い便の性状が硬便と判定され、新しい便の性状が普通便と判定された場合には、排便の際に大腸に残っていた固い便が排出され、使用者の排泄の状況は便秘傾向であると判定する。一方、確定処理において、判定部13Aは、例えば、古い便の性状が普通便と判定され、新しい便の性状が泥状便と判定された場合には、使用者の排泄の状況は良好であると判定する。
In step S40, the
ステップS41において、判定装置10Aは、判定部13Aにより前側分割画像及び後側分割画像の一方しか判定結果がない場合、前側分割画像の判定結果が有るか否かを判定する。前側分割画像の判定結果が有る場合、前側分割画像の判定結果を用いてステップS40に示す処理を行う。前側分割画像の判定結果がない場合、後側分割画像の判定結果を用いてステップS40に示す処理を行う。前側分割画像の判定結果がない場合とは、例えば、前側分割画像に排泄物が撮像されておらず、便の性状を判定することができなかった場合である。
In step S41, the
以上説明したように、第2の実施形態の変形例1に係る判定装置10Aでは、前処理部19が対象画像の一部の領域を含む分割画像を生成する。これにより、第2の実施形態の変形例1に係る判定装置10Aでは、対象画像の一部の領域を判定の対象とすることができ、対象画像の全体を判定対象とする場合よりも、狭い領域を詳しく判定することができ、より精度よく判定を行うことが可能である。
As described above, in the
また、第2の実施形態の変形例1に係る判定装置10Aでは、前処理部19は、対象画像における便鉢の前側の領域を少なくとも示す前側分割画像を生成する。これにより、第2の実施形態の変形例1に係る判定装置10Aでは、対象画像において新しい便と古い便とが撮像されている場合には、新しい便が撮像されたとみなされる領域を分割画像とすることができる。また、対象画像において新しい便と古い便とが撮像されていない場合でも、便が撮像される可能性が高い領域を分割画像とすることができ、上述した効果と同様な効果を奏する。
In addition, in the
また、第2の実施形態の変形例1に係る判定装置10Aでは、前処理部19は、前側分割画像と、後側分割画像とを生成し、解析部12Aは、前側分割画像について判定事項に関する推定を行うと共に、後側分割画像について判定事項に関する推定を行い、判定部13Aは、前側分割画像についての推定結果と、後側分割画像についての推定結果を用いて、前記対象画像について前記判定事項に関する判定を行う。これにより、第2の実施形態の変形例1に係る判定装置10Aでは、前側分割画像と後側分割画像との推定結果とを用いて、総合的に使用者の排泄の状況を判定することが可能となり、前側分割画像又は後側分割画像の何れか一方の推定結果を用いる場合より、精度のよい判定を行うことが可能である。
Further, in the
また、第2の実施形態の変形例1に係る判定装置10Aでは、前処理部19は、前側分割画像についての推定結果を、後側分割画像についての推定結果よりも時系列的に古い推定結果として、前記対象画像について前記判定事項に関する判定を行う。これにより、第2の実施形態の変形例1に係る判定装置10Aでは、前側分割画像についての推定結果を古い便の推定結果、後側分割画像についての推定結果を新しい便の推定結果とみなして、排泄の時系列を考慮した判定を行うことができ、使用者の排泄の状況についてより現在の状態に近い精度のよい判定を行うことが可能である。
なお、便鉢32の形状により先に落下した便が移動する方向が変わるため、前側分割画像及び後側分割画像に対応付ける時系列の関係性は逆転してもよい。すなわち、上記では前側分割画像が後側分割画像よりも時系列的に古いものとして説明したが、これに限定されることはなく、前側分割画像が後側分割画像よりも時系列的に新しいものみなして、判定(確定)に係る処理が行われてもよい。
Further, in the
Since the direction in which the stool that fell first moves changes depending on the shape of the
(第2の実施形態の変形例2)
次に、第2の実施形態の変形例2について説明する。本変形例では、前処理として、対象画像の全体を示す全体画像、及び対象画像の一部を切り出した部分画像を生成する点において、上述した実施形態と異なる。以下の説明では、上述した実施形態と相違する構成のみ説明し、上述した実施形態と同等の構成については同じ符号を付してその説明を省略する。
(Modification 2 of the second embodiment)
Next, Modification 2 of the second embodiment will be described. This modification differs from the above-described embodiment in that, as preprocessing, an entire image representing the entire target image and a partial image obtained by cutting out a part of the target image are generated. In the following description, only configurations different from the above-described embodiment will be described, and configurations equivalent to those of the above-described embodiment will be denoted by the same reference numerals, and descriptions thereof will be omitted.
一般に、機械学習の手法を用いて、画像の全体から詳細な判定内容を推定させようとすると、高い演算能力が必要となり、装置コストが増大してしまう。例えば、モデルに用いるDNNの層の数を増やせば、ノードの数が増加するために一回の試行に要する演算の回数が増え処理負荷が増大する。また、モデルが詳細な内容を推定できるようになる(つまり、学習データの入力に対するモデルの出力と、学習データの出力との誤差が最小となる)には、重みWとバイアス成分bを変更させながら、試行を繰り返し何度も行う必要があり、このような繰り返しの試行を現実的な時間で収束させるためには、膨大な演算を高速に処理できる装置が必要となる。すなわち、対象画像の全体を詳細に解析しようとすると高性能の装置が必要となり、装置コストが増大してしまう。 In general, if a machine learning technique is used to estimate detailed judgment content from the entire image, a high computing power is required, which increases the cost of the device. For example, if the number of DNN layers used in the model is increased, the number of calculations required for one trial increases due to the increase in the number of nodes, increasing the processing load. Also, in order for the model to be able to estimate detailed contents (that is, to minimize the error between the output of the model with respect to the input of the training data and the output of the training data), the weight W and the bias component b are changed. However, it is necessary to repeat trials many times, and in order to converge such repeated trials in a realistic time, a device that can process a huge amount of calculation at high speed is required. In other words, if an attempt is made to analyze the entire target image in detail, a high-performance device is required, which increases the cost of the device.
ところで、対象画像は、便鉢32の内部空間34の全体が撮像された画像である。すわち、対象画像には、排泄物が撮像された領域と、排泄物が撮像されていない領域とが存在する。このため、対象画像から、排泄物が落下することが多いと考えられる特定の領域(例えば、開口部36の近傍領域)を切り出し、切り出した領域について、詳細な判定内容を推定させ方法が考えられる。これにより、解析の対象とする画像の領域を狭めることができ、装置コストの増大を抑制することが可能となる。
By the way, the target image is an image in which the entire
しかしながら、本来、排泄物が、便鉢32の何処の領域に落下するか不明である。また、使用者の体調により便の性状は変化する。このため、排泄物が落下する領域が、便鉢32の特定の領域である場合が多かったとしても、常にその特定の領域のみに排泄物が落下するとも限らず、周囲に飛散する場合もあり得る。周囲に飛散しているにも関わらず、周囲の画像を用いることなく、特定の領域の画像のみを用いて判定を行うと、実態とは異なる判定をしてしまう可能性がある。
However, it is essentially unknown to which region of the
この対策として、本変形例では、前処理により、対象画像の全体を示す全体画像と、対象画像の一部を切り出した部分画像とを生成する。 As a countermeasure, in this modified example, a whole image showing the entire target image and a partial image obtained by cutting out a part of the target image are generated by preprocessing.
全体画像については、詳細ではない大局的な判定を行うことにより、装置コストの増大の抑制を図る。大局的な判定とは、便の性状を判定することと比較して、全体的(大局的)な判定であり、例えば、便の飛散の有無を判定することである。便の飛散の有無は、飛散した便の性状を判定するものではないため、便の性状を判定する場合と比較して、比較的大まかで容易な判定であるということができる。ここで、全体画像について行う、便の飛散の有無に係る判定は、「第1判定事項」の一例である。 As for the whole image, by performing a global determination that is not detailed, an attempt is made to suppress an increase in the apparatus cost. Comprehensive determination is overall (global) determination compared to determination of the properties of stool, and for example, determination of presence or absence of scattering of stool. Since the presence or absence of scattering of stool does not determine the properties of scattered stool, it can be said to be a relatively rough and easy determination compared to the case of determining the properties of stool. Here, the determination regarding the presence or absence of scattering of stool, which is performed on the entire image, is an example of the “first determination item”.
一方、部分画像については、全体画像に係る判定よりも詳細な判定項目についての判定を行う。詳細な判定項目とは、例えば、便の性状を判定することである。画像の領域を狭めた部分画像を判定対象とすることにより、高性能な装置を用いなくとも、詳細な判定を行うことができ装置コストの増大の抑制を図る。ここで、部分画像について行う、便の性状に係る判定は、「第2判定事項」の一例である。 On the other hand, for the partial image, more detailed determination items than those for the entire image are determined. A detailed determination item is, for example, determining the properties of stool. By using a partial image obtained by narrowing an image area as a determination target, detailed determination can be performed without using a high-performance device, and an increase in device cost can be suppressed. Here, the determination related to the properties of stool performed on the partial image is an example of the "second determination item".
本変形例において、前処理部19は、全体画像、及び部分画像を生成する。全体画像は、対象画像の全体を示す画像であり、例えば、対象画像そのものである。部分画像は、対象画像の一部の領域を切り出した画像であって、例えば、対象画像から開口部36の近傍領域を切り出した画像である。部分画像として、対象画像の何処の領域を切り出すかは任意に設定されてよく、例えば、便器30の形状に応じて出荷時などに決定された固定の領域である。
In this modified example, the preprocessing
前処理部19は、生成した全体画像及び部分画像の画像情報を解析部12Aに出力する。また、前処理部19は、生成した全体画像及び部分画像の画像情報を画像情報記憶部15に記憶するようにしてもよい。
The preprocessing
解析部12Aは、学習済みモデルを用いて、全体画像における便の飛散の有無の推定を行う。ここで、全体画像における便の飛散の有無の推定は、「第1推定」の一例である。 12 A of analysis parts estimate the presence or absence of scattering of feces in a whole image using a trained model. Here, the estimation of presence/absence of scattering of stool in the entire image is an example of the "first estimation".
また、解析部12Aは、学習済みモデルを用いて、部分画像における便の性状の推定を行う。ここで、部分画像における便の性状の推定は、「第2推定」の一例である。 Also, the analysis unit 12A estimates the properties of stool in the partial image using the learned model. Here, the estimation of the properties of stool in the partial image is an example of the "second estimation".
判定部13Aは、解析部12Aにより推定された全体画像における便の飛散の有無、及び部分画像における便の性状に基づいて、対象画像に示された状況における使用者の排泄の状況を判定する。判定部13Aが全体画像における推定結果、及び部分画像における推定結果に基づいて使用者の排泄の状況を判定する方法については、後述する本変形例のフローチャートにて説明する。
The
ここで、本変形例で用いる学習済みモデルに学習させる学習データについて説明する。
全体画像の推定に用いる学習済みモデルは、排泄における便鉢32の内部空間34の全体を撮像した学習用の全体画像と、便の飛散の有無を評価した評価結果との対応関係を学習したモデルである。学習用の全体画像は、過去の排泄の際に撮像された、便鉢32の内部空間34の全体を示す様々な画像である。学習用の全体画像(排泄における便鉢32の内部空間34の全体を撮像した学習用の画像)は、「学習用全体画像」の一例である。
部分画像の推定に用いる学習済みモデルは、排泄における便鉢32の内部空間34の全体を撮像した画像から一部を切り出した学習用の部分画像と、便の性状を評価した評価結果との対応関係を学習したモデルである。学習用の部分画像は、全体画像の一部を切り出した画像である。学習用の部分画像(排泄における便鉢32の内部空間34の全体を撮像した画像から一部を切り出した学習用の画像)は、「学習用部分画像」の一例である。
学習用の全体画像、及び学習用の部分画像を生成する方法は、任意であってよいが、前処理部19による全体画像及び部分画像の生成と同様な方法であることが望ましい。同様な方法とすることにより、学習済みモデルを用いた推定の精度の向上が期待できる。
Here, the learning data to be learned by the trained model used in this modified example will be described.
The trained model used for estimating the overall image is a model that has learned the correspondence relationship between the overall image for learning that captures the entire
The learned model used for estimating the partial image is a correspondence between a partial image for learning obtained by extracting a part from an image of the entire
The method of generating the whole image for learning and the partial image for learning may be arbitrary, but it is desirable to use the same method as the method for generating the whole image and the partial image by the preprocessing
図13は、第2の実施形態の変形例2に係る前処理部19が行う処理を説明する図である。図13の左側には対象画像の例として画像G7、中央には全体画像の例として画像G8、右側には部分画像の例として画像G9がそれぞれ示されている。
図13の画像G7に示すように、対象画像には、内部空間34が撮像されており、内部空間34の略中央にある開口部36に洗浄水Sが貯められた様子を含む、内部空間34の全体が撮像されている。
図13の画像G8に示すように、全体画像には、対象画像の全体が示されている。全体画像は対象画像そのものであってもよいし、対象画像からその全体を抽出したものであってもよい。
図13の画像G9に示すように、部分画像には、内部空間34の略中央、開口部36の近傍の領域が抽出されており、洗浄水Sが溜められた溜水面とその周辺の領域が抽出されている。
FIG. 13 is a diagram illustrating processing performed by the preprocessing
As shown in the image G7 of FIG. 13, the target image captures the
As shown in the image G8 in FIG. 13, the entire image is shown in the entire target image. The entire image may be the target image itself, or may be an image obtained by extracting the entirety of the target image.
As shown in the image G9 of FIG. 13, the partial image includes an area in the vicinity of the
ここで、第2の実施形態の変形例2に係る判定装置10Aが行う処理について、図14を用いて説明する。図14は第2の実施形態の変形例2に係る判定装置10Aが行う処理の流れを示すフローチャートである。図14に示すフローチャートのうち、ステップS50、S51、S53、S57、及びS62については、図4のフローチャートのS10、S11、S14、S15、及びS13と同様であるため、その説明を省略する。また、図14に示すフローチャートのうち、ステップS55、及びS56については、図12のフローチャートのS35、及びS36と同様であるため、その説明を省略する。
Here, processing performed by the
ステップS52において、判定装置10Aは、対象画像を用いて、全体画像及び部分画像を生成する。全体画像は、例えば、対象画像に撮像された領域の全体を示す画像である。部分画像は、例えば、対象画像に撮像された領域の特定の一部の領域を示す画像である。
In step S52, the
ステップS54において、判定装置10Aは、全体画像及び部分画像それぞれについて判定処理を行う。
判定装置10Aは、全体画像について大局的な判定、例えば便の飛散の有無の判定を行う。判定装置10Aは、学習済みモデルを用いて全体画像における便の飛散の有無を推定し、推定した結果を全体画像における便の飛散の有無を判定した判定結果とする。ここでの学習済みモデルは、学習用の全体画像と便の飛散の有無を判定した判定結果とを対応付けた学習データを用いて学習することにより作成されたモデルである。
また、判定装置10Aは、部分画像について詳細な判定、例えば便の性状の判定を行う。判定装置10Aは、学習済みモデルを用いて部分画像における便の性状を推定し、推定した結果を部分画像における便の性状を判定した判定結果とする。ここでの学習済みモデルは、学習用の部分画像と便の性状を判定した判定結果とを対応付けた学習データを用いて学習することにより作成されたモデルである。
In step S54, the
The
Further, the
ステップS58において、判定装置10Aは、全体画像及び部分画像の双方に判定結果があるか否かを判定する。双方に判定結果があるとは、全体画像に便の飛散の有無が判定されており、且つ部分画像について便の性状が判定されていることを示す。
In step S58, the
ステップS59において、判定装置10Aは、判定部13Aにより全体画像及び部分画像の双方に判定結果がある場合、全体画像の判定結果を用いて、部分画像の判定結果を補正する。部分画像の判定結果を補正するとは、全体画像の判定結果を用いて、部分画像の判定結果を変更又は補足することをいう。
例えば、判定部13Aは、部分画像の判定結果として、便の性状が軟便であった場合において、全体画像の判定結果から便の飛散有りと判定された場合、排便の状況を下痢傾向であると補正する。一方、判定部13Aは、全体画像の判定結果から便の飛散なしと判定された場合、部分画像の判定結果としての排便の状況を補正しない。
In step S59, if the
For example, when the determination result of the partial image indicates that the stool is loose stool, and the determination result of the entire image indicates that the stool is scattered, the
ステップS60において、判定装置10Aは、判定部13Aにより確定処理を行う。確定処理は、全体画像の判定結果、及び部分の判定結果を用いて、使用者の排便の状況等を判定する処理である。
In step S60, the
ステップS61において、判定装置10Aは、判定部13Aにより全体画像及び部分画像の双方に判定結果がない場合、部分画像の判定結果が有るか否かを判定する。部分画像の判定結果が有る場合、部分画像の判定結果を用いてステップS60に示す処理を行う。部分画像の判定結果がない場合、全体画像の判定結果を用いてステップS60に示す処理を行う。部分画像の判定結果がない場合とは、例えば、部分画像に排泄物が撮像されておらず、便の性状を判定することができなかった場合である。
In step S61, the
以上説明したように、第2の実施形態の変形例2に係る判定装置10Aでは、前処理部19が対象画像から全体画像と部分画像とを生成する。解析部12Aは、学習済みモデルを用いて全体画像から大局的な推定(第1推定)を行うと共に、別の学習済みモデルを用いて部分画像から詳細な推定(第2推定)を行う。これにより、第2の実施形態の変形例2に係る判定装置10Aでは、画素数の多い全体画像を用いて、比較的安易な大局的な推定を行うことで、全体画像から比較的難解な詳細な推定を行う場合よりも、演算処理の負荷を低減させ、装置コストの増大を抑制することができる。また、比較的画素数の少ない部分画像を用いて、詳細な推定を行うことで、比較的画素数の多い全体画像から詳細な推定を行う場合よりも、演算処理の負荷を低減させ、装置コストの増大を抑制することができる。
As described above, in the
また、第2の実施形態の変形例2に係る判定装置10Aでは、前処理部19は、対象画像における便鉢32の開口部36を少なくとも含む部分画像を生成する。これにより、第2の実施形態の変形例2に係る判定装置10Aでは、排泄物が落下する可能性が高い領域を部分画像として切り出すことができ、部分画像を用いて排泄物に係る詳細な判定を行うことが可能となる。
Further, in the
また、第2の実施形態の変形例2に係る判定装置10Aでは、前処理部19は、大局的な推定(第1推定)として便の飛散の有無を推定し、詳細な推定(第2推定)として便の性状を推定する。これにより、第2の実施形態の変形例2に係る判定装置10Aでは、便の性状とともに飛散の有無を推定することができ、双方の推定結果を用いて、より精度よく判定を行うことが可能となる。
Further, in the
また、第2の実施形態の変形例2に係る判定装置10Aでは、大局的な推定(第1推定)についての推定結果を用いて、詳細な推定(第2推定)の推定結果を補正する。これにより、第2の実施形態の変形例2に係る判定装置10Aでは、詳細な推定を補正することができ、より精度よく判定を行うことが可能となる。
Further, the
(第3の実施形態)
次に、第3の実施形態について説明する。本実施形態では、対象画像における対象領域を抽出する点において、上述した実施形態と相違する。対象領域は、本実施形態における判定の対象となる領域であり、排泄物の性状を判定する対象となる領域である。すなわち、判定領域は、対象画像において排泄物が撮像されていると推定される領域である。以下の説明では、上述した実施形態と相違する構成のみ説明し、上述した実施形態と同等の構成については同じ符号を付してその説明を省略する。
(Third Embodiment)
Next, a third embodiment will be described. This embodiment differs from the above-described embodiments in that a target region in a target image is extracted. The target area is an area to be determined in the present embodiment, and is an area to be determined for the property of excrement. That is, the determination region is a region in which excrement is estimated to be captured in the target image. In the following description, only configurations different from the above-described embodiment will be described, and configurations equivalent to those of the above-described embodiment will be denoted by the same reference numerals, and descriptions thereof will be omitted.
図15は、第3の実施形態に係る判定装置10Bの構成を示すブロック図である。判定装置10Bは、解析部12Bと、判定部13Bとを備える。ここで、解析部12Bは、「抽出部」の一例である。
FIG. 15 is a block diagram showing the configuration of a
解析部12Bは、対象画像における画像の色が、排泄物に想定される所定の色(以下、想定色という)との違い(色差)に基づいて、想定色と近い色の領域を判定領域として抽出する。解析部12Bは、対象画像における色が想定色と近い色であるか否かを、双方の色における色空間上の距離(以下、空間距離という)に基づいて決定する。二つの色の空間距離が小さい場合、色差が小さいことを示しており、当該二つの色が互いに近い色であることを示している。一方、空間距離が大きい場合、色差が大きいことを示しており、当該二つの色が互いに遠い色であることを示している。ここで、空間距離は、「想定色の特性」の一例である。
Based on the difference (color difference) between the color of the image in the target image and the predetermined color assumed for the excrement (hereinafter referred to as the assumed color), the
ここで、解析部12Bが空間距離を算出する方法について説明する。以下では、対象画像がRGB画像であり、想定色がRGB値により示される色である場合を例示して説明するが、これに限定されることはない。対象画像がRGB画像以外の画像(例えば、Lab画像や、YCbCr画像)である場合や、想定色がRGB値以外の色(例えば、Lab値や、YCbCr値)で示される場合でも同様な方法で判定領域を抽出することが可能である。また、以下では、想定色が便の色である場合を例示して説明するが、これに限定されることはない。想定色は、排泄物に想定される色であればよく、例えば、尿の色であってもよい。
Here, a method for calculating the spatial distance by the
解析部12Bは、空間距離として、例えば、色空間におけるユークリッド距離を算出する。解析部12Bは、以下の(1)式を用いて、ユークリッド距離を算出する。(1)式において、Z1はユークリッド距離、ΔRは対象画像における所定の画素Xと想定色YとのR値の差分、ΔGは画素Xと想定色YとのG値の差分、ΔBは画素Xと想定色YとのB値の差分である。対象画像における所定の画素XのRGB値は(red、green、blue)、想定色YのRGB値は(Rs、Gs、Bs)である。
The
Z1=(ΔR^2+ΔG^2+ΔB^2)^(1/2) …(1)
但し、
ΔR=red-Rs
ΔG=green-Gs
ΔB=blue-Bs
Z1=(ΔR̂2+ΔĜ2+ΔB̂2)̂(1/2) (1)
however,
ΔR = red - Rs
ΔG = green - Gs
ΔB = blue - Bs
また、解析部12Bは、空間距離を算出する際に、重みづけを行ってもよい。重みづけは、色を構成する特定の要素の差異を強調するためのものであり、例えば、色を構成するR要素、G要素、及びB要素に互いに異なる係数(重み係数)を乗算することにより行う。重みづけを行うことにより、想定色との色差を要素に応じて強調させることができる。
Further, the
解析部12Bは、例えば、以下の(2)式を用いて、重みづけしたユークリッド距離を算出することができる。(2)式において、Z2は重みづけしたユークリッド距離、R_COEFはR要素の重み係数、G_COEFはG要素の係数、B_COEFはB要素の重み係数である。ΔRは画素Xと想定色YとのR値の差分、ΔGは画素Xと想定色YとのG値の差分、ΔBは画素Xと想定色YとのB値の差分である。対象画像における所定の画素XのRGB値は(red、green、blue)、想定色YのRGB値は(Rs、Gs、Bs)である。
The
Z2=(R_COEF×ΔR^2
+G_COEF×ΔG^2
+B_COEF×ΔB^2)^(1/2) …(2)
但し、
R_COEF>G_COEF>B_COEF
ΔR=red-Rs
ΔG=green-Gs
ΔB=blue-Bs
Z2=(R_COEF×ΔR^2
+G_COEF×ΔG^2
+B_COEF×ΔB̂2)̂(1/2) …(2)
however,
R_COEF>G_COEF>B_COEF
ΔR = red - Rs
ΔG = green - Gs
ΔB = blue - Bs
ここで、想定色Yとしての便の色の特性は、R要素がG要素よりも強く、G要素はB要素よりも強い傾向にある。このような色を構成する各要素の特徴に基づいて、解析部12Bは、R要素の重み係数を、G要素の重み係数より大きな値とする。つまり、(2)式において、係数R_COFE、係数G_COFE、及び係数B_COFEには、R_COEF>G_COEF>B_COEFの関係が成立する。
Here, regarding the characteristics of the color of feces as the assumed color Y, the R element tends to be stronger than the G element, and the G element tends to be stronger than the B element. Based on the characteristics of each element that constitutes such a color, the
ところで、使用者の着座の加減などの影響により、被写体(便鉢32の内部空間34)に照射する光の光量が変化することが考えられる。光量が変化した場合、同じような色の排泄物であっても、色の濃淡が異なるかのように撮像される場合がある。このような場合、同じ色にもかかわらず、空間距離が異なる距離として算出されてしまう。
By the way, it is conceivable that the amount of light illuminating the subject (the
この対策として、解析部12Bは、空間距離として、色を構成する各要素の比率(以下、色比率という)のユークリッド距離を算出してもよい。色比率は、例えば、R値、G値、及びB値のうちの基準とする要素の値で、他の要素の値を除算することにより行う。色比率を用いることにより、色の濃淡に起因する差異を反映させないようにした空間距離を算出することが可能である。
As a countermeasure against this, the
色比率を導出する際に基準とする要素は、任意に決定されてよいが、例えば、その色の支配的な要素とすることが考えられる。例えば、便の色においては、R要素が支配的である。このため、本実施形態において色比率は、R値、G値、及びB値のそれぞれを、R値により除算することにより作成する。 The element used as a reference when deriving the color ratio may be arbitrarily determined, but it is conceivable, for example, to use the dominant element of that color. For example, in stool color, the R element is dominant. Therefore, in this embodiment, the color ratio is created by dividing each of the R value, G value, and B value by the R value.
例えば、画素X(RGB値(red、green、blue))の色比率は、(red/red、green/red、blue/red)、つまり(1、green/red、blue/red)である。また、想定色Y(RGB値(Rs、Gs、Bs))の色比率は、(Rs/Rs、Gs/Rs、Bs/Rs)、つまり、(1、Gs/Rs、Bs/Rs)である。 For example, the color ratio of pixel X (RGB values (red, green, blue)) is (red/red, green/red, blue/red), or (1, green/red, blue/red). The color ratio of the assumed color Y (RGB values (Rs, Gs, Bs)) is (Rs/Rs, Gs/Rs, Bs/Rs), that is, (1, Gs/Rs, Bs/Rs). .
解析部12Bは、以下の(3)式を用いて、色比率のユークリッド距離を算出することができる。(3)式において、Z3は色比率のユークリッド距離、ΔRpは画素Xの色比率と想定色Yの色比率とのR要素の差分、ΔGpは画素Xの色比率と想定色Yの色比率とのG要素の差分、ΔBpは画素Xの色比率と想定色Yの色比率とのB要素の差分である。GR_RATEは想定色Yの色比率におけるG要素の比率、BR_RATEは想定色Yの色比率におけるB要素の比率である。対象画像における所定の画素XのRGB値は(red、green、blue)、想定色YのRGB値は(Rs、Gs、Bs)である。
The
Z3=(ΔRp^2+ΔGp^2+ΔBp^2)^(1/2)
=(ΔGp^2+ΔBp^2)^(1/2) …(3)
但し、
ΔRp=red/red-Rs/Rs=0(ゼロ)
ΔGp=green/red-GR_RATE
ΔBp=blue/red-BR_RATE
GR_RATE=Gs/Rs
BR_RATE=Bs/Rs
1>GR_RATE>BR_RATE>0
Z3=(ΔRp̂2+ΔGp̂2+ΔBp̂2)̂(1/2)
=(ΔGp̂2+ΔBp̂2)̂(1/2) (3)
however,
ΔRp=red/red−Rs/Rs=0 (zero)
ΔGp=green/red−GR_RATE
ΔBp=blue/red-BR_RATE
GR_RATE = Gs/Rs
BR_RATE=Bs/Rs
1>GR_RATE>BR_RATE>0
想定色Yとしての便の色の特性は、R要素がG要素よりも強く(Rs>Gs)、G要素はB要素よりも強い(Gs>Bs)傾向にある。比率GR_RATE、及び比率BR_RATEは、共に0(ゼロ)~1までの間の値となる。また、比率GR_RATEより比率BR_RATEのほうが小さい値となる。つまり、(3)式において、比率GR_RATEと比率BR_RATEとに、1>GR_RATE>BR_RATE>0の関係が成立する。
Regarding the characteristics of the color of feces as the assumed color Y, the R element tends to be stronger than the G element (Rs>Gs), and the G element tends to be stronger than the B element (Gs>Bs). Both the ratio GR_RATE and the ratio BR_RATE are values between 0 (zero) and 1. Also, the ratio BR_RATE is smaller than the ratio GR_RATE. That is, in equation (3), the
また、解析部12Bは、色比率のユークリッド距離を算出する際に、色比率を構成する特定の要素に重みづけを行ってもよい。解析部12Bは、以下の(4)式を用いて、色比率の重みづけしたユークリッド距離を算出することができる。(4)式において、Z4は色比率の重みづけしたユークリッド距離である。ΔRpは画素Xと想定色YとのR値の差分、ΔGpは画素Xと想定色YとのG値の差分、ΔBpは画素Xと想定色YとのB値の差分である。GR_COEFは差分ΔGpの重み係数、BR_COEFは差分のΔBpの重み係数である。対象画像における所定の画素XのRGB値は(red、green、blue)、想定色YのRGB値は(Rs、Gs、Bs)である。
Further, when calculating the Euclidean distance of the color ratio, the
Z4=(GR_COEF×ΔGp^2
+BR_COEF×ΔBp^2)^(1/2) …(4)
但し、
GP_COEF>BP_COEF
ΔGp=green/red-GR_RATE
ΔBp=blue/red-BR_RATE
GR_RATE=Gs/Rs
BR_RATE=Bs/Rs
1>GR_RATE>BR_RATE>0
Z4=(GR_COEF×ΔGp̂2
+BR_COEF×ΔBp^2)^(1/2) (4)
however,
GP_COEF > BP_COEF
ΔGp=green/red−GR_RATE
ΔBp=blue/red-BR_RATE
GR_RATE=Gs/Rs
BR_RATE=Bs/Rs
1>GR_RATE>BR_RATE>0
(4)式において、(2)式における係数G_COFE、及び係数B_COFEの関係と同様に、係数GR_COFE、及び係数BR_COFEには、GP_COEF>BP_COEFの関係が成立する。また、(4)式において、(3)式と同様に、比率GR_RATEと比率BR_RATEとに、1>GR_RATE>BR_RATE>0の関係が成立する。例えば、比率GR_RATE=0.7、比率BR_RATE=0.3、係数GR_COFE=40、係数BR_COFE=1に設定される。
In the equation (4), the coefficient GR_COFE and the coefficient BR_COFE have a relationship of GP_COEF>BP_COEF, similar to the relationship between the coefficient G_COFE and the coefficient B_COFE in the equation (2). In addition, in expression (4), the
解析部12Bは、対象画像の画素ごとに算出した空間距離を、グレースケールとした画像(グレースケール対象画像)を作成する。例えば、解析部12Bは、(5)式を用いて、空間距離のスケールを調整し、グレースケール値に換算する。(5)式において、Valはグレースケール値、AMPはスケール調整用の係数、Zは空間距離である。空間距離Zは、RGB値のユークリッド距離Z1、RGB値の重みづけユークリッド距離Z2、色比率のユークリッド距離Z3、色比率の重みづけユークリッド距離Z4の何れであってもよい。また、Z_MAXは、対象画像の画素ごとに算出された空間距離の最大値、Val_MAXは、グレースケール値の最大値である。
The
Val=AMP×Z …(5)
但し、
AMP=Val_MAX/Z_MAX
Val=AMP×Z (5)
however,
AMP = Val_MAX/Z_MAX
例えば、グレースケール対象画像においてグレースケールの階調を0~255の256段階で示す場合、グレースケール値の最大値Val_MAXは255である。この場合、(5)式により空間距離の最大値X_MAXが、グレースケールの最大値Val_MAX(255)となるように、空間距離Zがグレースケール値Valに変換される。これにより、解析部12Bは、想定色との空間距離を、0(白色)~255(黒色)のグレースケール値により表現したグレースケール対象画像を作成する。
For example, the maximum value Val_MAX of the grayscale value is 255 when the grayscale gradation is indicated in 256 steps from 0 to 255 in the grayscale target image. In this case, the spatial distance Z is converted into a grayscale value Val by equation (5) so that the maximum spatial distance value X_MAX becomes the maximum grayscale value Val_MAX (255). As a result, the
ここで、解析部12Bが判定領域を抽出する方法について、図16を用いて説明する。図16は、第3の実施形態に係る解析部12Bが行う処理を説明する図である。図16では、左右方向にグレースケール軸を示しており、グレースケール軸が左から右へ向かうにしたがって、グレースケール値が増加することを示している。
Here, a method for extracting the determination region by the
図16に示すように、グレースケール対象画像において、空間距離が小さい画素が小さいグレースケール値で表現される。つまり、想定色としての便の色により近い色が小さいグレースケール値で表現され、グレースケール値が小さい領域を、便が撮像された領域とみなすことができる。一方、グレースケール対象画像において、空間距離が大きい画素が大きいグレースケール値で表現される。つまり、想定色としての便の色とは離れた色が大きいグレースケール値で表現され、グレースケール値が大きい領域を、便が撮像されていない「非便」の領域とみなすことができる。 As shown in FIG. 16, in the grayscale target image, pixels with small spatial distances are expressed with small grayscale values. In other words, a color closer to the color of feces as an assumed color is represented by a small grayscale value, and the region with a small grayscale value can be regarded as the region where feces is imaged. On the other hand, in the grayscale target image, pixels with large spatial distances are expressed with large grayscale values. In other words, a color that is different from the color of feces as an assumed color is represented by a large grayscale value, and an area with a large grayscale value can be regarded as an "inconvenient" area in which feces are not imaged.
この性質を利用して、解析部12Bは、判定領域を抽出する。具体的に、解析部12Bは、グレースケール対象画像における画素のグレースケール値が、所定の第1閾値(閾値1)未満である領域を排泄物がある領域とし、判定領域として当該排泄物がある領域を抽出する。第1閾値は、便鉢32に溜められた洗浄水Sの色と、水様便の色とを区別する境界に相当するグレースケール値である。
Using this property, the
また、硬便と水様便との色を比較した場合、水様便は水(洗浄水S)に溶けているため、硬便より薄くなることが考えられる。この場合、水様便の色に対応するグレースケール値は、硬便に対応するグレースケール値よりも、想定色としての便の色から離れていることを示す濃い灰色で表現される。 Further, when the color of hard stool and watery stool is compared, watery stool is dissolved in water (rinsing water S), so it is considered to be lighter than hard stool. In this case, the grayscale value corresponding to the color of watery stool is expressed in darker gray, which indicates that the color is farther from the assumed color of stool than the grayscale value corresponding to hard stool.
この性質を利用して、解析部12Bは、判定領域から、水様便の領域と硬便の領域とを区別して抽出する。具体的に、解析部12Bは、グレースケール対象画像における判定領域のうち、グレースケール値が所定の第2閾値(閾値2)未満である領域を硬便の領域、第2閾値以上である領域を水溶便の領域とする。第2閾値は、第1閾値よりも小さい値に設定される。ここで、水溶便の領域は「判定領域」の一例である。また、硬便の領域は「判定領域」の一例である。
Using this property, the
或いは、解析部12Bは、判定領域に水様便の領域と硬便の領域とが混在している場合に、二つの領域(水様便の領域と硬便の領域)を区別して抽出するようにしてもよい。判定領域に二つ領域が混在している場合、判定領域に含まれる画素が取り得るグレースケールの範囲は、水溶便が取り得るグレースケールの範囲と硬便がとり得るグレースケールの範囲とを併せた範囲となるため、比較的広い範囲となる。一方、判定領域に一つの領域(水様便の領域、又は硬便の領域)のみが存在している場合、判定領域に含まれる画素がとり得るグレースケールの範囲は、比較的狭い範囲となる。
Alternatively, when the determination region includes both the watery stool region and the hard stool region, the
この性質を利用して、解析部12Bは、判定領域に含まれる画素におけるグレースケールの範囲に応じて、判定領域に水様便の領域と硬便の領域とが混在しているか否かを判定する。解析部12Bは、例えば、判定領域に含まれる画素におけるグレースケールの最大値と最小値との差分を、グレースケールの範囲とする。解析部12Bは、判定領域におけるグレースケールの範囲が、所定の差分閾値未満である場合、判定領域に水様便の領域と硬便の領域とが混在していない(つまり、判定領域は、水様便の領域、又は硬便の領域のみである)と判定する。解析部12Bは、判定領域におけるグレースケールの範囲が、所定の差分閾値以上である場合、判定領域に水様便の領域と硬便の領域とが混在している。差分閾値は、水溶便が取り得るグレースケールの範囲と硬便がとり得るグレースケールの範囲とに応じて、例えば、何れか広い範囲、何れか狭い範囲、或いは二つの範囲の代表値に対応させた値に設定される。代表値は、二つの範囲の単純加算平均値、重みづけ平均値、中央値等、一般的に用いられる代表値の何れであってもよい。
Using this property, the
解析部12Bは、抽出した判定領域を示す画像(抽出画像)の情報を、判定部13Bに出力する。この場合、解析部12Bは、判定領域に水様便の領域と硬便の領域とが混在している場合、判定領域において水様便の領域を示す画像(水様部抽出画像)と、判定領域において硬便の領域を示す画像(硬部抽出画像)の情報を、判定部13Bに出力する。一方、解析部12Bは、判定領域に水様便の領域と硬便の領域とが混在していない場合、判定領域として水様便の領域を示す画像(水様便抽出画像)、又は判定領域として硬便の領域を示す画像(硬便抽出画像)の情報を、判定部13Bに出力する。
The
図15に戻り、判定部13Bは、解析部12Bにより取得した抽出画像に基づいて、判定事項に関する判定を行う。具体的に、判定部13Bは、水様便抽出画像を用いて、水様便の性状を判定する。判定部13Bは、硬便抽出画像を用いて、硬便の性状を判定する。判定部13Bは、水様部抽出画像を用いて、水様便の性状を判定する。判定部13Bは、硬部抽出画像を用いて、硬便の性状を判定する。
Returning to FIG. 15, the
判定部13Bは、上述した他の実施形態と同様に、機械学習による推定結果を用いて便の性状を判定してもよい。この場合、解析部12Bが、機械学習による推定を行なうようにしてもよいし、他の機能部が推定するようにしてもよい。また、判定部13Bは、他の画像解析の手法を用いて便の性状を判定してもよい。この場合、判定装置10Bは、学習済みモデル記憶部16を省略することができる。
The
判定部13Bは、解析部12Bにより判定領域が抽出され、範囲が絞り込まれた画像を解析の対象とすることができるため、対象画像の全体を解析する必要がない。また、判定部13Bは、水様便か硬便かが区別された画像を解析の対象とすることができるため、水様便か硬便かが区別されていない画像を解析の対象とする場合と比較して、性状を判定する処理が容易となる。
Since the
ここで、第3の実施形態の判定装置10Bが行う処理について、図17を用いて説明する。図17は、第3の実施形態に係る判定装置10Bが行う処理の流れを示すフローチャートである。本フローチャートでは、画像情報を取得する処理が行われた以降の処理の流れを示している。画像情報を取得する処理は、図4に示すフローチャートのステップS11に対応する処理であり、本フローチャートでは「カメラ画像」と記載している処理に相当する。
Here, processing performed by the
解析部12Bは、対象画像をグレースケール化して、グレースケール対象画像を作成する(ステップS70)。
解析部12Bは、グレースケール対象画像における画素ごとのグレースケール値が第1閾値(閾値1)未満であるか否かを判定する(ステップS71)。
解析部12Bは、グレースケール対象画像において、グレースケール値が第1閾値(閾値1)未満である判定領域の画素群について、グレースケール値の最大値と最小値との差分Dを計算する(ステップS72)。
The
The
In the grayscale target image, the
解析部12Bは、差分Dが所定の差分閾値a未満であるか否かを判定し(ステップS73)、差分Dが所定の差分閾値a未満である場合、判定領域に水様便の領域と硬便の領域とが混在していないと判定し、ステップS74に示す処理に進む。ステップS74において、解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)未満であるか否かを判定する。
解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)未満である場合、硬便抽出画像を判定部13Bに出力する(ステップS75)。判定部13Bは、硬便抽出画像に基づいて、硬便だけの(硬便に特化した)便の性状を判定する(ステップS82)。
解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)以上である場合、水様便抽出画像を判定部13Bに出力する(ステップS76)。判定部13Bは、水様便抽出画像に基づいて、水様便だけの(水様便に特化した)便の性状を判定する(ステップS83)。
The
When the grayscale value of each pixel in the determination region is less than the second threshold (threshold 2), the
When the grayscale value of each pixel in the determination region is equal to or greater than the second threshold (threshold 2), the
一方、解析部12Bは、差分Dが所定の差分閾値a以上である場合(ステップS73、NO)、判定領域に水様便の領域と硬便の領域とが混在していると判定する(ステップS77)。解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)未満であるか否かを判定する(ステップS78)。
解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)未満である場合、その領域を硬部画像として判定部13Bに出力する(ステップS79)。判定部13Bは、硬部抽出画像に基づいて、硬部(混在した状態における硬便の領域)の便の性状を判定する(ステップS84)。
解析部12Bは、判定領域における画素ごとのグレースケール値が第2閾値(閾値2)以上である場合、その領域を水様部抽出画像として判定部13Bに出力する(ステップS76)。判定部13Bは、水様部抽出画像に基づいて、水様部(混在した状態における水様便の領域)の便の性状を判定する(ステップS85)。
On the other hand, when the difference D is equal to or greater than the predetermined difference threshold value a (step S73, NO), the
When the grayscale value of each pixel in the determination region is less than the second threshold (threshold 2), the
When the grayscale value of each pixel in the determination region is equal to or greater than the second threshold (threshold 2), the
判定部13Bは、ステップS82~S85による便の性状を判定した結果を用いて、対象画像における便の性状を総合的に判定する(ステップS86)。
The
なお、ステップS71において、グレースケール対象画像における画素ごとのグレースケール値が第1閾値(閾値1)以上である画素群について、便以外の画像であると判定し判定領域から除外する(ステップS81)。 Note that in step S71, a pixel group in which the grayscale value of each pixel in the grayscale target image is equal to or greater than the first threshold value (threshold value 1) is determined to be an image other than feces and excluded from the determination region (step S81). .
以上説明したように、第3の実施形態の判定装置10Bでは、解析部12Bが、想定色Yの色の特性に基づいて、対象画像から判定領域を抽出する。これにより、第3の実施形態の判定装置10Bでは、対象画像から排泄物がある領域を抽出することができる。便の性状を判定する領域を絞り込むことができるので、対象画像の全体を解析対象とする場合と比較して、判定に要する処理負荷を低減させることが可能である。処理負荷を低減させることにより、高い演算能力を有しない装置でも処理を行うことが可能となるために、装置コストの増大を抑制することができる。また、判定の対象となる排泄物の想定色Yの色の特性に基づいて判定領域を抽出することができるために、想定色Yの色に無関係に抽出された領域と比較して判定領域における判定が容易となる。
As described above, in the
また、第3の実施形態の判定装置10Bでは、解析部12Bは、対象画像における画素ごとの色について、想定色Yとの色空間上における空間距離Zを算出し、算出した空間距離Zが所定の閾値未満である画素の集合を、判定領域として抽出する。これにより、第3の実施形態の判定装置10Bでは、空間距離Zにより想定色Yとの色の違い(色差)を算出して想定色Yとの色差が少ない領域を判定することができ、定量的な指標に基づいて判定領域を抽出することが可能となる。
Further, in the
また、第3の実施形態の判定装置10Bでは、解析部12Bは、対象画像における画素ごとの色について、想定色Yとの色の要素ごとの差分に重みづけをした値を用いて、色空間上における空間距離を算出する。これにより、第3の実施形態の判定装置10Bでは、想定色Yとの違いが表れやすい要素(例えば、R要素)を強調させた空間距離を算出することが可能である。これにより、精度よく判定領域を抽出することが可能となる。
Further, in the
また、第3の実施形態の判定装置10Bでは、対象画像はRGB画像であり、想定色はRGB値で示される色であり、解析部12Bは、対象画像における画素ごとのR値、G値、B値の比率を示す色比率と、想定色Yにおける色比率との、R要素における比率の差分、G要素における比率の差分、及びB要素における比率の差分に重みづけをした値を用いて、色空間上における空間距離を算出する。これにより、第3の実施形態の判定装置10Bでは、被写体に照射する光の光量の相違による、色の濃淡の違いに影響されずに空間距離を算出することが可能である。これにより、精度よく判定領域を抽出することが可能となる。
Further, in the
また、第3の実施形態の判定装置10Bでは、解析部12Bは、グレースケール対象画像を作成し、当該グレースケール対象画像における画素のグレースケール値が所定の第1閾値(閾値1)未満である領域を排泄物がある領域とし、判定領域として当該排泄物がある領域を抽出する。これにより、第3の実施形態の判定装置10Bでは、グレースケール対象画像における画素ごとのグレースケール値を閾値と比較するという容易な方法により判定領域を抽出することが可能となる。
Further, in the
また、第3の実施形態の判定装置10Bでは、解析部12Bは、グレースケール対象画像における画素のグレースケール値が前記第1閾値未満、且つ前記第1閾値より小さい所定の第2閾値以上である領域を水様便が示された領域とし、前記グレースケール対象画像における画素のグレースケール値が前記第2閾値未満である領域を硬便が示された領域とし、前記判定領域として、当該水様便が示された領域及び当該硬便が示された領域を抽出する。これにより、第3の実施形態の判定装置10Bでは、グレースケール対象画像における画素ごとのグレースケール値を閾値と比較するという容易な方法により、水様便が示された領域と、硬便が示された領域とを区別して判定領域を抽出することができ、より精度よく判定領域を抽出することが可能となる。また、水様便が示された領域と硬便が示された領域とを区別して判定領域を抽出することにより、区別されない場合と比較して、判定部13Bによる判定の処理負荷を低減させることが可能である。
Further, in the
なお、上記では、解析部12Bが一つのグレースケール対象画像を用いて判定領域を抽出する場合を例示して説明したが、これに限定されることはない。解析部12Bは、複数の異なるグレースケール対象画像を用いて判定領域を抽出してもよい。例えば、解析部12Bは、色比率の重みづけしたユークリッド距離Z4をグレースケールに変換したグレースケール対象画像を用いて、第1閾値による判定領域を抽出する処理のみを行うようにしてもよい。そして、解析部12Bは、ユークリッド距離Z1をグレースケールに変換したグレースケール対象画像を用いて、第2閾値による水様便と硬便との領域を区別して抽出する処理のみを行うようにしてもよい。
In the above description, the case where the
また、上記では複数の実施形態について説明したが、各実施形態における構成は、当該実施形態の構成のみに限定されることはなく、他の実施形態の構成として用いられてもよい。例えば、第1の実施形態において便の性状を判定する処理に、第2の実施形態及びその変形例に係る差分画像、分割画像、或いは全体画像と部分画像とが用いられてもよい。また、第2の実施形態及びその変形例に係る差分画像等に、第3の実施形態おけるグレースケール対象画像が用いられてもよい。また、第3の実施形態の便の性状を判定する処理に第2の実施形態及びその変形例に係る差分画像、分割画像、或いは全体画像と部分画像とが用いられてもよい。 Moreover, although a plurality of embodiments have been described above, the configuration of each embodiment is not limited to the configuration of the embodiment, and may be used as the configuration of other embodiments. For example, the difference image, divided image, or whole image and partial image according to the second embodiment and its modification may be used for the process of determining the properties of stool in the first embodiment. Further, the grayscale target image in the third embodiment may be used for the difference image and the like according to the second embodiment and its modification. Further, the difference image, the divided image, or the whole image and the partial image according to the second embodiment and its modification may be used for the process of determining the properties of stool of the third embodiment.
上述した実施形態における判定装置10(10A、10B)が行う処理の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 All or part of the processing performed by the determination device 10 (10A, 10B) in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Furthermore, "computer-readable recording medium" means a medium that dynamically retains a program for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include something that holds the program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client in that case. Further, the program may be for realizing a part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be implemented using a programmable logic device such as FPGA.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.
1 判定システム
10 判定装置
11 画像情報取得部
12 解析部(推定部)(抽出部)
13 判定部
14 出力部
15 画像情報記憶部
16 学習済みモデル記憶部
17 判定結果記憶部
18 通信部
20 学習装置
21 通信部
22 学習部
3 便器装置
30 便器
32 便鉢
34 内部空間
36 開口部
S 洗浄水
4 撮像装置
1
13
Claims (6)
前記対象画像の全体を示す全体画像、及び前記対象画像の一部の領域を示す部分画像を生成する前処理部と、
排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行う推定部と、
前記推定部による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う判定部と、
を備えることを特徴とする判定装置。 an image information acquisition unit that acquires image information of a target image that is a target image for determining a determination item related to stool and that is an image of the internal space of the toilet bowl after excretion;
a preprocessing unit that generates an entire image showing the entire target image and a partial image showing a partial area of the target image;
Machine learning using a neural network determines the correspondence relationship between the overall image for learning, which is an image showing the entire internal space of the toilet bowl after excretion, and the determination result of the first overall determination item among the determination items. By inputting the whole image to the learned model that has been trained, a first estimation regarding the first determination item is performed for the whole image, and a learning partial image that is a partial area of the learning whole image is obtained. , by inputting the partial image to a trained model trained by machine learning using a neural network for the correspondence relationship between the second judgment item, which is more detailed than the first judgment item, among the judgment items, an estimation unit that performs a second estimation regarding the second determination item for the image;
a determining unit that determines the determination item for the target image based on the estimation result of the estimating unit;
A determination device comprising:
請求項1に記載の判定装置。 The preprocessing unit generates a partial image including at least an opening of a toilet bowl in the target image.
The determination device according to claim 1.
請求項1又は請求項2に記載の判定装置。 The estimation unit estimates the presence or absence of scattering of stool as the first estimation, and estimates the nature of the stool as the second estimation.
The determination device according to claim 1 or 2.
請求項1から請求項3の何れか一項に記載の判定装置。 The determination unit corrects the estimation result of the second estimation using the estimation result of the first estimation.
The determination device according to any one of claims 1 to 3.
前処理部が、前記対象画像としての全体画像、及び前記対象画像の一部の領域である部分画像を生成し、
推定部が、排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行い、
判定部が、前記推定部による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う、
判定方法。 An image information acquisition unit acquires image information of a target image that is a target image for determining a judgment item related to stool, and that is an image of the internal space of the toilet bowl after excretion,
a preprocessing unit that generates a whole image as the target image and a partial image that is a partial area of the target image;
The estimating unit uses a neural network to determine the correspondence relationship between the overall learning image, which is an image showing the entire internal space of the toilet bowl after excretion, and the determination result of the first overall determination item among the determination items. By inputting the whole image to a trained model trained by machine learning, a first estimation regarding the first determination item is performed for the whole image, and a learning that is a part of the learning whole image inputting the partial image to a trained model that has learned the corresponding relationship between the partial image for use and a second determination item that is more detailed than the first determination item among the determination items by machine learning using a neural network; performs a second estimation regarding the second determination item for the partial image,
a determining unit, based on the estimation result by the estimating unit, determines the determination item for the target image;
judgment method.
便に関する判定事項を判定する対象となる対象画像であり、排泄後における便鉢の内部空間を撮像した対象画像の画像情報を取得する画像情報取得手段、
前記対象画像としての全体画像、及び前記対象画像の一部の領域である部分画像を生成する前処理手段、
排泄後における便鉢の内部空間の全体を示す画像である学習用全体画像と、前記判定事項のうち大局的な第1判定事項の判定結果との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記全体画像を入力させることにより、前記全体画像について前記第1判定事項に関する第1推定を行うと共に、前記学習用全体画像の一部の領域である学習用部分画像と、前記判定事項のうち前記第1判定事項より詳細な第2判定事項との対応関係を、ニューラルネットワークを用いた機械学習により学習した学習済みモデルに、前記部分画像を入力させることにより、前記部分画像について前記第2判定事項に関する第2推定を行う推定手段、
前記推定手段による推定結果に基づいて、前記対象画像について前記判定事項に関する判定を行う判定手段、
として機能させるためのプログラム。 The computer of the judgment device,
Image information acquisition means for acquiring image information of a target image that is a target image for determining a judgment item related to stool, and that is an image of the internal space of the toilet bowl after excretion;
Preprocessing means for generating a whole image as the target image and a partial image as a partial area of the target image;
Machine learning using a neural network determines the correspondence relationship between the overall image for learning, which is an image showing the entire internal space of the toilet bowl after excretion, and the determination result of the first overall determination item among the determination items. By inputting the whole image to the learned model that has been trained, a first estimation regarding the first determination item is performed for the whole image, and a learning partial image that is a partial area of the learning whole image is obtained. , by inputting the partial image to a trained model trained by machine learning using a neural network for the correspondence relationship between the second judgment item, which is more detailed than the first judgment item, among the judgment items, estimation means for performing a second estimation regarding the second determination item for the image;
determination means for determining the determination item for the target image based on the estimation result by the estimation means;
A program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093677A JP7262301B2 (en) | 2019-05-17 | 2019-05-17 | Determination device, determination method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093677A JP7262301B2 (en) | 2019-05-17 | 2019-05-17 | Determination device, determination method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187693A JP2020187693A (en) | 2020-11-19 |
JP7262301B2 true JP7262301B2 (en) | 2023-04-21 |
Family
ID=73223323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019093677A Active JP7262301B2 (en) | 2019-05-17 | 2019-05-17 | Determination device, determination method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7262301B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008054835A (en) | 2006-08-30 | 2008-03-13 | Toshiba Corp | Health state diagnosing system |
JP2008234623A (en) | 2007-02-19 | 2008-10-02 | Seiko Epson Corp | Category classification apparatus and method, and program |
WO2018187790A2 (en) | 2017-04-07 | 2018-10-11 | Toi Labs, Inc. | Biomonitoring devices, methods, and systems for use in a bathroom setting |
-
2019
- 2019-05-17 JP JP2019093677A patent/JP7262301B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008054835A (en) | 2006-08-30 | 2008-03-13 | Toshiba Corp | Health state diagnosing system |
JP2008234623A (en) | 2007-02-19 | 2008-10-02 | Seiko Epson Corp | Category classification apparatus and method, and program |
WO2018187790A2 (en) | 2017-04-07 | 2018-10-11 | Toi Labs, Inc. | Biomonitoring devices, methods, and systems for use in a bathroom setting |
Non-Patent Citations (1)
Title |
---|
David Hachuel, Akshay Jha, Deborah Estrin, Alfonso Martinez, Kyle Staller, Christopher Velez,Augmenting Gastrointestinal Health: A Deep Learning Approach to Human Stool Recognition and Characterization in Macroscopic Images,arXiv,2019年03月,https://arxiv.org/ftp/arxiv/1903/1903.10578.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2020187693A (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7394602B2 (en) | Judgment device | |
US20220375080A1 (en) | Determination device | |
JP2020187089A (en) | Determination device, determination method, and program | |
US11087462B2 (en) | System and method for determining a colonoscopy image | |
An et al. | Application of computer vision in fish intelligent feeding system—A review | |
CN107145878A (en) | Old man's anomaly detection method based on deep learning | |
WO2017135169A1 (en) | Toilet device | |
JPH0737087A (en) | Picture processor | |
JP2018206321A (en) | Image processing device, image processing method and image processing program | |
JP7262301B2 (en) | Determination device, determination method, and program | |
KR101976494B1 (en) | Method And Potty for Analyzing Personal Health | |
JP2020187691A (en) | Determination device, determination method, and program | |
JP2020187692A (en) | Determination device, determination method, and program | |
Zmudzinski | Deep Learning Guinea Pig Image Classification Using Nvidia DIGITS and GoogLeNet. | |
CN109087321B (en) | Profile detection method based on visual path multi-level inhibition area synergistic effect | |
US20230020686A1 (en) | Waste identification method, waste identification device, and waste identification program | |
US20230009654A1 (en) | Excrement management system, excretion information management method, computer program, edge server, and toilet seat device | |
CN114430474A (en) | Excreta status display system | |
Carnimeo et al. | An intelligent system for improving detection of diabetic symptoms in retinal images | |
CN114859767A (en) | Intelligent toilet lid operation analysis control system | |
WO2022149342A1 (en) | Excrement determination method, excrement determination device, and excrement determination program | |
Muhamad et al. | Fish freshness classification based on image processing and fuzzy logic | |
Elfert et al. | Towards an ambient estimation of stool types to support nutrition counseling for people affected by the geriatric frailty syndrome | |
CN111598064B (en) | Intelligent toilet and cleaning control method thereof | |
JP2023068234A (en) | Excrement image display system and toilet bowl |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7262301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |