JP2005070908A - Method and system for measuring meal intake for hospital - Google Patents

Method and system for measuring meal intake for hospital Download PDF

Info

Publication number
JP2005070908A
JP2005070908A JP2003296720A JP2003296720A JP2005070908A JP 2005070908 A JP2005070908 A JP 2005070908A JP 2003296720 A JP2003296720 A JP 2003296720A JP 2003296720 A JP2003296720 A JP 2003296720A JP 2005070908 A JP2005070908 A JP 2005070908A
Authority
JP
Japan
Prior art keywords
tableware
food
image
meal
intake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003296720A
Other languages
Japanese (ja)
Inventor
Fumiaki Takeda
史章 竹田
Shigeki Kobayashi
茂樹 小林
Reiko Katabe
麗子 形部
Denshiro Abo
田司郎 安房
Sachi Yamamoto
早知 山本
Toshiaki Oe
俊昭 尾江
Shiro Osada
司郎 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003296720A priority Critical patent/JP2005070908A/en
Publication of JP2005070908A publication Critical patent/JP2005070908A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for measuring meal intake in a hospital by comparing images before and after meals, and calculating a caloric intake from a preliminarily prepared food component table to automatically measure and record meal intake accurately and quickly by a simple operation. <P>SOLUTION: After the end of a meal, a dining table A of each person is successively stored in an imaging apparatus 2, and the dining table A is automatically photographed from the upper part by a digital camera 8 (a step 1). Only the part of tableware B is extracted from the image of the dining table A (a step S2). Information relating to the tableware B is acquired from a tableware database, and the type of the tableware B is specified. Furthermore, food C remaining on each tableware B is extracted (a step 3). Then, the area of each residual food C is calculated (a step 4). Finally, the area of the food C before a meal on each tableware B is compared with the area of the food remaining after a meal so that the caloric intake and nutrient of the food C can be calculated from the difference of the both areas. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、病院内や介護施設内など(以下、単に院内という)において入院患者や高齢者などが食事を摂取した際の摂取量を計測する方法と計測システムに関する。   The present invention relates to a method and a measurement system for measuring an intake amount when an inpatient or an elderly person ingests a meal in a hospital or a nursing facility (hereinafter simply referred to as “in-hospital”).

現在、例えば入院患者の食事管理に関する一般的な方法は、個々の患者に対し、栄養士が食事の食前状態と患者が食事を終えた食後状態を目で確認し、食物成分表と照らし合わせて食事の摂取量を測定している。したがって、測定基準は目分量であり判定者(通常は栄養士)によってばらつきがあり一定しているとはいえない。また、入院患者数および食事のメニュー数、さらには、患者ごとに異なる食事摂取量と、それらを記録として残す作業を考慮すると、膨大な手間と時間が費やされている。そのため、これらの作業を栄養士に代わって機械で計測・記録したいという病院関係者の強い要望がある。
ニューラルネットワークに関する先行技術がある(例えば、特許文献1参照)。
特開平11−96431号公報
At present, for example, the general method for dietary management of hospitalized patients is that a dietician visually confirms the pre-meal state of the meal and the post-meal state when the patient has finished eating for each individual patient, and compares the meal with the food composition table. The amount of intake is measured. Therefore, the standard of measurement is the amount of scale, which varies depending on the judge (usually a dietitian) and cannot be said to be constant. Considering the number of inpatients and the number of meal menus, as well as the amount of meal intake that varies from patient to patient, and the work of keeping them as records, enormous effort and time are spent. For this reason, there is a strong demand from hospital staff who want to measure and record these operations on machines instead of dieticians.
There is prior art related to a neural network (see, for example, Patent Document 1).
JP-A-11-96431

院内における入院患者の食事管理方法は、上記したように栄養士が患者に食膳を配膳する前の状態と患者が食事を終えた後の状態の2つの状態を目で確認し、食物成分表と照らし合わせて、個々の患者毎の摂取量を計測している。   As described above, the diet management method for in-patients in the hospital visually confirms two states, the state before the dietitian distributes the meal to the patient and the state after the patient finishes the meal. In addition, the intake for each individual patient is measured.

こうした現状の食事摂取量計測に関する問題点は、患者が摂取した食事の量を計測する際に、栄養士が目視で食物の残量から患者の食事摂取量を決定している点である。このため、測定値はあいまいで測定基準が栄養士によって異なる。また、図20に示すように個々の患者の食事をすべて栄養士の目で計測するために作業効率も低い。さらに、患者個人の計測データの管理において電子化されていないなど、種々の問題点がある。   The problem with the current dietary intake measurement is that the dietician visually determines the patient's dietary intake from the remaining amount of food when measuring the amount of meal consumed by the patient. For this reason, the measured value is ambiguous and the measurement standard varies depending on the dietitian. Further, as shown in FIG. 20, since all diets of individual patients are measured with the eyes of a nutritionist, the work efficiency is low. Furthermore, there are various problems such as not being digitized in the management of individual patient measurement data.

本発明は上記した従来の食事管理における問題点を解決するためになされたもので、その基本コンセプトは、食前および食後の画像を比較し、あらかじめ作成された食物成分表から摂取されたカロリーを算出することからなり、簡単な操作で自動的に食事の摂取量を正確にかつ短時間で計測して記録できる院内における食事摂取量を計測する方法とその計測システムを提供しようとするものである。   The present invention was made to solve the above-mentioned problems in conventional diet management, and its basic concept is to compare pre-meal and post-meal images and calculate caloric intake from a pre-prepared food composition table. Therefore, it is an object of the present invention to provide a method and a measurement system for measuring in-hospital meal intake that can automatically and accurately measure and record meal intake by a simple operation.

本発明に係る計測方法および計測システムの基本コンセプトは、食前および食後の画像を比較観察し、患者等が摂取したカロリーを算出するものである。本計測システムの処理の流れは、図4に示すように撮像装置で食膳を撮影後、トレイから食器部分および食物部分をそれぞれ抽出し、つぎに食前と食後における食物部分の画像の変化量を面積で計測する。本計測システムでは、トレイ画像から個々の食器を瞬時(2〜3秒)に特定するためにニューラルネットワーク(以下、NNともいう)を応用して用いている。また、食器画像からの食物画像の抽出には、ラベリングと8近傍収縮処理などの画像処理を併用している。そして、食前後の食物の画像の変化量を面積で評価し、食物データベースとリンクして摂取カロリーを算出するものである。   The basic concept of the measurement method and measurement system according to the present invention is to compare and observe pre-meal and post-meal images and calculate the calories consumed by patients and the like. As shown in FIG. 4, the processing flow of the present measurement system is to extract the tableware portion and the food portion from the tray after photographing the meal with the imaging device, and then the change amount of the image of the food portion before and after the meal as the area. Measure with In this measurement system, a neural network (hereinafter also referred to as NN) is applied and used to identify individual dishes from a tray image instantaneously (2 to 3 seconds). In addition, labeling and image processing such as 8-neighbor contraction processing are used in combination for extracting food images from tableware images. Then, the change amount of the food image before and after the meal is evaluated by the area, and the calorie intake is calculated by linking with the food database.

上記の目的を達成するために本発明の請求項1に係る計測方法は、
1)撮像装置でトレイ上の各食器に食物が載った一人分の食膳をその食前状態と食後状態についてそれぞれ撮影する、
2)食前状態の画像において前記トレイ上の各食器を抽出し、あらかじめ入力した食器データベースに照らして食器の種類をニューラルネットワークに入力して判別する、
3)前記各食器画像上の食物部分だけを抽出し、食前と食後の食物部分の変化量を面積で求めたのち、あらかじめ作成した食物データベースに照らして摂取カロリーを算出する
−上記の複数の工程を備えたことを特徴としている。
In order to achieve the above object, a measurement method according to claim 1 of the present invention includes:
1) Using an imaging device, take a picture of a single meal containing food on each tableware on the tray for the pre-meal state and the post-meal state,
2) Extract each tableware on the tray in the pre-meal state image, and determine the type of tableware by inputting it into the neural network in light of the tableware database input in advance.
3) Extract only the food part on each tableware image, calculate the amount of change in the food part before and after the meal by area, and then calculate the calorie intake in light of the food database prepared in advance. It is characterized by having.

請求項1記載の院内用食事摂取量の計測方法によれば、各人の食事摂取量を一定の基準の下に正確に計測でき、しかも短時間で各人の食事摂取量を自動的にかつ正確に計測できる。さらに、一人一人の食事摂取量のデータを電子化して容易に管理できる。   According to the method for measuring in-hospital meal intake according to claim 1, each person's meal intake can be accurately measured under a certain standard, and each person's meal intake can be automatically and quickly measured. Accurate measurement. Furthermore, it is possible to easily manage each person's meal intake data by digitizing it.

請求項2に記載のように、
前記各食器の種類をニューラルネットワークに入力して判別(データベースに登録されてある各食器に適した一定の間隔で食膳画像から所定の画像を切り出し、その切り出し画像から抽出された形状をニューラルネットワークに入力する。食器データベースシステムより取得した情報をニューラルネットワークに入力した場合の反応値とニューラルネットワークの反応値が食器登録時と同様に最大発火した場合、その切り出し画像が目的の食器を含むものと判断される。すなわち、ニューラルネットワークによって出力された値のうち、最も高い値を出力したパターンに相当する食器が、入力された食器と確定される。それにより食器の種類が判別され、その位置も特定される。)するとき、各食器上に載っている食物部分と食器部分の濃度値を比較し、一時的に食物部分の濃度値が食器部分の濃度値に一致するように食器画像を修正し、この修正した画像であらかじめ撮影した食器のみの画像データに基づいて食器の種類を判別する。
As claimed in claim 2,
The type of each tableware is input to the neural network and discriminated (a predetermined image is cut out from the food image at regular intervals suitable for each tableware registered in the database, and the shape extracted from the cut-out image is input to the neural network. If the response value when the information obtained from the tableware database system is input to the neural network and the response value of the neural network are ignited in the same way as when registering the tableware, it is determined that the cut-out image contains the target tableware. That is, the tableware corresponding to the pattern that outputs the highest value among the values output by the neural network is determined as the input tableware, whereby the type of tableware is determined and its position is also specified. The concentration of food and tableware on each tableware. The tableware image is corrected so that the concentration value of the food portion temporarily matches the concentration value of the tableware portion, and the type of tableware is discriminated based on the image data of only the tableware taken in advance with this corrected image. To do.

請求項2記載の院内用食事摂取量の計測方法によれば、一人当たりの食事摂取量等に関する計測結果を2〜3秒程度の極めて短い時間内に算出できるうえに、撮影した画像がやや不鮮明、あるいは食器の一部が重なっても食器をその位置も含めて正確に特定できるから、多数の食膳をデジタルカメラで瞬時に撮影し、食器ごとの食物の摂取量を計測できる。   According to the method for measuring in-hospital meal intake according to claim 2, it is possible to calculate the measurement result relating to the meal intake per person within a very short time of about 2 to 3 seconds, and the photographed image is slightly unclear. Or, even if a part of the tableware overlaps, the tableware can be accurately identified including its position, so a large number of meals can be instantly photographed with a digital camera, and the amount of food intake for each tableware can be measured.

請求項3に記載のように、
前記食膳画像において前記各食器の一つをそれぞれ包含可能かつ最小面積の長方形又は円形などの所定形状にて一定間隔ごとに切り出し(一部の切り出し量のオーバラップは許容し)、各切り出し画像を各食器上の食物部分を食器の濃度値に一致する画像に修正して前記ニューラルネットワークに入力し、出力ユニットの反応値(出力値)が前記食器データベースを登録した際の反応値(出力値)にほぼ一致した場合に食器を抽出することができる。
請求項3記載の院内用食事摂取量の計測方法によれば、食物の載っていない状態の画像に修正して食器を特定するから、2〜3秒の短時間で食器の種類を確実に特定できる。
As claimed in claim 3,
Each of the tableware images can be included in the dining table image and cut out at predetermined intervals in a predetermined shape such as a rectangle or a circle with the smallest area (overlapping of some cutout amounts is allowed). The food portion on each tableware is corrected to an image that matches the concentration value of the tableware and input to the neural network, and the response value (output value) when the output value of the output unit is registered in the tableware database. The tableware can be extracted when it substantially matches.
According to the method for measuring in-hospital meal intake according to claim 3, since the tableware is specified by correcting the image with no food on it, the type of tableware is surely specified in a short time of 2 to 3 seconds. it can.

請求項4に記載のように、
前記ニューラルネットワークに入力する前記各食器の半径、縦および横の長さ(画素数)を、
1)2値化のためのしきい値を設定する。しきい値より大きいか小さいかで、”1”画素と”0”画素に分ける。
2)8近傍収縮処理を実施し、2値化画像のノイズ除去を行なう。
3)“1”画素が集合している(8近傍に“1”画素がある)部分にそれぞれラベル番号を付ける。
4)ラベル領域のx軸、y軸のそれぞれ最大値、最小値を求める。
5)上記4)にて求めた最大値、最小値から前記食器の縦および横の長さを求める。
−上記の複数の工程によって行うことが好ましい。
As claimed in claim 4,
The radius, vertical and horizontal length (number of pixels) of each tableware input to the neural network,
1) Set a threshold value for binarization. The pixel is divided into “1” pixel and “0” pixel depending on whether it is larger or smaller than the threshold value.
2) Perform 8-neighbor contraction processing to remove noise from the binarized image.
3) A label number is assigned to each portion where “1” pixels are aggregated (there are “1” pixels in the vicinity of 8).
4) Find the maximum and minimum values of the x-axis and y-axis of the label area, respectively.
5) Obtain the vertical and horizontal lengths of the tableware from the maximum and minimum values obtained in 4) above.
-It is preferable to carry out the above steps.

請求項4記載の院内用食事摂取量の計測方法によれば、トレイ上で食器が移動して食前の位置からずれている場合(例えば、トレイからはみ出している場合や他の食器の一部が重なっている場合)、いいかえれば、切り出した部分の画像に他の食器の一部が浸入して目標とする食器の画像に対しノイズとして影響している場合においても、食物抽出時に使用した切り出し部分の画像に対し数回の収縮処理を用いる、ノイズである小さな孤立領域を消去することができ、また、非線形識別能力を有するニューラルネットワークにより食器の識別判断をしていることから、食器の位置を正確に特定できる。これにより、以後の食器上における食物の面積を正確に算出できる。   According to the method for measuring in-hospital meal intake according to claim 4, when the tableware moves on the tray and deviates from the position before the meal (for example, when it protrudes from the tray or some other tableware In other words, the cutout part used when extracting the food even if some of the other tableware entered the cutout part of the image and affected the target tableware image as noise. It is possible to erase a small isolated area that is noise using several times of shrinkage processing on the image of the image, and the discrimination of the tableware is performed by a neural network having a non-linear identification capability, so the position of the tableware can be determined It can be identified accurately. Thereby, the area of the food on the subsequent tableware can be calculated accurately.

請求項5に記載のように、
前記各食器上からの食物の抽出を、
1)256色ビットマップファイルから前記食膳画像を取り出したのち、RGB(赤・青・緑)のうち、例えば、青色画像だけを取り出す。
2)しきい値を用いて前記青色画像を2値化する。すなわち、a)しきい値以上の画素を“1”画素(食物部分)とする。b)しきい値より小さい画素を“0”画素(背景部分)とする。
3)8近傍収縮処理を行なって前記青色画像内のノイズを除去する。収縮回数を1〜100(実験では最適値は4)とする。
4)ラベル処理を行なう。すなわち、a)“1”画素を探索する。b)探索した“1”画素に、現在のラベル番号を付ける。c)現在のラベル番号の8近傍に“1”画素があれば、その画素に同じラベル番号を設定する。
5)各々のラベル領域の中心位置を求め、求めたラベル領域ごとに、領域の位置の最大値および最小値を求める。
−上記の複数の工程によって行うことができる。
As claimed in claim 5,
Extraction of food from each tableware,
1) After extracting the food image from the 256-color bitmap file, for example, extract only a blue image out of RGB (red, blue, green).
2) The blue image is binarized using a threshold value. That is, a) Pixels equal to or greater than the threshold value are set to “1” pixels (food portion). b) Pixels smaller than the threshold are set to “0” pixels (background portion).
3) Eight neighborhood contraction processing is performed to remove noise in the blue image. The number of contractions is 1 to 100 (the optimum value is 4 in the experiment).
4) Perform label processing. That is, a) “1” pixel is searched. b) The current label number is assigned to the searched “1” pixel. c) If there is a “1” pixel near 8 of the current label number, the same label number is set for that pixel.
5) The center position of each label area is obtained, and the maximum value and the minimum value of the area position are obtained for each obtained label area.
-It can be carried out by a plurality of steps as described above.

請求項5記載の院内用食事摂取量の計測方法によれば、食物が固形物である場合に限らず、流動物であっても食物の面積を正確に特定でき、とくに食物の残量の特定に有効性を発揮する。   According to the method for measuring in-hospital meal intake according to claim 5, the area of the food can be accurately specified not only when the food is solid, but also when it is a fluid, particularly the remaining amount of food is specified. To demonstrate its effectiveness.

請求項6に記載のように、
前記摂取量の算出を、
1)食物の残量が100%の場合のカロリーAcalと面積(画素)Sを算出する。
2)食後における食物の残りを各食器毎に抽出する。
3)食物の残り部分の面積(画素)sを算出する。
4)食器毎の摂取カロリーaは下記の式で算出する。
acal={1−s/S}×Acal
−上記の複数の工程によって行うことができる。
As claimed in claim 6,
Calculation of the intake amount
1) Calorie Acal and area (pixel) S when the remaining amount of food is 100% are calculated.
2) The rest of the food after the meal is extracted for each tableware.
3) Calculate the area (pixel) s of the remaining portion of the food.
4) The calorie intake a for each tableware is calculated by the following formula.
acal = {1-s / S} × Acal
-It can be carried out by a plurality of steps as described above.

請求項6記載の院内用食事摂取量の計測方法によれば、瞬時に食物の残量を算出できるから、多人数の食事の摂取量を短時間で正確に算出できる。   According to the method for measuring in-hospital meal intake according to claim 6, since the remaining amount of food can be calculated instantaneously, the intake of meals for a large number of people can be accurately calculated in a short time.

請求項7に記載のように、
算出した前記食物の摂取量を電子化して各患者ごとにデータベースに記録し、患者の短期あるいは長期の食事管理に使用することができる。
As claimed in claim 7,
The calculated food intake can be digitized and recorded in a database for each patient and used for short-term or long-term meal management of the patient.

請求項7記載の院内用食事摂取量の計測方法によれば、病院や高齢者養護施設などで多人数の栄養管理を簡単にしかも素早く行え、栄養師などの管理者の負担を大幅に軽減できる。   According to the method for measuring in-hospital meal intake according to claim 7, it is possible to easily and quickly carry out nutritional management for a large number of people in a hospital or nursing home for the elderly, and can greatly reduce the burden on administrators such as nutritionists. .

請求項8記載の院内用食事摂取量の計測システムは、正方形や長方形など所定形状のトレイ上に複数の食器を配置した状態の食膳を出し入れ可能な筐体状撮像装置と同撮像装置に接続したパーソナルコンピュータとを備えた計測システムであって、
前記撮像装置内には1つ以上のデジタルカメラと照明装置が配備され、同デジタルカメラにより撮像された複数の食膳の画像が前記パーソナルコンピュータに自動的に取り込まれ、前記パーソナルコンピュータは、撮像した画像の2値化による食器形状取得手段、ニューラルネットワークによる食器確定手段、食器上からの食物抽出手段および食事摂取量の計算手段を備え、前記の食器確定手段は食器データベースに、また前記の食事摂取量の計算手段は食事献立などの食物データベースに接続可能に構成されていることを特徴とする。
The in-hospital meal intake measuring system according to claim 8 is connected to the same imaging device as a case-like imaging device capable of taking in and out a table with a plurality of dishes arranged on a tray having a predetermined shape such as a square or a rectangle. A measurement system including a personal computer,
One or more digital cameras and a lighting device are provided in the imaging device, and images of a plurality of meals captured by the digital camera are automatically captured by the personal computer. Tableware shape acquisition means by binarization, tableware determination means by neural network, food extraction means from tableware, and food intake calculation means, the tableware determination means in the tableware database and the food intake The calculating means is configured to be connectable to a food database such as a meal menu.

請求項8記載の計測システムによれば、上記の計測方法を確実に実施することができ、しかもシステムが比較的簡単で低コストで達成できる。   According to the measurement system of the eighth aspect, the above measurement method can be surely implemented, and the system can be achieved relatively easily and at low cost.

本発明に係る院内用食事摂取量の計測方法およびその計測システムには、以下の効果がある。   The in-hospital meal intake measuring method and measuring system according to the present invention have the following effects.

・各人の食事摂取量を正確に計測できる。
・一人一人の食事摂取量のデータを容易に管理できる。
・短時間で各人の食事摂取量を自動的にかつ正確に計測できる(5秒以内に院内において食膳撤去に許容される時間)。
・一定の基準の下に食事摂取量を測定できる。
・長期的な入院患者の栄養の管理が可能である。
・独居老人などの遠隔地居住者に対しても(LAN或いは電話回線による通信を併用することにより)食事の指導が可能である。
・ Each person's dietary intake can be accurately measured.
・ Each person's food intake data can be easily managed.
・ Each person's food intake can be measured automatically and accurately in a short time (time allowed for removal of the meal in the hospital within 5 seconds).
・ Meal intake can be measured under certain criteria.
・ Long term management of inpatient nutrition is possible.
-Meals can be given to remote residents such as elderly people living alone (by using communication via LAN or telephone line).

以下に、本発明に係る院内用食事摂取量の計測システムについて、病院内の入院患者用食事における食事摂取量の計測システムに適用した実施例を図面に基づいて説明し、併せて計測方法についても説明する。   Hereinafter, with respect to the in-hospital meal intake measurement system according to the present invention, an embodiment applied to the meal intake measurement system in an in-patient meal in a hospital will be described based on the drawings, and the measurement method will also be described. explain.

図1は本発明の計測システムの実施例を示す正面図で、図1のように計測システム1は食膳Aの撮像装置2とパーソナルコンピュータ(以下、パソコンという)3とから構成されている。図2に示すように撮像装置2は前面を開放した筐体4を備え、この筐体4の前面開放部には蓋板5が開閉可能に配備されている。蓋板5は下端部中央の持ち手5aをもって上方にスライドさせることによって、筐体4内の上端空間部4aに水平にスライドして収納されるようになっている。   FIG. 1 is a front view showing an embodiment of a measurement system according to the present invention. As shown in FIG. 1, the measurement system 1 is composed of an imaging device 2 for a meal A and a personal computer (hereinafter referred to as a personal computer) 3. As shown in FIG. 2, the image pickup apparatus 2 includes a housing 4 having a front surface opened, and a lid plate 5 is provided at an open front portion of the housing 4 so as to be opened and closed. The lid plate 5 is slid horizontally and accommodated in the upper end space portion 4a in the housing 4 by sliding upward with a handle 5a at the center of the lower end portion.

筐体4内の底部には、食膳AがトレイTごと収納可能である。食膳Aは通常、略正方形のトレイTとこのトレイT上に載置される複数の種類の食器Bを備え、各食器Bには調理済みの食物Cが収容もしくは載せられている。また、筐体4内の天井4bの下面の4隅には、白色のくもり電球(25W)6をそれぞれ取り付けている。さらに、食膳Aの撮影時に、電球6の照射による反射光の影響を最小にするため、図3(a)に示すような半透明なアクリル板製の拡散板7を、図3(b)のように4個の電球6の下方を覆うように装着している。この結果、図3(c)のような反射光が図3(d)のように最小限化された。   At the bottom of the housing 4, the dining table A can be stored together with the tray T. The dining table A usually includes a substantially square tray T and a plurality of types of tableware B placed on the tray T, and each tableware B contains or contains cooked food C. Also, white cloudy light bulbs (25W) 6 are attached to the four corners of the lower surface of the ceiling 4b in the housing 4 respectively. Furthermore, in order to minimize the influence of reflected light due to the irradiation of the light bulb 6 when photographing the dining table A, a translucent acrylic diffusion plate 7 as shown in FIG. As shown, the four light bulbs 6 are mounted so as to cover the lower side. As a result, the reflected light as shown in FIG. 3C was minimized as shown in FIG.

天井4bの中央部付近(やや後側寄り)には、撮影用のカラーデジタルカメラ(解像度:320×240ピクセル)8を下向けに取り付け、またソフトウエア部分を格納するパソコン3への接続はUSBポート(図示せず)を使用している。なお、蓋板5は筐体2の前面下端部両側の磁石9に吸着されて閉鎖状態に維持される。   Near the center of the ceiling 4b (slightly rearward), a color digital camera for photography (resolution: 320 × 240 pixels) 8 is attached downward, and the connection to the personal computer 3 storing the software portion is USB. A port (not shown) is used. The lid plate 5 is attracted to the magnets 9 on both sides of the lower end of the front surface of the housing 2 and is kept closed.

図4は本実施例の計測システム1の主要部(ソフトウエア部分)の全体構成における処理の手順を示すフローチャートである。   FIG. 4 is a flowchart showing a processing procedure in the overall configuration of the main part (software part) of the measurement system 1 of the present embodiment.

本例の計測システム1では、後述するように、まず、食事前の一つの食膳Aを上記の撮像装置2内に収納することにより、複数のデジタルカメラ8によって自動的に上方から食膳Aが撮影される(step1’)。食膳Aの画像から食器Bの部分だけが抽出される(step2’)。食器Bについて、食器データベースから食器に関する情報が取得され、食器の種類等が特定される。つづいて、各食器B上の食物Cがそれぞれ抽出され(step3’)、各食物Cの面積があらかじめデータとして算出される(step4’)。   In the measurement system 1 of the present example, as will be described later, first, by eating a single meal A before meal in the imaging device 2, the meal A is automatically photographed from above by a plurality of digital cameras 8. (Step 1 '). Only the portion of the tableware B is extracted from the image of the table A (step 2 '). For tableware B, information about the tableware is acquired from the tableware database, and the type of tableware is specified. Subsequently, the food C on each tableware B is extracted (step 3 '), and the area of each food C is calculated in advance as data (step 4').

食事の終了後、各人の食膳Aをつぎつぎと撮像装置2内に収納することにより、デジタルカメラ8によって自動的に上方から食膳Aが撮影される(step1)。食膳Aの画像から食器Bの部分だけが抽出される(step2)。食器Bについて、食器データベースから食器に関する情報(横・縦の寸法(幅、高さ)、半径、2値化しきい値など)が取得され、食器の種類等が特定される。さらに、各食器B上に残っている食物Cがそれぞれ抽出される(step3)。そして、各食物Cの残量の面積が算出される(step4)。ここまでは、上記のstep1’〜step4’と全く共通する。最後に、各食器B上の食前の食物Cの面積と食後に残っている食物の面積とが比較され、両者の面積の差から摂取された食物Cの量がカロリーで算出され、出力される(step5)。カロリー計算の際に、あらかじめ入力されている食物データベースから各食器B上の食物Cの種類や個数およびカロリーなどに関するデータが取得される。なお、直前のメニュー登録においてはあらかじめ食前の食膳Aについて、使用される食器の種類や数ならびに各食器に載せられる食物の種類や数ならびにカロリーなどを各種データベース情報として取得しておく。データベースはパソコン3に存在し、階層構造としてシステムにより管理される。図4のフローチャートではメニュー登録におけるstep1’〜step4’を省いている。   After the meal is finished, each person's meal A is stored in the imaging device 2 one after another, and the meal A is automatically photographed from above by the digital camera 8 (step 1). Only the portion of tableware B is extracted from the image of the table A (step 2). For tableware B, information about tableware (horizontal / vertical dimensions (width, height), radius, binarization threshold, etc.) is acquired from the tableware database, and the type of tableware is specified. Further, the food C remaining on each tableware B is extracted (step 3). Then, the area of the remaining amount of each food C is calculated (step 4). Up to this point, the steps 1 'to 4' are completely the same. Finally, the area of the pre-meal food C on each tableware B is compared with the area of the food remaining after the meal, and the amount of food C ingested from the difference between the two areas is calculated in calories and output (Step 5). At the time of calorie calculation, data on the type and number of foods C on each tableware B, calories, etc. are acquired from a pre-input food database. In the previous menu registration, the type and number of tableware used, the type and number of food placed on each tableware, calories, etc. are acquired in advance as various database information for the meal A before meal. The database exists in the personal computer 3 and is managed by the system as a hierarchical structure. In the flowchart of FIG. 4, step 1 ′ to step 4 ′ in menu registration are omitted.

また計測システム1の主要部は、2値化による食器形状取得手段(サブシステム)11、ニューラルネットワークによる食器確定手段(サブシステム)12、食器上からの食物抽出手段(サブシステム)13、食事摂取量計算手段(サブシステム)14に大分類される。これらのサブシステム11〜14はメインシステムとリンクしてプログラムとしてパソコン3に格納される。そして、食器確定手段12には食器データベース15が、また摂取量計算手段14には食物(本例では食事の献立)データベース16が、それぞれ付属システムとして接続されている。また、それらのサブシステムはメインシステムとリンクされるプログラムとしてパソコン3のハードデスクに格納され、食事のメニュー登録から食事摂取量の計測判定までを、パソコン3によるオンライン処理にて可能にしている。なお、摂取カロリーの算出には食事トレイ全体での画像ではなく、食器ごとに残留する食物の画像を食前画像とを面積上で比較することによって実施される。   The main part of the measurement system 1 includes tableware shape acquisition means (subsystem) 11 by binarization, tableware determination means (subsystem) 12 by a neural network, food extraction means (subsystem) 13 from the tableware, food intake It is roughly classified into quantity calculation means (subsystem) 14. These subsystems 11 to 14 are linked with the main system and stored in the personal computer 3 as programs. A tableware database 15 is connected to the tableware determination means 12, and a food (meal menu in this example) database 16 is connected to the intake amount calculation means 14 as an attached system. These subsystems are stored in the hard disk of the personal computer 3 as a program linked with the main system, and the process from registering the menu of meals to determining the measurement of meal intake is made possible by online processing by the personal computer 3. The calorie intake is calculated by comparing the image of food remaining for each tableware with the pre-meal image on the area, not the image of the entire meal tray.

以下に、上記の各サブシステム11〜14について詳しく説明する。   Hereinafter, each of the subsystems 11 to 14 will be described in detail.

◎食器確定のための前処理である食物除去処理
食器上に食物が載った状態で食器の抽出処理を行ったところ、食器位置の特定の成功率が低いとう問題が生じた。この理由として、食膳画像を2値化処理する際に、食物部分がノイズになることが挙げられる。そこで、食膳の2値化画像から正しい食器画像を切り出してニューラルネットワークに入力するために、切り出し画像の食物部分を除去する必要がある。以下に、食物除去処理の流れを説明する。図16は食物除去のアルゴリズムを示す食膳2値化画像から食物部分を除去する処理を図解した説明図、図17同フローチャートである。図18(a)はニューラルネットワークへの食器の正しい入力画像を示し、図18(b)は食物がノイズになっている食器の入力画像を示す。
◎ Food removal process, which is a pre-treatment for determining tableware When a tableware extraction process was performed with food on the tableware, there was a problem that the specific success rate of the tableware position was low. This is because the food part becomes noise when the food image is binarized. Therefore, in order to cut out the correct tableware image from the binarized image of the food bowl and input it to the neural network, it is necessary to remove the food portion of the cutout image. Below, the flow of a food removal process is demonstrated. FIG. 16 is an explanatory diagram illustrating a process for removing a food part from a binarized image showing a food removal algorithm, and is a flowchart of FIG. 17. FIG. 18A shows a correct input image of tableware to the neural network, and FIG. 18B shows an input image of tableware in which food is noise.

食物除去処理の方法は、図16に示すように、NN入力画像の元となる食膳2値化画像の全画素を探索する際に、食器上の食物があると推測されるX座標において食物部分のY座表の最小値、最大値を検出し(図16(a))、最小値から最大値に当たる部分を黒画素で埋める(図16(b))。詳しくは、切り出し画像を上から下へ走査していき、食物部分の上端の座標と下端の座標を検出し、それらの座標の間を黒画素で埋めるという作業を、全てのX座標において行いながら、NN入力画像を作成する(図16(b))。上記した処理の流れは図17のフローチャートに示すとおりである。ここで、食器は黒(0画素)で、トレイと食物部分は白(1画素)である。   As shown in FIG. 16, the food removal processing method is such that when searching for all pixels of the binarized binarized image that is the source of the NN input image, The minimum value and the maximum value of the Y coordinate are detected (FIG. 16A), and the portion corresponding to the minimum value from the minimum value is filled with black pixels (FIG. 16B). Specifically, while scanning the cut-out image from top to bottom, detecting the coordinates of the top and bottom of the food part and filling in the black pixels between those coordinates while performing the work for all X coordinates , An NN input image is created (FIG. 16B). The above processing flow is as shown in the flowchart of FIG. Here, the tableware is black (0 pixel), and the tray and the food part are white (1 pixel).

なお、ニューラルネットワークへの入力画像をモノクロ濃淡画像からカラー画像に変更し、さらに2値化のためのしきい値設定においても、モノクロ濃淡値によるしきい値設定から、明度・色相値によるしきい値設定に変更した。これらの変更により、上記の食膳画像の2値化画像が鮮明になった。   Note that the input image to the neural network is changed from a monochrome grayscale image to a color image, and threshold values for binarization are also changed from threshold settings based on monochrome grayscale values to threshold values based on brightness and hue values. Changed to value setting. By these changes, the binarized image of the above-mentioned food image has become clear.

そこで、上記の食物除去処理を導入したプログラムと、導入前のプログラムとを使用して食器位置確定の試験を行った。結果は、図19に示すとおりで、図19(a)はプログラム変更後のもの、図19(b)はプログラム変更前のものである。なお、図19のサークルは本計測システム食器位置と断定した部分を表している。図19(a)から確認されるように、食物が食器上に載っている場合でも食器位置を正確に確定している。この理由は、食器抽出の際に、ニューラルネットワークに入力される切り出し画像の食物部分が上記食物除去アルゴリズムにより食器上から一時的に除去されているので、ニューラルネットワークへの食器登録状態と同じ条件になるからである。したがって、切りだし画像内の食器画像はノイズを含まない画像としてNN認識される。   Then, the tableware position determination test was performed using the program that introduced the food removal process and the program before the introduction. The results are as shown in FIG. 19. FIG. 19A shows the result after the program change, and FIG. 19B shows the result before the program change. In addition, the circle of FIG. 19 represents the part determined as the present measurement system tableware position. As can be seen from FIG. 19A, the tableware position is accurately determined even when food is placed on the tableware. The reason for this is that when extracting dishes, the food part of the cut-out image input to the neural network is temporarily removed from the dishes by the above-mentioned food removal algorithm. Because it becomes. Therefore, the tableware image in the cut-out image is NN recognized as an image containing no noise.

◎トレイ上からの食器の確定
ここでは、食器確定サブシステム11の基本構成を説明する。本サブシステム11は食器データベースシステム15より得られる食器の情報を用いて、食膳の画像からトレイ上の食器を確定する。なお、食器Bの情報は、図8に示すように、通常、トレイに載っている食器の数・食器の種類・食器の形状・2値化されたしきい値である。
◎ Determination of Tableware from the Tray Here, the basic configuration of the tableware determination subsystem 11 will be described. The subsystem 11 uses the tableware information obtained from the tableware database system 15 to determine the tableware on the tray from the food image. As shown in FIG. 8, the information on tableware B is usually the number of tableware on the tray, the type of tableware, the shape of the tableware, and the binarized threshold value.

食器確定用NNの構造は、図5に示すように、3層の階層型である。このNNの入力層には、食器の外縁を取り出す際に使用するしきい値、食膳画像における食器の半径、縦および横の長さ(画素数)、食器の濃淡画像が、それぞれ食器データベースより入力値として入力される。また、出力ユニット数は登録された食器の種類の数に対応する(予め出力ユニットに食器1、食器2…、食器Nと対応づけておく)。学習アルゴリズムは下記の数1で示される改良型BP法(与えられた入力パターンの結果である出力パターンが、正しい結果(教師値)に近づくように確率的降下法によりウェイトを修正し誤差を減少させていく学習アルゴリズム)を使用する。NNによって出力された値のうち、最も高い値を出力したパターンに対応する食器が、入力された食器と確定され、抽出される。   The structure of the NN for tableware determination is a three-layered hierarchy as shown in FIG. In this NN input layer, the threshold value used when taking out the outer edge of the tableware, the radius of the tableware in the table image, the vertical and horizontal length (number of pixels), and the grayscale image of the tableware are input from the tableware database, respectively. Entered as a value. The number of output units corresponds to the number of registered tableware types (the output unit is associated with tableware 1, tableware 2,..., Tableware N in advance). The learning algorithm is an improved BP method expressed by the following equation (1). The weight is corrected by the probabilistic descent method so that the output pattern, which is the result of the given input pattern, approaches the correct result (teacher value), and the error is reduced. Learning algorithm). Of the values output by the NN, the tableware corresponding to the pattern that outputs the highest value is determined as the input tableware and extracted.

その処理流れは、まずデジタルカメラで食器画像を取り込み、その画像の2値化処理を行う。つぎに、処理部分と食器データベースシステム間で食器の種類などに関する情報を取得する。この際の食器の情報とは、トレイに載っている食器の数、食器の形状、大きさ、2値化のしきい値などを示している。なお、図6は食膳Aの撮影画像がパソコン3のディスプレイに表示されたメインの画面を示す。また、図9はトレイ上の食器の画像とこれを2値化した画像を示す。
ここで、ΔWはウエイトの修正量、ε、α、βは定数、δは一般化誤差、oは出力をそれぞれ示す。
In the processing flow, first, a tableware image is captured by a digital camera, and binarization processing of the image is performed. Next, information regarding the type of tableware is acquired between the processing portion and the tableware database system. The tableware information at this time indicates the number of tableware on the tray, the shape and size of the tableware, the threshold value for binarization, and the like. FIG. 6 shows a main screen on which a photographed image of the meal A is displayed on the display of the personal computer 3. FIG. 9 shows an image of tableware on the tray and an image obtained by binarizing the image.
Here, ΔW is a weight correction amount, ε, α, β are constants, δ is a generalization error, and o is an output.

図7は上記したトレイ上からの食器の抽出処理の流れを順に示すフローチャートで、最終的に下記の切り出し画像によってトレイ上における食器の位置も特定される。なお、図8は食器データベースの一つの食器に関するデータを表示した画面である。   FIG. 7 is a flowchart sequentially showing the flow of the process of extracting tableware from the tray described above. Finally, the position of the tableware on the tray is also specified by the following cutout image. FIG. 8 shows a screen displaying data related to one tableware in the tableware database.

図11に示すように、食膳の全体画像から食器を取り囲み可能な最小面積の所定形状(本例では長方形)の枠で、一定間隔ごとに位置をずらせて画像を切り出す。切り出した画像から抽出された形状および画像をニューラルネットワークに入力する。食器登録時の反応に切り出し画像を入力した場合の反応とがほぼ一致したときに、切り出し画像内に食器が包含されたものと判断される。こうして食器の種類などが、その位置とともに確定される。   As shown in FIG. 11, an image is cut out from a whole image of the dining table by shifting the position at regular intervals with a frame having a predetermined shape (rectangular in this example) having a minimum area that can surround tableware. The shape and image extracted from the cut-out image are input to the neural network. When the response at the time of registering the tableware substantially matches the response when the cutout image is input, it is determined that the cutout image includes the tableware. In this way, the type of tableware and the like are determined together with the position.

ところで、本発明の計測システムでは食器の確定にニューラルネットワークを採用したが、それは以下の理由による。すなわち、撮影画像の全ての画素を画像処理により探索して食器を確定する方法が考えられる。しかし、本計測システム1では、患者一人当たりの食事摂取量等に関する計測結果を2〜3秒程度の極めて短い時間内に算出して表示する必要がある。また、多数の食膳をデジタルカメラで瞬時に撮影するため、撮影した画像がやや不鮮明になるおそれがあるが、NNを使用すれば、画像が多少不鮮明な場合でも充分に対応できる。そこで、多くの演算時間を要する画像処理ではなく、部分切り出し画像を用いたニューラルネットワークによる食器の種類確定方法を採用した。   By the way, in the measurement system of the present invention, a neural network is adopted for determining tableware for the following reason. That is, a method of searching for all pixels of the photographed image by image processing and determining tableware can be considered. However, in this measurement system 1, it is necessary to calculate and display a measurement result relating to the amount of meal intake per patient within a very short time of about 2 to 3 seconds. In addition, since a large number of meals are photographed instantaneously with a digital camera, the photographed image may be slightly blurred. However, if NN is used, even if the image is somewhat blurred, it can be sufficiently handled. Therefore, instead of image processing requiring a lot of computation time, a tableware type determination method using a neural network using partially cut-out images was adopted.

また、NNに入力する食器の半径、縦および横の長さ(画素数)は、以下のようなアルゴリズムによって求められる。   Further, the radius, vertical and horizontal length (number of pixels) of the tableware input to the NN can be obtained by the following algorithm.

(a) 2値化のためのしきい値を設定する。しきい値より大きいか小さいかで、“1”画素と“0”画素に分ける。
(b) 8近傍収縮処理を実施し、2値化画像のノイズ除去を行なう。
(c) “1”画素が集合している(8近傍に“1”画素がある)部分にそれぞれラベル番号を付ける。
(d) ラベル領域のx軸、y軸のそれぞれ最大値、最小値を求める。
(e) 求めた最大値、最小値から食器の半径、縦および横の長さを求める。
なお、図12(a)は本実施例において使用される10種類の食器を示す平面図、図12(b)はトレイ上における6種類の食器の配置例を示す平面図である。
上記の10種類の食器を組み合わせてトレイ上に配置した59通りのパターンからなる画像を用いてNNに入力して抽出試験を行ったが、59通りの全ての配置について食器を特定できた。
(a) Set a threshold for binarization. The pixel is divided into “1” pixel and “0” pixel depending on whether it is larger or smaller than the threshold value.
(b) Perform 8-neighbor contraction processing to remove noise from the binarized image.
(c) A label number is assigned to each portion where “1” pixels are aggregated (there are “1” pixels in the vicinity of 8).
(d) Find the maximum and minimum values of the x-axis and y-axis of the label area, respectively.
(e) Obtain the tableware radius, vertical and horizontal lengths from the maximum and minimum values.
In addition, Fig.12 (a) is a top view which shows the 10 types of tableware used in a present Example, FIG.12 (b) is a top view which shows the example of arrangement | positioning of 6 types of tableware on a tray.
An extraction test was performed by inputting to the NN using images composed of 59 patterns arranged on the tray by combining the above 10 types of tableware, but the tableware could be specified for all 59 configurations.

◎食器から食物の抽出
本計測システム1において、食物の計測を行なう場合の前処理として食器から食物を抽出する処理が必要となる。食物の抽出処理のアルゴリズムを以下に示す。
Extraction of food from tableware In the present measurement system 1, a process for extracting food from tableware is required as a pre-processing when measuring food. The algorithm of the food extraction process is shown below.

256色ビットマップファイルから食膳画像を取り出し、RGB(赤・緑・青)のうち、例えば青色画像だけを取り出す。次に、しきい値を用いて画像を2値化する。   A food image is extracted from a 256-color bitmap file, and only a blue image, for example, of RGB (red, green, and blue) is extracted. Next, the image is binarized using a threshold value.

(a)しきい値以上の画素を“1”画素とする。
(b)しきい値より小さい画素を“0”画素とする。
(A) A pixel that is equal to or greater than the threshold is set to “1”.
(B) Pixels smaller than the threshold are set to “0” pixels.

ここで、“1”画素は食物の部分に該当し、“0”画素は他の背景部分になる。つぎに、画像内のノイズを除去するために8近傍収縮処理を行なう。この収縮処理に関しては、収縮回数を1回から100回までのうちから任意に決めることが可能であり、実験にて試行錯誤的に最適な収縮回数を4としている。そして、8近傍収縮処理の後に以下のラベル処理を行なう。   Here, the “1” pixel corresponds to a food portion, and the “0” pixel is another background portion. Next, in order to remove noise in the image, 8-neighbor contraction processing is performed. With respect to this contraction process, the number of contractions can be arbitrarily determined from 1 to 100, and the optimum number of contractions is set to 4 through trial and error in experiments. Then, the following label processing is performed after the 8-neighbor contraction processing.

(a)“1”画素を探索する。
(b)探索した“1”画素に、現在のラベル番号を付ける。
(c)現在のラベル番号の8近傍に“1”画素があれば、その画素に同じラベル番号を設定する。
(a) Search for “1” pixel.
(b) The current label number is assigned to the searched “1” pixel.
(c) If there is a “1” pixel near 8 of the current label number, the same label number is set for that pixel.

その後、各々のラベル領域の中心位置を求める。最後に、求めたラベル領域ごとに、領域の位置の最大値、最小値を求める。   Thereafter, the center position of each label area is obtained. Finally, the maximum value and the minimum value of the area position are obtained for each obtained label area.

図13は上記した食器上からの食物抽出処理の流れを順に示すフローチャートである。   FIG. 13 is a flowchart sequentially showing the flow of the above-described food extraction process from the tableware.

◎食物の摂取量の計測
面積による摂取量判定
NNによる食物計測を検討したが、実務上多種多様な食物の残部分の画像には対応できないことが推測される。例えば、食物の回転に対しては、回転補正を抽出画像に施すか回転不変な情報(モーメント、面積など)に変換する必要があるため、かなり複雑な処理工程になると考えられる。そこで、本発明の計測システム1では、残った食物の面積(画素数)を計測する方法を採用して計測システム1の計測サブシステム14の主体とした。そのアルゴリズムは、以下のとおりである。
◎ Measure food intake Judgment of food intake by area
Although food measurement by NN was examined, it is presumed that it is not possible to deal with images of the rest of various foods in practice. For example, for food rotation, it is necessary to apply rotation correction to the extracted image or convert it into rotation-invariant information (moment, area, etc.), which is considered to be a rather complicated processing step. Therefore, in the measurement system 1 of the present invention, a method for measuring the area (number of pixels) of the remaining food is adopted as the main body of the measurement subsystem 14 of the measurement system 1. The algorithm is as follows.

(a) 食物残量100%に対するカロリーAcalと面積(画素数)Sを算出する。
(b) 食後の残った食物を食器から抽出する
(c) 残った食物の面積(画素数)sを計算する。
(d) 食器毎の摂取カロリーaを下記の式で算出する。
acal=(1−s/S)×A cal
(a) Calculate the calorie Acal and the area (number of pixels) S for the remaining amount of food 100%.
(b) Extract the food left after the meal from the dishes
(c) Calculate the area (number of pixels) s of the remaining food.
(d) Calorie intake a for each tableware is calculated by the following formula.
acal = (1-s / S) × A cal

◎確認試験
ここでは、本発明の計測システム1を用いた食器画像の確定試験と、食器からの食物の抽出試験と、さらに食事摂取量の計測試験とを実施したので、以下にそれぞれの性能を検討する。
◎ Confirmation test Here, the determination test of the tableware image using the measurement system 1 of the present invention, the extraction test of the food from the tableware, and the measurement test of the meal intake amount were carried out. consider.

1)食器の確定試験
ここでは、上記で述べたNNによる食器確定法による食器確定試験を行なう。食器の情報は、食器データベースシステムとのプロセス間通信により獲得する。図8に食器確定サブシステムのメニュー画面を示す。また、表1にNNの学習および評価条件を示す。
1) Tableware confirmation test Here, the tableware confirmation test by the NN tableware determination method described above is performed. Tableware information is obtained by interprocess communication with the tableware database system. FIG. 8 shows a menu screen of the tableware determination subsystem. Table 1 shows NN learning and evaluation conditions.

同試験では10種類の食器を59通りに組み合わせた画像を使用し、食器についての確定試験を行なった。トレイ上の食器画像の例を図9に示す。また、表2にNNに入力する食器情報の例を示す。 In the same test, 59 types of images of 10 types of tableware were used, and a definite test on tableware was conducted. An example of the tableware image on the tray is shown in FIG. Table 2 shows an example of tableware information input to the NN.

試験を行った結果、59パターン全ての食器の種類や位置等を確定することが可能であることが確認された。しかしながら、食器の種類の特定には成功しても正確な食器位置の特定を行なうことが出来ない場合があった。この原因は、切り出した部分の画像に他の食器の一部が浸入することがあるので、これが目標とする食器の画像に対し、ノイズとして影響しているものと推測される。一方、本発明の計測システムで1は、食物抽出時に使用した切り出し部分の画像に対し数回の収縮処理を用いるようにしたことにより、ノイズである小さな孤立領域を消去することができ、食器の位置も正確に特定できた。 As a result of the test, it was confirmed that it was possible to determine the types and positions of tableware for all 59 patterns. However, there have been cases where it is not possible to specify the exact tableware position even if the type of tableware is specified successfully. The cause of this is presumed that a part of other tableware may invade into the cut-out portion of the image, and this influences noise on the target tableware image. On the other hand, in the measurement system 1 of the present invention, a small isolated area that is noise can be erased by using several times of shrinkage processing on the image of the cutout portion used at the time of food extraction. The position could be identified accurately.

図10(a)に正確な位置で食器を抽出できた例を、図10(b)に正確な位置で食器を抽出できなかった例を示す。ただし、これらの成功例および失敗例は食器の上に食物の載っていない状態で行った試験である。   FIG. 10A shows an example in which tableware can be extracted at an accurate position, and FIG. 10B shows an example in which tableware cannot be extracted at an accurate position. However, these successful cases and unsuccessful cases are tests conducted without food on the tableware.

そこで、食器上に食物を載せた状態で食器の抽出処理を行ったところ、上記したとおり、食器位置の特定の成功率が低いとう問題が生じたので、食膳の2値化画像から正しい食器画像を切り出してニューラルネットワークに入力するために、プログラムに切り出し画像において食器上の食物部分を除去するアルゴリズムを組み込む変更を行った。そしてプログラム変更後とプログラム変更前とで比較試験を行った。成功例(図19(a))は、食器上の食物を食物除去アルゴリズムにより一時的に除去してノイズが消去されているので、NNへの食器登録状態と同じ条件になって食器位置を正確に確定できたが、失敗例(図19(b))では食物部分がノイズとなっているため、NNに入力した際に食器位置が正確に認識されていない。   Then, when the extraction processing of the tableware was performed with food on the tableware, as described above, there was a problem that the specific success rate of the tableware position was low, so the correct tableware image from the binarized image of the tableware was generated. In order to cut out and input to the neural network, the program was modified to incorporate an algorithm that removes food parts on tableware from the cutout image. A comparative test was conducted after the program change and before the program change. In the successful example (FIG. 19 (a)), the food on the tableware is temporarily removed by the food removal algorithm and the noise is eliminated. Therefore, the tableware position is accurately set under the same conditions as the tableware registration state in the NN. However, in the failure example (FIG. 19B), the food portion is noisy, so the tableware position is not accurately recognized when it is input to the NN.

2)食物の抽出試験
図14(a)に5分割した魚の切り身に対して抽出処理を行った結果を示す。また、図14(b)に流動食に対する抽出処理結果を示す。このように、8近傍収縮処理とラベリングによる残食物の抽出についてアルゴリズムの有効性が確認できた。
2) Food extraction test Fig. 14 (a) shows the result of extracting the fish fillets divided into five parts. Moreover, the extraction process result with respect to a liquid food is shown in FIG.14 (b). Thus, the effectiveness of the algorithm was confirmed about the extraction of the residual food by 8 neighborhood contraction processing and labeling.

3)食事摂取量の計測試験
ここでは、NNによる摂取量計測と面積による摂取量計測との試験を行なった。ただし、ここでのNNによる計測試験は面積による計測試験の比較対象として位置付ける。
3) Meal intake measurement test Here, an intake measurement by NN and an intake measurement by area were performed. However, the measurement test by NN here is positioned as a comparison target of the measurement test by area.

(1) NNによる摂取量判定
まず食器確定と同様なNNの構成で残った食物の画像を判定し、それに対応するカロリーを算出する方法を検討する。そのアルゴリズムを以下に示す。
(a) 典型的な食事摂取量をレベル分類(例えば、Level-1=0%,
Level-2=20%, Level-3=40%, …, Level-6=100%)し、食物残量100%に対するカロリーAcalを算出する。
(b) 食後に残った食物を食器毎に抽出し、残食物レベルを確定する。
(c) 食器毎の摂取カロリーaは(2)式で算出する。
a cal={1−(確定レベルの%)/100}×A cal
(1) Ingestion determination by NN First, the method of determining the image of the remaining food with the NN configuration similar to the tableware determination and calculating the corresponding calories. The algorithm is shown below.
(a) A typical dietary intake is classified into levels (eg Level-1 = 0%,
Level-2 = 20%, Level-3 = 40%,..., Level-6 = 100%), and calorie Acal for 100% of the remaining amount of food is calculated.
(b) The food remaining after the meal is extracted for each tableware, and the residual food level is determined.
(c) The calorie intake a for each tableware is calculated by the formula (2).
a cal = {1 − (% of final level) / 100} × A cal

試験1では図15(a)に示すように残量が0%、20%、60%、100%の4レベルに分類したダミーとんかつ(発砲スチロールで製作し、ベージュに着色)を使用する。この画像を使用して学習および識別実験を実施する。NNによる計測部では入力画像の特徴量の抽出法として、入力画像全体をメッシュで格子状に区切り、縦、横および斜めの方向から走査し、メッシュ内の濃淡情報の合計値を画像の特徴量としてNNに入力する。実験では、NNの学習画像をそれぞれのレベルで5個使用し、未学習の食物の画像をそれぞれ10個使用した。未学習画像には位置ずれとわずかな回転ずれしたものを加えている。食物抽出のアルゴリズムの特性上、食物の位置ずれにNNの反応値は影響されないが、回転にはNNの反応値が低下するなどの影響が見られた。ただし、一部反応値が0.5を下回るNNユニットもあるが、全体の識別率は100%であった。   In Test 1, dummy tonkatsu (manufactured with foamed styrene and colored in beige) classified into four levels with remaining amounts of 0%, 20%, 60% and 100% as shown in FIG. 15 (a) is used. This image is used to perform learning and identification experiments. In the measurement unit using NN, as a method for extracting the feature value of the input image, the entire input image is divided into a grid with a mesh, scanned from the vertical, horizontal, and diagonal directions, and the total value of the shade information in the mesh is used as the feature value of the image Enter into NN as In the experiment, 5 learning images of NN were used at each level, and 10 images of unlearned food were used. An unlearned image is added with a position shift and a slight rotation shift. Due to the characteristics of the algorithm of food extraction, the response value of NN was not affected by the position shift of food, but the effect of NN response value decreased by rotation was observed. However, although some NN units have a reaction value of less than 0.5, the overall recognition rate was 100%.

つぎに、試験2においては、図15(b)に示す4レベルに分類した実物の炊飯米を使用し実験を行った。試験2の実験結果は97.5%であった。ただし、炊飯米の評価においては回転ずれの影響よりはむしろ、炊飯米が無い場合の食器底面反射光の影響が大きく、これが炊飯米が無いにもかかわらず白い炊飯米と識別されていた。ただし、ここでの実験ではサブシステムは食物のデータベースとプログラム的にリンクしていないので、式(2)を用いたカロリー計算まで算出せず、残食物のレベル分類に留めている。   Next, in Test 2, experiments were performed using real cooked rice classified into the four levels shown in FIG. The experimental result of test 2 was 97.5%. However, in the evaluation of cooked rice, rather than the influence of rotational deviation, the influence of reflected light from the bottom of the tableware when there was no cooked rice was large, and this was identified as white cooked rice despite the absence of cooked rice. However, in this experiment, the subsystem is not linked to the food database programmatically, so the calorie calculation using Equation (2) is not calculated, and the level of remaining food is limited.

(2) 面積による摂取量判定
サブシステム単独として動作させた結果は、NNによる残った食物のレベル分類とほぼ同等な性能(97%)が得られた。また、その結果は、(1)の場合と同様に最終的な摂取カロリー計測ではなく、残った食物の画素数としている。実験条件は(1)と同様とする。
(2) Judgment of intake by area The result of operating as a subsystem alone was almost the same performance (97%) as the level classification of the remaining food by NN. The result is not the final calorie intake measurement as in the case of (1), but the number of remaining food pixels. The experimental conditions are the same as (1).

本発明の計測システムの実施例を示す正面図である。It is a front view which shows the Example of the measuring system of this invention. 図2(a)は撮像装置を示す斜視図で、蓋板の全開状態を表す。図2(b)は撮像装置を示す斜視図で、蓋板の閉鎖途中の状態を表す。FIG. 2A is a perspective view showing the imaging apparatus, and shows a fully opened state of the lid plate. FIG. 2B is a perspective view showing the imaging apparatus, and shows a state in the middle of closing the cover plate. 図3(a)は反射光軽減用拡散板(フィルター)の平面図、図3(b)は反射光軽減用拡散板を撮像装置2に装着した状態の斜視図、図3(c)は反射光軽減用拡散板なしで食膳を撮影した画像図(トレイからの反射あり)、図3(d)は反射光軽減用拡散板装着状態で食膳を撮影した画像図である(トレイからの反射減少)。FIG. 3A is a plan view of a diffuser plate for reducing reflected light (filter), FIG. 3B is a perspective view of the reflected light mitigating diffuser plate mounted on the imaging apparatus 2, and FIG. Fig. 3 (d) is an image of a food shoot taken without a light reducing diffuser plate (with reflection from the tray), and Fig. 3 (d) is a photo of the food shoot taken with the diffused light reducing diffuser attached (reduction in reflection from the tray). ). 本発明の実施例に係る計測システム1の主要部(ソフトウエア部分)の全体構成における処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process in the whole structure of the principal part (software part) of the measurement system 1 which concerns on the Example of this invention. 本発明の計測システムに適用するNNによる食器確定手段の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of the tableware determination means by NN applied to the measurement system of this invention. 本発明の計測システムにおいて食膳Aの撮影画像がパソコン3のディスプレイに表示されたメインの画面である。In the measurement system of the present invention, a photographed image of the meal A is a main screen displayed on the display of the personal computer 3. 本発明の計測システムに適用したトレイ上からの食器の抽出処理の流れを順に示すフローチャートである。It is a flowchart which shows in order the flow of the extraction process of the tableware from the tray applied to the measurement system of this invention. 食器データベースの一つの食器に関するデータを表示した画面である。It is the screen which displayed the data regarding one tableware of a tableware database. トレイ上の食器の画像とこれを2値化した画像とを示す図面である。It is drawing which shows the image of the tableware on a tray, and the image which binarized this. 図10(a)は食器抽出試験において正確な位置で食器(食物なし)を抽出できた画像例を示す図面で、図10(b)は食器抽出試験において正確な位置で食器(食物なし)を抽出できなかった画像例を示す図面である。FIG. 10 (a) is a drawing showing an example of an image in which tableware (without food) can be extracted at an accurate position in the tableware extraction test, and FIG. 10 (b) is an illustration of tableware (without food) at an accurate position in the tableware extraction test. It is drawing which shows the example of an image which was not able to be extracted. 本発明の計測システムに適用したトレイ上からの食器抽出過程において食器を切り出し、それをNNへ入力する態様を示す画像である。It is an image which shows the aspect which cuts out tableware in the tableware extraction process from the tray applied to the measuring system of this invention, and inputs it into NN. 図12(a)は本発明の実施例に係る計測方法適用した10種類の食器を示す平面図、図12(b)は本発明の実施例に係る計測方法に適用したトレイ上における6種類の食器の配置例を示す平面図である。FIG. 12A is a plan view showing 10 types of tableware to which the measurement method according to the embodiment of the present invention is applied, and FIG. 12B is a view of six types on the tray applied to the measurement method according to the embodiment of the present invention. It is a top view which shows the example of arrangement | positioning of tableware. 本発明の実施例に係る計測方法に適用した食器の抽出処理の流れを順に示すフローチャートである。It is a flowchart which shows in order the flow of the extraction process of the tableware applied to the measuring method which concerns on the Example of this invention. 図14(a)は本発明の実施例に係る計測方法に適用した5分割した魚の切り身に対して抽出処理を行った画像を示す図面、図14(b)は本発明の実施例に係る計測方法に適用した流動食に対して抽出処理を行った画像を示す図面である。FIG. 14 (a) is a drawing showing an image obtained by performing extraction processing on five-section fish fillets applied to the measurement method according to the embodiment of the present invention, and FIG. 14 (b) is a measurement according to the embodiment of the present invention. It is drawing which shows the image which performed the extraction process with respect to the liquid food applied to the method. 図15(a)は残量が0%、20%、60%、100%の4レベルに分類したダミーとんかつを示す平面図、図15(b)は残量が0%、20%、60%、100%の4レベルに分類した炊飯米を示す平面図である。FIG. 15A is a plan view showing dummy tonkatsus classified into four levels of remaining amounts of 0%, 20%, 60% and 100%, and FIG. 15B is a remaining amount of 0%, 20% and 60%. It is a top view which shows the cooked rice classified into 4 levels of 100%. 本発明の実施例に係る計測方法に適用した食物除去のアルゴリズムを示す食膳2値化画像から食物部分を除去する処理を図解した説明図である。It is explanatory drawing illustrating the process which removes a food part from the food binarized image which shows the algorithm of the food removal applied to the measuring method which concerns on the Example of this invention. 食物除去のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm of a food removal. 図18(a)はニューラルネットワークへの食器の正しい入力画像を示し、図18(b)は食物がノイズになっている食器の入力画像を示す。FIG. 18A shows a correct input image of tableware to the neural network, and FIG. 18B shows an input image of tableware in which food is noise. 図19(a)は食器抽出試験において正確な位置で食器(食物あり)を抽出できたプログラム変更後の成功例を示す画像で、図19(b)は食器抽出試験において正確な位置で食器(食物あり)を抽出できなかったプログラム変更前の失敗例を示す画像である。FIG. 19A is an image showing a successful example after changing the program in which tableware (with food) can be extracted at an accurate position in the tableware extraction test, and FIG. It is an image which shows the example of failure before the program change which could not extract (with food). 従来の一般的な病院食をワゴンに搭載した状態の正面斜視画像を示す図面である。It is drawing which shows the front perspective image of the state which mounted the conventional general hospital food in the wagon.

符号の説明Explanation of symbols

1 計測システム
2 撮像装置
3 パソコン
4 筐体
5 蓋板
6 電球
7 拡散板(フィルター)
8 デジタルカメラ
DESCRIPTION OF SYMBOLS 1 Measurement system 2 Imaging device 3 Personal computer 4 Case 5 Cover plate 6 Light bulb 7 Diffusion plate (filter)
8 Digital camera

Claims (8)

1)撮像装置でトレイ上の各食器に食物が載った一人分の食膳をその食前状態と食後状態についてそれぞれ撮像する。
2)食前状態の画像において前記トレイ上の各食器を抽出し、あらかじめ入力した食器データベースに照らして食器の種類とトレイ上の位置をニューラルネットワークに入力して判別する。
3)前記各食器画像上の食物部分だけを抽出し、食前と食後の食物部分の変化量を面積で求めたのち、あらかじめ作成した食物データベースに照らして摂取カロリーおよびビタミンなどの各種栄養素を算出する。
−上記工程を備えることを特徴とする院内用食事摂取量の計測方法。
1) Using an imaging device, take an image of a single meal containing food on each tableware on the tray in the pre-meal state and the post-meal state.
2) Each tableware on the tray is extracted from the pre-meal image, and the type of tableware and the position on the tray are input to a neural network in accordance with the tableware database input in advance.
3) After extracting only the food portion on each tableware image and calculating the change amount of the food portion before and after the meal by area, various nutrients such as intake calories and vitamins are calculated according to the food database prepared in advance. .
-A method for measuring in-hospital meal intake, comprising the above steps.
前記各食器の種類をニューラルネットワークで判別するとき、各食器上に載っている食物部分と食器部分の濃度値を比較し、一時的に食物部分の濃度値が食器部分の濃度値に一致するように画像を修正し、すなわち食器上の食物を一時的に消去し、この修正した画像であらかじめ撮影した食器のみの画像データデータに基づいて食器の種類を判別する請求項1記載の院内用食事摂取量の計測方法。   When discriminating the type of each tableware using a neural network, the concentration value of the food portion on the tableware is compared with the concentration value of the tableware portion so that the concentration value of the food portion temporarily matches the concentration value of the tableware portion. The ingestion of in-hospital meals according to claim 1, wherein the image is corrected, that is, the food on the tableware is temporarily erased, and the type of the tableware is determined based on image data only of the tableware previously taken with the corrected image. How to measure quantity. 前記食膳画像において前記各食器の一つをそれぞれ包含可能かつ最小面積の長方形又は円形などの所定形状にて一定間隔ごとに切り出し、各切り出し画像を各食器上の食物部分を食器の濃度値に一致する画像に修正して前記ニューラルネットワークに入力し、出力ユニットの反応値(出力値)が前記食器データベースを入力した際の反応値(出力値)に一致した場合に所定形状が食器登録時の完全な食器画像を含んだ切り出し画像であると判断し、食器およびその位置を抽出する請求項2記載の院内用食事摂取量の計測方法。   Each of the tableware images can be included in the food table image and cut out at a predetermined interval in a predetermined shape such as a rectangle or a circle with the smallest area, and the food portion on each tableware matches the concentration value of the tableware. When the response value (output value) of the output unit matches the response value (output value) when the tableware database is input, the predetermined shape is completely registered at the time of registering the tableware. The method for measuring in-hospital meal intake according to claim 2, wherein it is determined that the image is a cut-out image including a tableware image, and the tableware and its position are extracted. 前記ニューラルネットワークに入力する前記各食器の半径、縦および横の長さ(画素数)を、
1)2値化のためのしきい値を設定する。しきい値より大きいか小さいかで、”1”画素と”0”画素に分ける。
2)8近傍収縮処理を実施し、2値化画像のノイズ除去を行なう。
3)“1”画素が集合している(8近傍に”1”画素がある)部分にそれぞれラベル番号を付ける。
4)ラベル領域のx軸、y軸のそれぞれ最大値、最小値を求める。
5)上記4)にて求めた最大値、最小値から前記食器の半径、縦および横の長さを求める。
−によって行う請求項1〜3のいずれか記載の院内用食事摂取量の計測方法。
The radius, vertical and horizontal length (number of pixels) of each tableware input to the neural network,
1) Set a threshold value for binarization. It is divided into “1” pixel and “0” pixel depending on whether it is larger or smaller than the threshold.
2) Perform 8-neighbor contraction processing to remove noise from the binarized image.
3) A label number is assigned to each portion where “1” pixels are gathered (there are “1” pixels in the vicinity of 8).
4) Find the maximum and minimum values of the x-axis and y-axis, respectively, in the label area.
5) From the maximum and minimum values obtained in 4) above, find the radius, vertical and horizontal length of the tableware.
The method for measuring in-hospital meal intake according to any one of claims 1 to 3, which is performed by-.
前記各食器上からの食物の抽出を、
1)256色ビットマップファイルから前記食膳画像を取り出したのち、RGBの内、青色画像だけを取り出す。
2)しきい値を用いて前記青色画像を2値化する。すなわち、a)しきい値以上の画素を“1”画素(食物部分)とする。b)しきい値より小さい画素を“0”画素(背景部分)とする。
3)8近傍収縮処理を行なって前記青色画像内のノイズを除去する。収縮回数を1〜100とする。
4)ラベル処理を行なう。すなわち、a)“1”画素を探索する。b)探索した“1”画素に、現在のラベル番号を付ける。c)現在のラベル番号の8近傍に“1”画素があれば、その画素に同じラベル番号を設定する。
5)各々のラベル領域の中心位置を求め、求めたラベル領域ごとに、領域の位置の最大値および最小値を求める。
−によって行う請求項1〜3のいずれか記載の院内用食事摂取量の計測方法。
Extraction of food from each tableware,
1) After extracting the food image from the 256 color bitmap file, extract only the blue image of RGB.
2) The blue image is binarized using a threshold value. That is, a) Pixels equal to or greater than the threshold value are set to “1” pixels (food portion). b) A pixel smaller than the threshold value is set to “0” pixel (background portion).
3) Eight neighborhood contraction processing is performed to remove noise in the blue image. The number of contractions is 1 to 100.
4) Perform label processing. That is, a) A “1” pixel is searched. b) The current label number is assigned to the searched “1” pixel. c) If there is a “1” pixel near 8 of the current label number, the same label number is set for that pixel.
5) The center position of each label area is obtained, and the maximum value and the minimum value of the area position are obtained for each obtained label area.
The method for measuring in-hospital meal intake according to any one of claims 1 to 3, which is performed by-.
前記摂取量の算出を、
1)食物の残量が100%の場合のカロリーAcalと面積(画素数)Sを算出する。
2)食後における食物の残りを各食器毎に抽出する。
3)食物の残り部分の面積(画素)sを算出する。
4)食器毎の摂取カロリーaは下記の式で算出する。
a cal={1−s/S}×A cal
−によって行う請求項1〜3のいずれか記載の院内用食事摂取量の計測方法。
Calculation of the intake amount
1) Calorie Acal and area (number of pixels) S when the remaining amount of food is 100% are calculated.
2) The rest of the food after the meal is extracted for each tableware.
3) Calculate the area (pixel) s of the remaining portion of the food.
4) The calorie intake a for each tableware is calculated by the following formula.
a cal = {1-s / S} × A cal
The method for measuring in-hospital meal intake according to any one of claims 1 to 3, which is performed by-.
算出した食事摂取量を電子化して各患者ごとにデータベースに記録し、管理に使用する請求項1〜6のいずれか記載の院内用食事摂取量の計測方法。   The method for measuring in-hospital meal intake according to any one of claims 1 to 6, wherein the calculated meal intake is digitized, recorded in a database for each patient, and used for management. 正方形や長方形など所定形状のトレイ上に複数の食器を配置した状態の食膳を出し入れ可能な筐体状撮像装置と同撮像装置に接続したパーソナルコンピュータとを備えた計測システムであって、
前記撮像装置内には複数方向から画像を撮像するためのデジタルカメラと照明装置が配備され、同デジタルカメラにより撮影された食膳の画像が前記パーソナルコンピュータに自動的に取り込まれ、
前記パーソナルコンピュータは、撮影した画像の2値化による食器形状取得手段、ニューラルネットワークによる食器確定手段、食器上からの食物抽出手段および食事摂取量の計算手段を備え、
前記の食器確定手段は食器データベースに、また前記の食事摂取量の計算手段は食事献立などの食物データベースに接続可能に構成されていることを特徴とする院内用食事摂取量の計測システム。
A measurement system comprising a housing-like imaging device capable of taking in and out a table with a plurality of dishes arranged on a tray of a predetermined shape such as a square or a rectangle, and a personal computer connected to the imaging device,
In the imaging device, a digital camera and an illumination device are provided for capturing images from a plurality of directions, and a food image captured by the digital camera is automatically captured in the personal computer.
The personal computer includes tableware shape acquisition means by binarization of a photographed image, tableware determination means by a neural network, food extraction means from tableware, and meal intake calculation means,
An in-hospital meal intake measuring system, wherein the tableware determination means is connectable to a tableware database, and the meal intake calculation means is connectable to a food database such as a meal menu.
JP2003296720A 2003-08-20 2003-08-20 Method and system for measuring meal intake for hospital Pending JP2005070908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003296720A JP2005070908A (en) 2003-08-20 2003-08-20 Method and system for measuring meal intake for hospital

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003296720A JP2005070908A (en) 2003-08-20 2003-08-20 Method and system for measuring meal intake for hospital

Publications (1)

Publication Number Publication Date
JP2005070908A true JP2005070908A (en) 2005-03-17

Family

ID=34402814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003296720A Pending JP2005070908A (en) 2003-08-20 2003-08-20 Method and system for measuring meal intake for hospital

Country Status (1)

Country Link
JP (1) JP2005070908A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028382A (en) * 2009-07-22 2011-02-10 Kddi Corp Nutrition management server and nutrition management method for managing nutrition component of meal for each user
JP2012146159A (en) * 2011-01-13 2012-08-02 Fujitsu Ltd Information processing apparatus, method and program
JP2015146168A (en) * 2014-02-04 2015-08-13 株式会社吉田製作所 Diet management program, diet management method, and diet management device
WO2020012888A1 (en) * 2018-07-13 2020-01-16 コニカミノルタ株式会社 Monitoring record creation support system and monitoring record creation support method
CN113539427A (en) * 2020-04-22 2021-10-22 深圳市前海高新国际医疗管理有限公司 Convolutional neural network-based nutrition intervention analysis system and analysis method
CN115530773A (en) * 2022-10-17 2022-12-30 广州市番禺区中心医院 Cardiovascular disease evaluation and prevention system based on food intake of patient

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028382A (en) * 2009-07-22 2011-02-10 Kddi Corp Nutrition management server and nutrition management method for managing nutrition component of meal for each user
JP2012146159A (en) * 2011-01-13 2012-08-02 Fujitsu Ltd Information processing apparatus, method and program
JP2015146168A (en) * 2014-02-04 2015-08-13 株式会社吉田製作所 Diet management program, diet management method, and diet management device
WO2020012888A1 (en) * 2018-07-13 2020-01-16 コニカミノルタ株式会社 Monitoring record creation support system and monitoring record creation support method
CN113539427A (en) * 2020-04-22 2021-10-22 深圳市前海高新国际医疗管理有限公司 Convolutional neural network-based nutrition intervention analysis system and analysis method
CN115530773A (en) * 2022-10-17 2022-12-30 广州市番禺区中心医院 Cardiovascular disease evaluation and prevention system based on food intake of patient
CN115530773B (en) * 2022-10-17 2024-01-05 广州市番禺区中心医院 Cardiovascular disease evaluation and prevention system based on diet intake of patient

Similar Documents

Publication Publication Date Title
JP6409094B2 (en) Automated pharmaceutical tablet identification
EP2082355B1 (en) Method and apparatus for identifying facial regions
Elazary et al. Interesting objects are visually salient
CN110276366A (en) Carry out test object using Weakly supervised model
KR101562364B1 (en) Automatic calorie caculation method using food image and feeding behavior managing system using thereof
CN117372821A (en) Identification system
CN106934794A (en) Information processor, information processing method and inspection system
WO2015016960A1 (en) Universal assay reader
CN109919179A (en) Aneurysms automatic testing method, device and computer readable storage medium
JPH07313459A (en) Detecting device for opening extent of eyelid
JP6279837B2 (en) Image processing apparatus and program
AU2022238786B2 (en) Systems and methods for dynamic identification of a surgical tray and the items contained thereon
CN109738450A (en) The detection method and device of keyboard of notebook computer
JP2700440B2 (en) Article identification system
JP2005070908A (en) Method and system for measuring meal intake for hospital
CN111477289A (en) Method and device for storing and reading detection report
CN111444831B (en) Method for recognizing human face through living body detection
JP4824820B2 (en) Image management by vocabulary expression
JP2006201893A (en) Method and system for calculating nutrients
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
US10736819B1 (en) Pill detection and counting machine
JP2018049584A (en) Meal size estimation program, meal size estimation method, and meal size estimation apparatus
Suksawatchon et al. Shape Recognition Using Unconstrained Pill Images Based on Deep Convolution Network
Azcarraga et al. Identity concealment when uploading pictures of patients in a tele-medicine system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060724

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090630