JP7385845B2 - Weight detection device and weight detection program - Google Patents
Weight detection device and weight detection program Download PDFInfo
- Publication number
- JP7385845B2 JP7385845B2 JP2020075494A JP2020075494A JP7385845B2 JP 7385845 B2 JP7385845 B2 JP 7385845B2 JP 2020075494 A JP2020075494 A JP 2020075494A JP 2020075494 A JP2020075494 A JP 2020075494A JP 7385845 B2 JP7385845 B2 JP 7385845B2
- Authority
- JP
- Japan
- Prior art keywords
- weight
- tableware
- information
- detection device
- tray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 58
- 238000004364 calculation method Methods 0.000 claims description 66
- 235000013305 food Nutrition 0.000 claims description 56
- 235000012054 meals Nutrition 0.000 claims description 38
- 238000005303 weighing Methods 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 25
- 238000012937 correction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 33
- 238000000034 method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 239000004615 ingredient Substances 0.000 description 13
- 235000014347 soups Nutrition 0.000 description 5
- 235000021186 dishes Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 235000015429 Mirabilis expansa Nutrition 0.000 description 1
- 244000294411 Mirabilis expansa Species 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000037406 food intake Effects 0.000 description 1
- 235000012631 food intake Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 235000021056 liquid food Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 235000013536 miso Nutrition 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 235000003715 nutritional status Nutrition 0.000 description 1
- 235000015067 sauces Nutrition 0.000 description 1
- 235000012046 side dish Nutrition 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Description
本発明は、撮像情報及び重量情報を用いて食器内の食材の重量を検出する重量検出装置等に関する。 The present invention relates to a weight detection device and the like that detects the weight of food in tableware using imaging information and weight information.
介護施設や医療現場において摂取された食事量の管理が重要であるが、現状は人手不足等の理由により厳密に管理するのが困難な状況である。そのため、手間を掛けずに且つ正確な食事量の管理を行う技術が強く望まれている。残食の管理に関する技術として、例えば特許文献1、2に示す技術が開示されている。 Although it is important to control the amount of food consumed in nursing care facilities and medical settings, it is currently difficult to strictly control the amount of food consumed due to a lack of manpower and other reasons. Therefore, there is a strong demand for technology that can accurately manage meal amounts without requiring much effort. As techniques related to leftover food management, for example, techniques shown in Patent Documents 1 and 2 are disclosed.
特許文献1に示す技術は、消費者に食品を提供する食品提供システムを前提にしており、情報サービスセンター内の記憶手段は回収した食品によって判別された残食情報を記憶し、情報サービスセンター内のメニュー決定手段は上記残食情報に基づいてメニューを決定し、残食情報に基づいてメニューを決定することで、消費者の嗜好に応じたメニュー、あるいは、栄養状態を考慮したメニューを確実に提供するものである。 The technology shown in Patent Document 1 is based on a food provision system that provides food to consumers, and the storage means in the information service center stores leftover information determined by collected food. The menu determining means determines the menu based on the leftover food information, and by determining the menu based on the leftover food information, it ensures that the menu is tailored to the consumer's preferences or takes into account the nutritional status. This is what we provide.
特許文献2に示す技術は、医療情報が格納された医療サーバ、患者向け情報送出装置、医療スタッフが識別コードを入力することによって担当する患者の医療情報の読み書きを行うことのできる医療スタッフ用端末装置、及び、患者向け情報送出装置からの情報を受信可能であり、各患者がベッド上で操作し且つ表示面を見ることのできるようにそれぞれ設置された複数の患者用端末装置を有し、各患者用端末装置は、医療スタッフが識別コードを入力することによって、医療サーバにアクセスして当該医療スタッフの担当する患者の医療情報の読み書きを行うことが可能に構成されてなるものである。 The technology disclosed in Patent Document 2 includes a medical server storing medical information, a patient information sending device, and a terminal for medical staff that allows the medical staff to read and write medical information of the patients they are in charge of by inputting an identification code. The patient terminal device is capable of receiving information from the device and the patient information transmitting device, and has a plurality of patient terminal devices each installed so that each patient can operate it on the bed and see the display screen, Each patient terminal device is configured so that by inputting an identification code, the medical staff can access the medical server and read and write medical information for the patients in charge of the medical staff.
上記特許文献1及び2には、残食を管理するためにトレイに残っている食品や食器の状態の映像情報を用いることが記載されているものの、その具体的な手法については一切記載されていない。 Although Patent Documents 1 and 2 mentioned above describe the use of video information about the state of food and tableware remaining on trays to manage leftover food, they do not describe any specific methods. do not have.
ここで、カメラの撮影による残食の管理について発明者らが研究した結果、映像だけで残食の状態を解析するのが極めて困難であることがわかった。具体的には、例えば味噌汁のような混濁した食品の場合、汁のみが残っているのか中の具材も残っているのか映像だけで判断するのは不可能である。また例えば、食材は摂取しているものの、色が付いたソースのみが食器に残っている状態と食材自体を残している状態との区別は映像だけで判断するのが極めて困難である。その他にも流動食の摂取量の判別や果物(皮だけが残っている状態か果肉も残っている状態か)の判別等、実際に実験・研究を行った結果、映像だけで残食を確認することが極めて困難であることがわかっている。 As a result of the inventors' research on managing leftover food through camera photography, they found that it is extremely difficult to analyze the state of leftover food using only images. Specifically, for example, in the case of a cloudy food such as miso soup, it is impossible to judge from the image alone whether only the soup or the ingredients remain. Furthermore, for example, it is extremely difficult to distinguish between a state in which only colored sauce remains on the dish and a state in which the food itself remains on the tableware, even though the food has been ingested, based only on images. In addition, as a result of actual experiments and research, such as determining the intake amount of liquid food and determining whether it is fruit (with only the skin or pulp remaining), we have confirmed the presence of leftover food just by visualizing it. It has proven extremely difficult to do so.
本発明は、食器の配置情報を撮像情報から取得し、別途重量情報を取得することで、残食量や摂取量を算出することが可能となる重量検出装置及び重量検出プログラムを提供する。 The present invention provides a weight detection device and a weight detection program that make it possible to calculate the amount of leftover food and intake amount by acquiring tableware arrangement information from imaging information and separately acquiring weight information.
本発明に係る重量検出装置は、トレイに載置された食器を撮像した撮像情報を取得する撮像情報取得手段と、前記食器を含む前記トレイが載置される少なくとも三つ以上の直線上にない重量計からの重量情報を取得する重量情報取得手段と、前記撮像情報から前記トレイにおける前記食器の位置情報、及び前記トレイにおける前記重量計の位置情報を求める位置算出手段と、算出された前記食器の位置情報、前記重量計の位置情報及び前記重量情報に基づいて、前記食器の重量を算出する重量算出手段とを備えるものである。 The weight detection device according to the present invention includes an imaging information acquisition means for acquiring imaging information obtained by imaging tableware placed on a tray, and at least three or more straight lines on which the trays containing the tableware are placed. weight information acquisition means for acquiring weight information from a weighing scale; position calculation means for determining positional information of the tableware on the tray and positional information of the weighing scale on the tray from the imaging information; and the calculated tableware. and a weight calculation means for calculating the weight of the tableware based on the position information of the weighing scale, the position information of the weighing scale, and the weight information.
このように、本発明に係る重量検出装置においては、トレイに載置された食器を撮像した撮像情報を取得し、前記食器を含む前記トレイが載置される少なくとも三つ以上の直線上にない重量計からの重量情報を取得し、前記撮像情報から前記トレイにおける前記食器の位置情報、及び前記トレイにおける前記重量計の位置情報を求め、算出された前記食器の位置情報、前記重量計の位置情報及び前記重量情報に基づいて、前記食器の重量を算出するため、トレイを撮像して重量計に載置するだけで食器ごとの個々の重量を算出することが可能となり、簡単で且つ正確に食事管理を行うことができるという効果を奏する。 As described above, in the weight detection device according to the present invention, image information obtained by capturing images of tableware placed on a tray is acquired, and the weight detection device acquires image information of the tableware placed on the tray, and determines whether the tray containing the tableware is not on at least three straight lines on which the tray is placed. Obtaining weight information from a weighing scale, determining positional information of the tableware on the tray and positional information of the weighing scale on the tray from the imaging information, and calculating positional information of the tableware and position of the weighing scale. Since the weight of the tableware is calculated based on the information and the weight information, it is possible to calculate the individual weight of each tableware simply and accurately by simply taking an image of the tray and placing it on a weighing scale. This has the effect of making it possible to manage meals.
以下、本発明の実施の形態を説明する。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。 Embodiments of the present invention will be described below. Further, the same elements are given the same reference numerals throughout this embodiment.
(本発明の第1の実施形態)
本実施形態に係る重量検出装置について、図1ないし図6を用いて説明する。本実施形態に係る重量検出装置は、カメラで撮像した画像と複数の重量計とを用いることで複数の食器をトレイに載せた状態のまま、各食器ごとの重量情報を算出するものである。
(First embodiment of the present invention)
A weight detection device according to this embodiment will be explained using FIGS. 1 to 6. The weight detection device according to the present embodiment calculates weight information for each tableware while a plurality of tableware is placed on a tray by using an image captured by a camera and a plurality of weight scales.
図1は、本実施形態に係る重量検出装置を含む重量検出システムの構成を示す概略図である。図1(A)はシステム全体を示す外観図であり、図1(B)は下膳台にトレイを設置した場合の上面図である。 FIG. 1 is a schematic diagram showing the configuration of a weight detection system including a weight detection device according to this embodiment. FIG. 1(A) is an external view showing the entire system, and FIG. 1(B) is a top view when a tray is installed on the lower dining table.
図1(A)において、本実施形態に係る重量検出システム1は、下膳台15の上面部分に設置され、食器13を含むトレイ14全体の重量を計測する複数の重量計12と、下膳台15及びトレイ14全体を撮像するカメラ11と、カメラ11で撮像された画像情報、及び重量計12で計測されたトレイ14全体の重量情報に基づいて各食器13ごとの重量を算出する重量検出装置10とを備える。
In FIG. 1A, a weight detection system 1 according to the present embodiment includes a plurality of
カメラ11は、下膳台15の上方(好ましくはトレイ14が載置された場合に中心となる位置の直上)に設置され、少なくともトレイ14全体を撮像する。下膳台15又はトレイ14には予め識別子が貼付されており、重量検出装置10が行う画像処理により識別子が特定され、当該識別子を基準としてトレイ14上の各食器13の位置が算出される。位置を特定する方法の一例として、図1(B)に示すように、下膳台15とトレイ14とのそれぞれに識別子16(例えば、バーコードやQRコード(登録商標)等)が貼付されており、それぞれの識別子の位置と方向とが特定されることで下膳台15とトレイ14との相対的な位置関係が求められ、重量計12は下膳台15に固定されていることから重量計12と食器13との位置関係も容易に求めることが可能となる。なお、カメラ11と重量計12との位置を固定することで、重量計12と食器13との位置関係を容易に求めことも可能である。また、重量計12の位置をカメラ11で撮像した撮像画像を画像処理することで求めるようにしてもよい。さらにまた、重量計12で計測される重量情報にはトレイ14の重量も含まれており、トレイ14が各重量計12の計測値に対してどのように影響を与えているかを算出する必要があることから、トレイ14の位置を画像処理により求めるようにしてもよい。
The
重量計12は例えばロードセルであり、下膳台15の表面に突出するようにロードボタン17が設置されている。重量計12は少なくとも3つの直線上にない位置に配設されており、それぞれの重量計12のロードボタン17はトレイ14が載置された場合に当該トレイ14に接触するように配設される。なお、後述するように、食器13の位置を求める場合には3つの重量計12の配置構造において直角三角形が形成されるように配置することが望ましい。そうすることで、直角部分の交点を座標の原点として演算を容易にすることが可能となる。
The
カメラ11で撮像された画像情報と重量計12で計測された重量情報は重量検出装置10に送られ、各食器13ごとに個別に重量が演算される。以下、重量検出装置10の構成及び処理について詳細に説明する。図2は、本実施形態に係る重量検出装置の構成を示す機能ブロック図である。重量検出装置10は、カメラ11が撮像した画像情報を取得する撮像情報取得部21と、撮像情報取得部21が取得した画像情報に基づいて、トレイ14に載置されている各食器13の位置を算出する位置算出部22と、各重量計12で計測された重量情報を取得する重量情報取得部23と、食事の際に使用される食器13(空の場合)の種類ごとの重量、箸、スプーンなどの重量の情報を予め登録して記憶する登録情報記憶部27と、撮像情報取得部21が取得した画像情報、位置算出部22が算出した位置情報、重量情報取得部23が取得した重量情報、及び登録情報記憶部27に記憶された登録情報に基づいて各食器13の重量を算出すると共に、各食器13ごとに当該食器13に残っている食材の重量を算出する重量算出部24と、重量算出部24で算出された重量情報をディスプレイ、プリンタ、外部メモリ等の出力デバイス26に出力する出力制御部25とを備える。
The image information captured by the
位置算出部22は、カメラ11が撮像した画像情報に対して画像処理によりトレイ14上にある食器13やその他のものを識別する。図3は、カメラ11が撮像した画像の一例を示す模式図である。図3(A)はトレイ14の上方からカメラ11で撮像した画像の一例、図3(B)は各おかずを盛る食器13の画像の一例である。ここでは、図3(A)における主食の食器、汁物の食器、主菜の食器、スプーン、箸の画像を図3(B)に示している。図3(B)に示すような画像情報(サイズ、重量、平面形状、色、模様等を含む)が予め重量検出装置10の登録情報記憶部27、又はクラウド上のコンピュータに登録されており、図3(A)の画像情報とのマッチングを行うことで、図3(A)に撮像された各物体(画像における要素)の種別を特定する。ここでは、図3(B)に示すような画像情報から図3(A)における主食、汁物、主菜、スプーン、箸が画像処理により特定される。また、スプーン、箸については食材の重量に関係ないため、種別を特定した上で登録情報記憶部27に記憶された登録情報に基づいて演算対象から除外する。このようなスプーン、箸、空食器などの演算除外については、第2の実施形態において詳細を後述する。
The
なお、福祉施設や病院などの食堂において用いられる食器13は、基本的に毎日同じものが使用されるため、食器13のサイズ、模様、平面形状等の特徴を予め登録しておけば、盛られる食材が変わったとしても画像処理により食器13の種類はほぼ確実に識別することが可能である。画像処理の詳細については周知の方法を用いることができるため、ここでは詳細な説明を省略する。
Note that the
演算対象となる食器13についてその種別が特定されると、次にそれぞれの位置を求める。ここでは、各食器13の位置について、それぞれの食器13の重心となる点やトリミング枠の中心点などをその食器13の位置とする。そして、各食器13の位置を示す点を座標上にプロットする。図4は、下膳台15及びトレイ14と座標系との関係を示す図である。図4のLO,LX,LYは重量計12のロードボタンが配設されている位置であり、LOの交点を原点として直角二等辺三角形となるように配設されている。すなわち、図4に示すように、ロードボタンの位置をLO(0,0),LX(1,0),LY(0,1)とする座標系を定義し、この座標系に図3で特定した各食器13の位置を示す点をプロットしたものが図5に示す座標となる。
Once the type of
すなわち、識別子16又は予め決められた下膳台15の枠にトレイ14が載置されることで、トレイ14と重量計12(ロードセルのロードボタン)の位置関係が対応付けられる。図3の画像情報から演算対象となる食器13の位置を示す点とトレイ14との位置関係が対応付けられる。したがって、各重量計12と各食器13との位置関係が対応付けられるため、図5に示すような座標系を作成することが可能となる。なお、上述したように、カメラ11と重量計12の位置関係を固定とすることで、重量計12と各食器13との位置関係をより簡単に求めるようにしてもよい。
That is, by placing the
次に、図2における重量算出部24の処理について説明する。図4において二次元平面の3点(LO,LX,LY)に重量計12があり、重量計12の3点で囲まれた範囲内にそれぞれの重量が(W1,W2,W3)である重量物(食器13a,食器13b,食器13c)がある。各重量計12の計測値(LXsum,LYsum,LOsum)は重量計12から取得されて既知であり、各重量物の座標((x1,y1),(x2,y2),(x3,y3))は、上記で説明した画像処理により既知である。
Next, the processing of the
各重量計12に掛かるW1の重量は、
LX1=x1×W1
LY1=y1×W1
LO1=(1-x1-y1)×W1
となり、W2及びW3についても同様の計算となる。
The weight of W1 on each
LX1=x1×W1
LY1=y1×W1
LO1=(1-x1-y1)×W1
Therefore, similar calculations are made for W2 and W3.
すなわち、LX,LY,LOに掛かる全重量は、
LXsum=x1×W1+x2×W2+x3×W3・・・(1)
LYsum=y1×W1+y2×W2+y3×W3・・・(2)
LOsum=(1-x1-y1)W1+(1-x2-y2)W2+(1-x3-y3)W3
・・・(3)
となる。これらの演算式から個々の食器13の重量{W1,W2,W3}を求めることが可能となる。
In other words, the total weight applied to LX, LY, and LO is
LX sum =x1×W1+x2×W2+x3×W3...(1)
LY sum =y1×W1+y2×W2+y3×W3...(2)
LO sum = (1-x1-y1)W1+(1-x2-y2)W2+(1-x3-y3)W3
...(3)
becomes. It becomes possible to obtain the weight {W1, W2, W3} of each
上記計算を具体例で説明する。3つの重量計12のX座標とY座標をそれぞれ以下の配置とする。
重量計LO(X座標,Y座標)=(0,0)
重量計LX(X座標,Y座標)=(1,0)
重量計LY(X座標,Y座標)=(0,1)
The above calculation will be explained using a specific example. The X and Y coordinates of the three
Weight scale LO (X coordinate, Y coordinate) = (0,0)
Weight scale LX (X coordinate, Y coordinate) = (1,0)
Weight scale LY (X coordinate, Y coordinate) = (0, 1)
演算対象となる3つの食器13(食器13a~食器13c)の座標をそれぞれ以下とし、重量情報取得部23が取得した3つの重量計12のそれぞれの値をLOsum=80,LXsum=60,LYsum=100(単位をgとする)であるとする。
食器13aの位置 W1(x1,y1)=(0,0.5)
食器13bの位置 W2(x2,y2)=(0.5,0)
食器13cの位置 W3(x3,y3)=(0.5,0.5)
The coordinates of the three tableware 13 (tableware 13a to tableware 13c) to be calculated are as follows, and the respective values of the three weight scales 12 acquired by the weight
Position of tableware 13a W1 (x1, y1) = (0, 0.5)
Position of tableware 13b W2 (x2, y2) = (0.5, 0)
Position of tableware 13c W3 (x3, y3) = (0.5, 0.5)
上記の式(1)~(3)から、W1=120g,W2=40g,W3=80gが得られ、各食器13a~13cの重量を算出することが可能となる。なお、発明者らが実際に検証した結果、誤差の範囲内で上記演算が成立することが明らかとなった。 From the above equations (1) to (3), W1=120g, W2=40g, and W3=80g are obtained, making it possible to calculate the weight of each tableware 13a to 13c. In addition, as a result of actual verification by the inventors, it has become clear that the above calculation is valid within the range of error.
以上のような演算処理により重量算出部24がそれぞれの食器13ごとの重量を算出し、出力制御部25により出力デバイス26に出力される。このとき、登録情報記憶部27に記憶されている登録情報に基づいて、求めた食器13の重量(W1~W3)から登録されている食器のみの重量(食材が空の状態の食器13の重量)を引くことで食材のみの重量を得ることができる。食材のみの重量は、例えば食事前であれば適正量が注がれているかどうかの判断に利用することが可能であり、食事後であれば残食量を管理することが可能となる。
Through the arithmetic processing described above, the
次に、重量検出システムの一連の処理の流れについて説明する。図6は、本実施形態に係る重量検出システムの一連の処理を示すフローチャートである。図6において、まずトレイ14が下膳台15にセットされたことを検知する(S1)。この検知処理は、例えばカメラ11の撮像画像や重量計12の重量が変化したことを検知するようにしてもよいし、トレイ14を載置した人の何らかの操作に基づいて検知するようにしてもよい。トレイ14が下膳台15にセットされたら、カメラ11がトレイ14の上方から当該トレイ14全体を撮像する(S2)。撮像情報取得部21が、撮像されたトレイ14の画像を取得する(S3)。同時に、重量情報取得部23が各重量計12の計測結果を取得する(S4)。位置算出部22が取得されたトレイ14の画像を元に座標系を定義すると共に、画像処理を行うことでトレイ14上にある食器13の位置を特定し、座標系にプロットする(S5)。重量算出部24が上記で説明した演算方法により各食器13ごとの重量を算出する(S6)。出力制御部24が、食器13の重量や食器13に盛られている食材の重量等を出力デバイス26に出力して(S7)、処理を終了する。
Next, a series of processing steps of the weight detection system will be explained. FIG. 6 is a flowchart showing a series of processes of the weight detection system according to this embodiment. In FIG. 6, first, it is detected that the
このように、本実施形態に係る重量検出装置10においては、トレイ14に載置された食器13を撮像した撮像情報を取得し、食器13を含むトレイ14が載置される少なくとも三つ以上の直線上にない重量計12からの重量情報を取得し、撮像情報からトレイ14における食器13の位置情報、及びトレイ14における重量計12の位置情報を求め、算出された食器13の位置情報、重量計12の位置情報及び重量情報に基づいて、食器13内の食材の重量を算出するため、トレイ14を撮像して重量計12に載置するだけで食器13ごとの個々の食材の重量を算出することが可能となり、簡単で且つ正確に食事管理を行うことができる。
As described above, the
(本発明の第2の実施形態)
本実施形態に係る重量検出装置について、図7及び図8を用いて説明する。本実施形態に係る重量検出装置は、前記第1の実施形態に係る重量検出装置において食材に関係のない空の食器、箸、スプーンなどを除外した上で食材が入っている食器のみ重量を算出するものである。なお、本実施形態において前記第1の実施形態と重複する説明は省略する。
(Second embodiment of the present invention)
The weight detection device according to this embodiment will be explained using FIGS. 7 and 8. The weight detection device according to the present embodiment calculates the weight of only tableware containing food after excluding empty tableware, chopsticks, spoons, etc. that are not related to food, in the weight detection device according to the first embodiment. It is something to do. Note that in this embodiment, explanations that overlap with those of the first embodiment will be omitted.
図7は、本実施形態に係る重量検出装置の構成を示す機能ブロック図である。第1の実施形態における図2の場合と異なるのは、撮像情報取得部21が取得したトレイ14の撮像画像から食材の重量に直接関係しない、箸、スプ―ン、空の食器、その他の物体等の非対象物を特定して演算対象から排除すると共に、重量情報取得部23が取得した重量情報から、特定された非対象物の重量を差し引いて演算対象だけの重量に補正する補正部28を備えることである。このとき、補正部28が補正した結果は位置算出部22に送られ、位置算出部22は演算対象として特定された食器の位置のみを座標にプロットする。食材重量算出部24は、補正部28で補正された内容、及び補正部28で補正された内容が反映された位置算出部22の結果に基づいて重量の演算処理を行う。
FIG. 7 is a functional block diagram showing the configuration of the weight detection device according to this embodiment. What is different from the case of FIG. 2 in the first embodiment is that the image of the
補正部28の具体的な処理について説明する。空のお皿やスプーンなど重量が登録情報記憶部27に予め記憶されている3つの物体をC1,C2,C3とする。C1,C2,C3の位置は画像処理で検出し、検出した物体の重量は事前に登録されている登録情報記憶部27から取得する。
The specific processing of the
C1の座標を(xc1,yc1),重量をWC1とし、C2の座標を(xc2,yc2),重量をWC2とし、C3の座標を(xc3,yc3),重量をWC3とし、その他の条件を第1の実施形態の場合と同じとする。重量計LXに掛かっているC1~C3の重量をLXC、重量計LYに掛かっているC1~C3の重量をLYC、重量計LOに掛かっているC1~C3の重量をLOCとすると、
LXC=xc1×WC1+xc2×WC2+xc3×WC3
LYC=yc1×WC1+yc2×WC2+yc3×WC3
LOC=(1-xc1-yc1)WC1+(1-xc2-yc2)WC2+(1-xc3-yc3)WC3
となる。
The coordinates of C1 are (xc1, yc1), the weight is WC1, the coordinates of C2 are (xc2, yc2), the weight is WC2, the coordinates of C3 are (xc3, yc3), the weight is WC3, and the other conditions are This is the same as in the first embodiment. Let the weight of C1 to C3 hanging on the weight scale LX be LXC, the weight of C1 to C3 hanging on the weight scale LY be LYC, and the weight of C1 to C3 hanging on the weight scale LO be LOC.
LXC=xc1×WC1+xc2×WC2+xc3×WC3
LYC=yc1×WC1+yc2×WC2+yc3×WC3
LOC=(1-xc1-yc1)WC1+(1-xc2-yc2)WC2+(1-xc3-yc3)WC3
becomes.
つまり、重量計12が計測した値(LXsum,LYsum,LOsum)のそれぞれから食材に関係のないC1~C3の重量である(LXC,LYC,LOC)のそれぞれの値を差し引いた値が、各重量計12に掛かる演算対象となる食器13a~13c(W1,W2,W3)の重量となる。以降は、(LXsum,LYsum,LOsum)から(LXC,LYC,LOC)を引いた値(補正された値)で前記第1の実施形態の場合と同じ演算を行うことで、食器13a~13c(W1,W2,W3)の重量を求めることが可能となる。このとき、補正部28の演算結果を位置算出部22に渡して、C1~C3の位置情報については演算対象から除外して重量算出部24の処理に進むようにしてもよい。
In other words, the value obtained by subtracting the respective values of C1 to C3 (LXC, LYC, LOC), which are unrelated to the ingredients, from each of the values measured by the weight scale 12 (LX sum , LY sum , LO sum ) is , the weight of the tableware 13a to 13c (W1, W2, W3) to be calculated on each weighing
図8は、本実施形態に係る重量検出システムの一連の処理を示すフローチャートである。図8において、S1~S5までの処理は前記第1の実施形態における図6の場合と同じである。S5で各食器の位置が特定されると、補正部28が、食材の重量に直接関係しない、箸、スプ―ン、空の食器、その他の物体等の演算対象外となる非対象物を特定する(S6)。上記で説明した方法により重量計12の計測値から非対象物の重量情報を差し引いて補正を行う(S7)。位置算出部22は、座標系にプロットした非対象物を除外した新たな位置情報を算出して重量算出部24に渡す(S8)。重量算出部24が、補正部28が補正した値で第1の実施形態において説明した演算方法により各食器13ごとの重量を算出する(S9)。出力制御部24が、食器13の重量や食器13に盛られている食材の重量等を出力デバイス26に出力して(S10)、処理を終了する。
FIG. 8 is a flowchart showing a series of processes of the weight detection system according to this embodiment. In FIG. 8, the processing from S1 to S5 is the same as in the case of FIG. 6 in the first embodiment. When the position of each tableware is specified in S5, the
このように、本実施形態に係る重量検出装置においては、撮像画像に基づいて食材の重量に関係しない物体を特定し、当該物体の位置情報、及び当該物体の予め登録された重量に基づいて、重量情報を補正するため、食材が入っている食器のみを対象としてその重量を算出することが可能になり、食事管理を正確に行うことが可能になる。 In this way, the weight detection device according to the present embodiment identifies an object that is not related to the weight of the food based on the captured image, and based on the position information of the object and the pre-registered weight of the object, Since the weight information is corrected, it becomes possible to calculate the weight of only the tableware that contains food, making it possible to accurately manage meals.
(本発明の第3の実施形態)
本実施形態に係る重量検出装置について、図9及び図10を用いて説明する。本実施形態に係る重量検出装置は、前記各実施形態に係る重量検出装置の機能を拡張したものであり、食事前の配膳において各食器ごとの重量を予め登録し、食後の残食量を求めることで食事の摂取量を演算するものである。なお、本実施形態において前記各実施形態と重複する説明は省略する。
(Third embodiment of the present invention)
The weight detection device according to this embodiment will be explained using FIGS. 9 and 10. The weight detection device according to the present embodiment is an expanded function of the weight detection device according to each of the embodiments described above, and is capable of registering the weight of each tableware in advance when serving before a meal, and calculating the amount of leftover food after the meal. This calculates the amount of food consumed. Note that, in this embodiment, explanations that overlap with those of the above embodiments will be omitted.
図9は、本実施形態に係る重量検出装置の構成を示す機能ブロック図である。第1の実施形態における図2の場合と異なるのは、食事前の配膳時にトレイ14に食器13が載置されたことを検知すると共に、そのタイミングで重量計12が計測した重量情報を食前重量記憶部30に登録する登録処理部29と、この登録された食事前の食器13の重量情報と重量算出部24が算出した残食量との差分から食事の摂取量を算出する摂取量算出部31とを備えることである。
FIG. 9 is a functional block diagram showing the configuration of the weight detection device according to this embodiment. What is different from the case of FIG. 2 in the first embodiment is that it detects that the
登録処理部29は、カメラ11からの画像情報又は重量計12からの重量の変化からトレイ14に配膳がなされたことを検知すると共に、予め登録されている物体の画像情報やサイズ、形状、模様等の情報からトレイ14に載置された物体の種別(例えば、主食、汁物、主菜、スプーン、箸等)を特定し、特定された種別ごとに計測された重量情報を食前重量記憶部30に登録する。このとき、各物体が載置されるトレイ14の位置に応じて各重量計12の値が個々に変化するが、全ての重量計12の変化の合計値が載置された物体の重量として登録される。
The
摂取量算出部31は、食前重量記憶部30に登録された食事前の食材の重量(登録処理部29で登録された食器+食材の重量から登録情報記憶部27に登録された食器のみの重量を引いた重量)から重量算出部24で算出された食事後の残食量(食事後の食器13の重量から登録情報記憶部27に登録された食器のみの重量を引いた重量)を差し引いて、食材の摂取量を算出する。算出された結果は、出力制御部25により出力デバイス26に出力される。このとき、食事前の食材の重量なども比較対象として出力するなどして、摂取量や残食量をよりわかりやすく出力するのが望ましい。
The
図10及び図11は、本実施形態に係る重量検出システムの一連の処理を示すフローチャートである。図10が食事前の処理を示すフローチャート、図11が食事後の処理を示すフローチャートである。まず図10において、食事前の配膳時に登録処理部29がトレイ14が下膳台15にセットされたことを検知する(S1)。トレイ14がセットされたことを検知すると、食材が盛られた食器13がトレイ14に配膳されるタイミングを検知し(S2)、当該タイミングにおける各食器13の重量を重量計12から取得して食前重量記憶部30に登録する(S3)。全ての食器13について配膳が完了したかどうかが判定され(S4)、全ての食器13がトレイ14に配膳されるまでS2~S3の処理が繰り返して実行される。全ての食器13がトレイ14に配膳されると図11の食後処理に進む。
10 and 11 are flowcharts showing a series of processes of the weight detection system according to this embodiment. FIG. 10 is a flowchart showing processing before a meal, and FIG. 11 is a flowchart showing processing after a meal. First, in FIG. 10, the
なお、全ての食器13がトレイ14に配膳されたかどうかの判定は、配膳する人の入力操作をトリガにしてもよいし、トレイ14がカメラ11の撮像範囲外に移動したことを検知するようにしてもよい。また、予めメニューが固定されている場合はそれらのメニュー全てが画像で認識された時点で配膳完了と判断してもよい。
Note that the determination as to whether all the
図11において、食後の重量計測がなされる。図11のS1~S9の処理は前記第2の実施形態における図8に記載のS1~S9の処理と同じであるため説明は省略する。S9において補正した値で各食器13の重量が算出されると、摂取量算出部31が、食前重量記憶部30に登録された食前の各食器13の重量と、重量算出部24が算出した食後における各食器13の重量との差分を求める(S10)。出力制御部25が、S10で求めた差分を食事摂取量として出力デバイス26に出力して(S11)、処理を終了する。
In FIG. 11, the weight is measured after the meal. The processing from S1 to S9 in FIG. 11 is the same as the processing from S1 to S9 shown in FIG. 8 in the second embodiment, so a description thereof will be omitted. When the weight of each
このように、本実施形態に係る重量検出装置においては、トレイ14に食器13が載置されたタイミングにおける重量情報に基づいて、食事前の各食器13ごとの重量情報を登録するため、トレイ14に食器13を載置する作業を行うだけで食事前の各食器13ごとの重量(食材を含む)を確実に登録することができる。
In this way, in the weight detection device according to the present embodiment, the weight information for each
また、重量算出部24が食事後の残食食材の重量を算出し、食事前の予め登録された各食器13ごとの重量情報、及び残食食材の重量情報に基づいて、摂取された食材の重量を算出するため、食事前の食器の状態と食事後の食器の状態とから摂取量を正確に算出することが可能となり、食事管理を簡単で且つ正確に行うことができる。
In addition, the
(その他の実施形態)
本実施形態に係る重量検出装置は、演算対象となる食器13の数が4つ以上である場合の演算機能を備えるものである。前記各実施形態において説明した重量算出部24の処理は、演算対象となる食器13が3つ以下の場合に正確に行うことが可能であるが、4つ以上になると演算に用いる連立方程式の数が3つであるのに対して変数の数が4つ以上になるため、数学的な処理では正確な演算が難しくなる。そこで、本実施形態においては、演算対象となる食器13(例えば食材が残っている食器)が4つ以上である場合に、3つ目以降の食器13について、各食器13ごとの重量の比率を算出し、その比率に応じて重量を算出する。なお、本実施形態において前記各実施形態と重複する説明は省略する。
(Other embodiments)
The weight detection device according to the present embodiment has a calculation function when the number of
本実施形態においては、食材が残っている3つ目以降の食器13については1つの物体としてグループ化し(以下、このグループ化された食器13を仮想物体という)、仮想物体を3つ目の演算対象となる食器13として重量を求める。仮想物体の位置は、例えば仮想物体を構成する各食器13の位置を示す点の中心や重心となる点とすることができる。仮想物体の画像処理による位置情報及び重量計から重量情報が得られれば、上記の各実施形態において説明したように仮想物体全体の重量を算出することができる。
In this embodiment, the third and
仮想物体全体の重量が算出されると、それを食器13の比率に応じて按分する。比率の求め方としては、例えば食器13自体の重量(空の食器13)の比率に加えて、画像処理により食材が占める面積の広さの比率を割り出し、それを食材の重量の比率と見なして求めてもよいし、食前の撮像画像と食後の撮像画像とを比較しておおよその食事摂取量を割り出し、その比率を用いるようにしてもよい。
Once the weight of the entire virtual object is calculated, it is apportioned according to the proportion of the
より具体的には、トレイ14上の空の食器13を特定する空食器特定部(第2の実施形態における補正部28が行うようにしてもよい)と、トレイ14に載置された食器13のうち空の食器を除いた演算対象(食材が残っている食器13)が4つ以上である場合に、撮像画像に基づいて各演算対象となる食器13ごとの重量の比率を推定する比率算出部と、比率算出部で算出された比率が大きい方から又は小さい方から上位3つ目以降の演算対象となる食器13をグループ化して仮想物体とするグループ化処理部とを備え、グループ化された仮想物体の重量を算出し、比率算出部で推定された比率に応じて仮想物体における個々の食器13の重量を算出する。
More specifically, an empty tableware identification unit (which may be performed by the
このように、本実施形態に係る重量検出装置においては、演算対象となる食器13が4つ以上である場合に、3つ目以降の食器13について、撮像情報に基づいて各食器13ごとの重量の比率を算出し、重量算出部24が食器13の位置情報、重量計12の位置情報、重量情報、及び比率に基づいて、3つ目以降の食器13内の食材の重量を算出するため、数学的な演算が困難となる4つ以上の食器13についても、3つ目以降の食器重量の比率からある程度の各食器13ごとの重量を算出することができる。
In this way, in the weight detection device according to the present embodiment, when there are four or
1 重量検出システム
10 重量検出装置
11 カメラ
12 重量計
13 食器
14 トレイ
15 下膳台
16 識別子
17 ロードボタン
21 撮像情報取得部
22 位置算出部
23 重量情報取得部
24 重量算出部
25 出力制御部
26 出力デバイス
27 登録情報記憶部
28 補正部
29 登録処理部
30 食前重量記憶部
31 摂取量算出部
1
Claims (7)
前記食器を含む前記トレイが載置される少なくとも三つ以上の直線上にない重量計からの重量情報を取得する重量情報取得手段と、
前記撮像情報から前記重量計の位置に対する前記食器の位置情報を求める位置算出手段と、
算出された前記食器の位置情報、前記重量計の位置情報及び前記重量情報に基づいて、前記食器の重量を算出する重量算出手段とを備えることを特徴とする重量検出装置。 Imaging information acquisition means for acquiring imaging information obtained by imaging the tableware placed on the tray;
weight information acquisition means for acquiring weight information from at least three weighing scales that are not on a straight line on which the tray containing the tableware is placed;
position calculation means for calculating position information of the tableware with respect to the position of the weighing scale from the imaging information;
A weight detection device comprising: weight calculation means for calculating the weight of the tableware based on the calculated position information of the tableware, the position information of the weighing scale, and the weight information.
前記撮像情報に基づいて食材の重量に関係しない物体を特定し、当該物体の位置情報、及び当該物体の予め登録された重量に基づいて、前記重量情報を補正する補正手段を備える重量検出装置。 The weight detection device according to claim 1,
A weight detection device comprising a correction means for identifying an object unrelated to the weight of food based on the imaging information and correcting the weight information based on position information of the object and a pre-registered weight of the object.
前記トレイに食器が載置されたタイミングにおける前記重量情報に基づいて、食事前の各食器ごとの重量情報を登録する重量登録手段を備える重量検出装置。 The weight detection device according to claim 1 or 2,
A weight detection device comprising a weight registration means for registering weight information for each tableware before a meal based on the weight information at the timing when the tableware is placed on the tray.
前記重量算出手段が食事後の残食食材の重量を算出し、
食事前の予め登録された各食器ごとの重量情報、及び前記残食食材の重量情報に基づいて、摂取された食材の重量を算出する摂取量算出手段を備える重量検出装置。
The weight detection device according to any one of claims 1 to 3,
The weight calculation means calculates the weight of leftover food after the meal,
A weight detection device comprising an intake calculation means for calculating the weight of an ingested food based on weight information of each tableware registered in advance before a meal and weight information of the leftover food.
前記トレイ上の空の食器を特定する空食器特定手段と、
前記トレイに載置された食器のうち前記空の食器を除いた対象食器が四つ以上である場合に、前記撮像情報に基づいて各対象食器ごとの重量の比率を推定する比率算出手段とを備え、
前記重量算出手段が、前記対象食器の位置情報、前記重量計の位置情報、前記重量情報、及び前記比率に基づいて、三つ目以降の食器の重量を算出する重量検出装置。 The weight detection device according to any one of claims 1 to 4,
empty tableware identifying means for identifying empty tableware on the tray;
Ratio calculation means for estimating the weight ratio of each target tableware based on the imaging information when there are four or more target tablewares excluding the empty tableware among the tablewares placed on the tray. Prepare,
A weight detection device, wherein the weight calculation means calculates the weight of the third and subsequent tableware based on the position information of the target tableware, the position information of the weighing scale, the weight information, and the ratio.
前記比率算出手段で算出された比率が大きい方から又は小さい方から上位三つ目以降の対象食器をグループ化するグループ化手段を備え、
前記重量算出手段が、グループ化された三つ目以降の対象食器の重量を算出し、前記比率に応じて個々の対象食器の重量を算出する重量検出装置。 The weight detection device according to claim 5,
comprising a grouping means for grouping the target tableware from the top three or higher from the one with the largest ratio or the one with the smallest ratio calculated by the ratio calculation means,
A weight detection device, wherein the weight calculation means calculates the weight of the third and subsequent grouped target tableware, and calculates the weight of each target tableware according to the ratio.
前記食器を含む前記トレイが載置される少なくとも三つ以上の直線上にない重量計からの重量情報を取得する重量情報取得手段、
前記撮像情報から前記重量計の位置に対する前記食器の位置情報を求める位置算出手段、
算出された前記食器の位置情報、前記重量計の位置情報及び前記重量情報に基づいて、前記食器の重量を算出する食材重量算出手段としてコンピュータを機能させることを特徴とする重量検出プログラム。 Imaging information acquisition means for acquiring imaging information obtained by imaging the tableware placed on the tray;
Weight information acquisition means for acquiring weight information from at least three weighing scales that are not on a straight line, on which the tray containing the tableware is placed;
position calculation means for calculating position information of the tableware with respect to the position of the weighing scale from the imaging information;
A weight detection program that causes a computer to function as a food weight calculation means for calculating the weight of the tableware based on the calculated position information of the tableware, the position information of the scale, and the weight information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075494A JP7385845B2 (en) | 2020-04-21 | 2020-04-21 | Weight detection device and weight detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075494A JP7385845B2 (en) | 2020-04-21 | 2020-04-21 | Weight detection device and weight detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021173558A JP2021173558A (en) | 2021-11-01 |
JP7385845B2 true JP7385845B2 (en) | 2023-11-24 |
Family
ID=78281523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020075494A Active JP7385845B2 (en) | 2020-04-21 | 2020-04-21 | Weight detection device and weight detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7385845B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204105A (en) | 2007-02-19 | 2008-09-04 | Shikoku Chuboki Seizo Kk | Automatic food intake measuring system and automatic dietary intake measuring method |
US20130157232A1 (en) | 2011-12-09 | 2013-06-20 | Joel Ehrenkranz | System and methods for monitoring food consumption |
JP2018049393A (en) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Health care device, health care system, and health care method |
JP2018163615A (en) | 2017-03-27 | 2018-10-18 | foo.log株式会社 | Information providing device and program |
-
2020
- 2020-04-21 JP JP2020075494A patent/JP7385845B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204105A (en) | 2007-02-19 | 2008-09-04 | Shikoku Chuboki Seizo Kk | Automatic food intake measuring system and automatic dietary intake measuring method |
US20130157232A1 (en) | 2011-12-09 | 2013-06-20 | Joel Ehrenkranz | System and methods for monitoring food consumption |
JP2018049393A (en) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Health care device, health care system, and health care method |
JP2018163615A (en) | 2017-03-27 | 2018-10-18 | foo.log株式会社 | Information providing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021173558A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7159331B2 (en) | School lunch management system and its operation method | |
Mauger et al. | Right ventricular shape and function: cardiovascular magnetic resonance reference morphology and biventricular risk factor morphometrics in UK Biobank | |
US10832472B2 (en) | Method and/or system for reconstructing from images a personalized 3D human body model and thereof | |
CN105043271B (en) | Length measurement method and device | |
Jia et al. | Imaged based estimation of food volume using circular referents in dietary assessment | |
JP7184153B2 (en) | Inspection support system, inspection support device, inspection support program | |
US10789725B2 (en) | BMI, body and other object measurements from camera view display | |
JP2008204105A (en) | Automatic food intake measuring system and automatic dietary intake measuring method | |
Strugnell et al. | Modified RV short axis series—a new method for cardiac MRI measurement of right ventricular volumes | |
CN112254633B (en) | Object size measuring method, device and equipment | |
JP2018147416A (en) | Meal identification system, identification method and identification program | |
JP7385845B2 (en) | Weight detection device and weight detection program | |
US11478096B2 (en) | Food monitoring system | |
KR20140094761A (en) | Method for checkweighing food and apparatus thereof | |
WO2020136500A1 (en) | Automated point of sale systems and methods | |
CN104169960A (en) | Operation support system, operation support device, operation support method and program | |
Huynh et al. | Towards accurate measurement of abdominal aortic aneurysm wall thickness from CT and MRI | |
Walter et al. | Socio-economic aspects of the testing for antibodies in MS-patients under interferon therapy in Austria: a cost of illness study | |
JP7064853B2 (en) | Cooking content discrimination system and intake content discrimination system | |
JP2023503019A (en) | food serving system | |
JP2018147415A (en) | Meal identification system and program therefor | |
JP2017045340A (en) | Meal content input system | |
CN207008703U (en) | A kind of meal ordering system based on Quick Response Code | |
JP7235974B2 (en) | Information processing system, information processing method, and information processing program | |
CN110264176A (en) | Settlement method, device and the computer readable storage medium of food |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7385845 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |