JP7064853B2 - Cooking content discrimination system and intake content discrimination system - Google Patents

Cooking content discrimination system and intake content discrimination system Download PDF

Info

Publication number
JP7064853B2
JP7064853B2 JP2017231798A JP2017231798A JP7064853B2 JP 7064853 B2 JP7064853 B2 JP 7064853B2 JP 2017231798 A JP2017231798 A JP 2017231798A JP 2017231798 A JP2017231798 A JP 2017231798A JP 7064853 B2 JP7064853 B2 JP 7064853B2
Authority
JP
Japan
Prior art keywords
cooking
dish
photographing
food
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017231798A
Other languages
Japanese (ja)
Other versions
JP2019101736A (en
Inventor
太輔 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Housing Corp
Original Assignee
Toyota Housing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Housing Corp filed Critical Toyota Housing Corp
Priority to JP2017231798A priority Critical patent/JP7064853B2/en
Publication of JP2019101736A publication Critical patent/JP2019101736A/en
Application granted granted Critical
Publication of JP7064853B2 publication Critical patent/JP7064853B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、家庭における調理内容を判別する調理内容判別システム及び食事における摂取内容を判別する摂取内容判別システムに関する。 The present invention relates to a cooking content discriminating system for discriminating cooking content at home and an intake content discriminating system for discriminating intake content in a meal.

飲食店において、テーブル上から食事状況を撮影することにより、客が摂取した食事又は客が残した食事の内容を自動的に判別するシステムが提案されている(例えば、特許文献1参照)。 At a restaurant, a system has been proposed in which the contents of a meal ingested by a customer or a meal left by a customer are automatically determined by photographing a meal situation from a table (see, for example, Patent Document 1).

特開2005-044170号公報Japanese Unexamined Patent Publication No. 2005-044170

上記提案のシステムを家庭に適用しようとした場合、家庭ごとに食材が変わることがあるし、カレーライスなど食材が溶け込んでしまう料理では完成した料理から食材を把握できないこともある。そのため、上記提案のシステムを家庭に適用しても精度があまりにも低く、家庭ごとに適合したシステムとしては実用に供し得ない。 When trying to apply the above-mentioned system to households, the ingredients may change from household to household, and it may not be possible to grasp the ingredients from the finished dish in a dish such as curry rice where the ingredients blend in. Therefore, even if the system proposed above is applied to a home, the accuracy is too low and it cannot be put into practical use as a system suitable for each home.

本発明は、上記事情に鑑みてなされたものであり、家庭で調理された調理内容を精度よく自動的に判別することのできる調理内容判別システム、及び家庭の食事で摂取された摂取内容を精度よく自動的に判別することのできる摂取内容判別システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and is an accuracy of a cooking content determination system capable of accurately and automatically determining the cooking content cooked at home, and an accuracy of the intake content ingested in a home meal. It is an object of the present invention to provide an intake content discrimination system that can be discriminated well and automatically.

上記目的を達成すべく、第1の発明の調理内容判別システムは、キッチンにおける料理の調理状況を撮影する第1撮影手段と、ダイニングにおける料理の調理状況を撮影する第2撮影手段と、前記第1撮影手段及び前記第2撮影手段による各撮影結果に基づいて、調理内容を判別する調理内容判別手段と、を備えていることを特徴とする。 In order to achieve the above object, the cooking content determination system of the first invention comprises a first photographing means for photographing a cooking situation of a dish in a kitchen, a second photographing means for photographing a cooking situation of a dish in a dining room, and the first photographing means. It is characterized by comprising (1) a cooking content discriminating means for discriminating cooking contents based on the photographing means and each photographing result by the second photographing means.

第1の発明によれば、キッチン及びダイニングにおける調理状況を踏まえて総合的に調理内容を判別することができる。そのため、キッチンで調理の一部を行い、ダイニングで調理の残りの部分を行った場合であっても、調理内容を精度よく自動的に把握することができる。 According to the first invention, it is possible to comprehensively determine the cooking content based on the cooking situation in the kitchen and the dining room. Therefore, even if a part of cooking is done in the kitchen and the rest of the cooking is done in the dining room, the cooking contents can be grasped accurately and automatically.

第2の発明は、第1の発明において、前記調理内容判別手段は、前記第1撮影手段による撮影結果から、調理に使用された食材及び調味料の種別及び量を判別する手段と、前記第2撮影手段による撮影結果から、調理に使用された食材及び調味料の種別及び量を判別する手段と、を備える。 According to the second aspect of the present invention, in the first invention, the cooking content determining means is a means for determining the type and amount of ingredients and seasonings used for cooking from the results of photography by the first photographing means, and the first aspect. (2) A means for determining the type and amount of ingredients and seasonings used for cooking from the results of photography by the photographing means is provided.

第2の発明によれば、調理内容として、キッチン及びダイニングにおける食材に加え、調味料も把握することができる。そのため、例えばキッチンで一旦完成した料理に対し、ダイニングで薬味や香辛料を追加したような場合であっても、食事に供される料理に使用された食材及び調味料を精度よく自動的に把握することができる。 According to the second invention, as the cooking content, in addition to the ingredients in the kitchen and the dining room, the seasoning can be grasped. Therefore, for example, even if condiments and spices are added to a dish once completed in the kitchen, the ingredients and seasonings used in the dish served in the meal are accurately and automatically grasped. be able to.

第3の発明は、第2の発明において、前記調理内容判別手段は、各種料理に係るレシピ情報、カロリー情報、栄養素を少なくとも含む、料理データベースに登録されている料理と、前記第1撮影手段及び前記第2撮影手段により撮影された料理とを比較し、使用されている食材及び調味料の差異部分を補正し、前記補正された結果に基づいて、前記撮影された料理のカロリー及び栄養素を判別する。 According to a third aspect of the invention, in the second aspect, the cooking content determining means includes a dish registered in a cooking database containing at least recipe information, calorie information, and nutrients related to various dishes, and the first photographing means and the above-mentioned first photographing means. Compared with the food photographed by the second photographing means, the difference portion of the ingredients and seasonings used is corrected, and the calories and nutrients of the photographed food are discriminated based on the corrected result. do.

第3の発明によれば、レシピ情報、カロリー情報、栄養素等については料理データベースを基本としつつ、家庭ごとに異なる使用食材等を補正要素とすることで、料理データベースの利点を活用しつつ当該データベースの欠点を補うことができる。 According to the third invention, recipe information, calorie information, nutrients, etc. are based on a cooking database, and by using different ingredients used for each household as correction factors, the database can be utilized while utilizing the advantages of the cooking database. Can make up for the shortcomings of.

第4の発明は、第1~第3の発明において、前記調理内容判別手段は、前記第1撮影手段又は前記第2撮影手段により撮影された画像に基づき、基準となる寸法を特定し、前記寸法に基づいて少なくとも前記調理に用いた食材の量を判別する。 In the fourth aspect of the invention, in the first to third inventions, the cooking content discriminating means specifies a reference dimension based on an image taken by the first photographing means or the second photographing means, and the said. At least the amount of the foodstuff used for the cooking is determined based on the dimensions.

同じ食材でも大きさが判別できなければカロリー等の計算ができないが、第4の発明によれば、各撮影手段により撮影された食材の量を、撮影された画像に映りこむ基準寸法から特定することができる。 If the size of the same food cannot be determined, calories and the like cannot be calculated, but according to the fourth invention, the amount of food taken by each shooting means is specified from the standard dimensions reflected in the shot image. be able to.

第5の発明は、第1~第4の発明において、前記第1撮影手段及び前記第2撮影手段によって撮影された料理のデータを少なくとも一定期間記憶しておく記憶手段を備え、前記調理内容判別手段は、前記第1撮影手段及び前記第2撮影手段によって撮影された料理が、今回の調理によって作られた料理ではないと判断される場合、前記記憶手段に記憶されている以前調理された料理であるか否かを判断し、前記以前調理された料理である場合には、その料理の調理状況をもとに調理内容を判別する。 A fifth aspect of the invention comprises a storage means for storing food data taken by the first photographing means and the second photographing means for at least a certain period of time in the first to fourth inventions, and the cooking content determination. If it is determined that the dish photographed by the first photographing means and the second photographing means is not the dish prepared by the present cooking, the means is the previously cooked dish stored in the storage means. If it is a previously cooked dish, the cooking content is determined based on the cooking status of the dish.

家庭では、料理を作り置きしておく場合や、残った料理を冷蔵庫等に保存して再度食事に利用することがある。第5の発明によれば、過去に撮影された料理がダイニングにて食事に供された場合、この状況を判断して、過去に判別済みの食材や調味料などを特定することができるようにしてある。その結果、家庭でよくみられる作り置き等に対しても対応することができる。 At home, there are cases where food is prepared and stored, or the remaining food is stored in a refrigerator or the like and used again for meals. According to the fifth invention, when a dish taken in the past is served for a meal in the dining room, it is possible to judge this situation and identify the ingredients, seasonings, etc. that have been identified in the past. There is. As a result, it is possible to deal with pre-made items that are often seen at home.

第6の発明の摂取内容判別システムは、第1~第5の発明のいずれかの調理内容判別システムと、前記第2撮影手段による撮影結果から、前記調理内容判別システムによる判別対象とされた料理の摂取量を判別する摂取量判別手段と、前記調理内容判別手段及び前記摂取量判別手段の各判別結果に基づいて、食事をした人の摂取カロリー及び栄養バランスの少なくとも一方を推定する推定手段と、を備える。 The intake content discrimination system of the sixth invention is a dish targeted for discrimination by the cooking content discrimination system from the cooking content discrimination system according to any one of the first to fifth inventions and the shooting result by the second photographing means. An intake amount discriminating means for discriminating the intake amount of the food, and an estimation means for estimating at least one of the calorie intake and the nutritional balance of the person who ate the food based on the discrimination results of the cooking content discriminating means and the intake amount discriminating means. , Equipped with.

第6の発明によれば、調理内容判別システムにより判別された調理内容と、その調理により提供される料理の摂取状況とから、食事をした人の摂取カロリー及び栄養バランスの少なくとも一方が推定される。この推定結果を利用すれば、カロリーオーバーであることや栄養バランスが崩れていることなど、家庭における食事による各種の状況を得ることができる。 According to the sixth invention, at least one of the calorie intake and the nutritional balance of the person who ate is estimated from the cooking content determined by the cooking content determination system and the intake status of the food provided by the cooking. .. By using this estimation result, it is possible to obtain various situations due to diet at home, such as excessive calories and imbalance in nutrition.

キッチン及びダイニングの概略を示す平面図。Top view showing the outline of the kitchen and the dining room. 判別システムの構成を示す概略図。The schematic diagram which shows the structure of the discrimination system. 料理データベースの登録情報を説明するための概略図。Schematic diagram for explaining the registration information of a cooking database. 撮影処理を示すフローチャート。A flowchart showing the shooting process. 調理内容判別処理を示すフローチャート。A flowchart showing a cooking content discrimination process. 判別された食材等のデータを示す概略図。The schematic diagram which shows the data of the identified foodstuffs and the like. 補正処理を説明するための説明図。An explanatory diagram for explaining the correction process. 摂取内容判別処理を示すフローチャート。A flowchart showing an intake content discrimination process. 作り置き用処理を示すフローチャート。A flowchart showing the process for pre-preparation.

以下、本発明を具体化した一実施の形態について図面を参照しつつ説明する。図1はキッチン11及びダイニング12の概略を示す平面図、図2は判別システムの構成を示す概略図である。 Hereinafter, an embodiment embodying the present invention will be described with reference to the drawings. FIG. 1 is a plan view showing an outline of a kitchen 11 and a dining room 12, and FIG. 2 is a schematic view showing a configuration of a discrimination system.

図1に示すように、建物10には、屋内空間としてのキッチン11及びダイニング12が設けられている。本実施の形態においてキッチン11及びダイニング12は連続した一体空間として形成されている。 As shown in FIG. 1, the building 10 is provided with a kitchen 11 and a dining room 12 as indoor spaces. In the present embodiment, the kitchen 11 and the dining room 12 are formed as a continuous integrated space.

キッチン11にはキッチン設備21が設置されており、キッチン設備21によりキッチン11とダイニング12とが仕切られている。キッチン設備21は横長状の作業台22(キッチン台)を備えており、作業台22の上面部には、コンロ23とシンク24(流し台)とカウンタ25とが設けられている。コンロ23及びシンク24は作業台22の長手方向(幅方向)における両側に配置され、それらの間にカウンタ25が配置されている。ダイニング12には、ダイニングテーブル26と複数の椅子27とを有するダイニングセット28が設置されている。 Kitchen equipment 21 is installed in kitchen 11, and kitchen equipment 21 separates kitchen 11 and dining 12. The kitchen equipment 21 is provided with a horizontally long workbench 22 (kitchen table), and a stove 23, a sink 24 (sink), and a counter 25 are provided on the upper surface of the workbench 22. The stove 23 and the sink 24 are arranged on both sides of the workbench 22 in the longitudinal direction (width direction), and a counter 25 is arranged between them. In the dining room 12, a dining set 28 having a dining table 26 and a plurality of chairs 27 is installed.

キッチン11及びダイニング12には、調理内容判別機能と摂取内容判別機能とを有する判別システムが搭載されている。調理内容判別機能は、家庭での調理過程を撮影し、その撮影結果から調理内容を判別するものであり、摂取内容判別機能は、ダイニング12での食事過程を撮影し、その撮影結果から食事をした人の摂取内容を判別するものである。以下、これらの機能を有する判別システムの構成について詳細に説明する。 The kitchen 11 and the dining room 12 are equipped with a discrimination system having a cooking content discrimination function and an intake content discrimination function. The cooking content discrimination function captures the cooking process at home and discriminates the cooking content from the shooting result, and the intake content discrimination function captures the meal process in the dining room 12 and prepares a meal from the shooting result. It is intended to determine the intake content of the person who has taken the food. Hereinafter, the configuration of the discrimination system having these functions will be described in detail.

図2に示すように、キッチン11の天井面11aには、キッチン11における料理の調理状況を撮影する第1撮影手段としての第1カメラ31が設置されている。第1カメラ31は、キッチン設備21の上方に配置され、作業台22を撮影するように撮影方向が下方に向けられている。第1カメラ31は、動画撮影が可能なカメラであり、キッチン11での調理状況を漏れなく撮影するために、カウンタ25及びコンロ23の全体を含むように撮影範囲S1が設定されている(図1参照)。 As shown in FIG. 2, a first camera 31 is installed on the ceiling surface 11a of the kitchen 11 as a first photographing means for photographing a cooking state of food in the kitchen 11. The first camera 31 is arranged above the kitchen equipment 21, and the shooting direction is directed downward so as to shoot the workbench 22. The first camera 31 is a camera capable of shooting a moving image, and the shooting range S1 is set so as to include the entire counter 25 and the stove 23 in order to shoot the cooking situation in the kitchen 11 without omission (FIG. 1).

ダイニング12の天井面12aには、ダイニング12における料理の調理状況を撮影する第2撮影手段としての第2カメラ32が設置されている。第2カメラ32は、例えばダイニング12で調理の仕上げが行われたり、個人の好みに応じて薬味や香辛料が加えられたりするなど、ダイニング12で調理の一部が行われることを踏まえて設置されるものである。第2カメラ32は、ダイニングテーブル26の上方に配置され、ダイニングテーブル26の天板26aを撮影するように撮影方向が下方に向けられている。第2カメラ32は、動画撮影が可能なカメラであり、天板26a上のどこで調理が行われても撮影できるように、天板26aの全体を含むように撮影範囲S2が設置されている(図1参照)。 On the ceiling surface 12a of the dining room 12, a second camera 32 is installed as a second photographing means for photographing the cooking state of the food in the dining room 12. The second camera 32 is installed based on the fact that a part of cooking is performed in the dining room 12, for example, the cooking is finished in the dining room 12, condiments and spices are added according to individual taste, and so on. It is a thing. The second camera 32 is arranged above the dining table 26, and the shooting direction is directed downward so as to shoot the top plate 26a of the dining table 26. The second camera 32 is a camera capable of shooting a moving image, and a shooting range S2 is installed so as to include the entire top plate 26a so that the second camera 32 can shoot anywhere on the top plate 26a when cooking is performed. See Figure 1).

第1カメラ31及び第2カメラ32はコントローラ35と電気的に接続されており、各カメラ31,32からは撮影内容に応じた画像信号がコントローラ35に対して出力される。 The first camera 31 and the second camera 32 are electrically connected to the controller 35, and each camera 31 and 32 outputs an image signal according to the shooting content to the controller 35.

コントローラ35は、CPU、ROM、RAM等からなる周知のマイクロコンピュータを含んで構成されている。コントローラ35には、食材、調味料及び料理の情報が予め登録された料理データベース36が設けられている。 The controller 35 includes a well-known microcomputer including a CPU, ROM, RAM, and the like. The controller 35 is provided with a cooking database 36 in which information on ingredients, seasonings and dishes is registered in advance.

ここで、料理データベース36の登録情報について図3を参照しつつ説明する。料理データベース36の登録情報には、食材情報36aと、調味料情報36bと、料理情報36cとが含まれている。 Here, the registration information of the cooking database 36 will be described with reference to FIG. The registered information of the cooking database 36 includes ingredient information 36a, seasoning information 36b, and cooking information 36c.

食材情報36aでは、食材の種類と対応付けて、その食材の画像情報と、その食材のカロリー情報と、その食材に含まれる栄養素を示す栄養素情報とが登録されている。このうちカロリー情報については、その食材の基準量(たとえばジャガイモであれば1個)当たりのカロリーを示すものとなっている。 In the food material information 36a, image information of the food material, calorie information of the food material, and nutrient information indicating nutrients contained in the food material are registered in association with the type of the food material. Of these, the calorie information indicates the calories per standard amount of the foodstuff (for example, one potato in the case of potatoes).

さらに食材情報36aでは、使用個数で量を特定することが一般的な食材(例えば野菜類)については、1個当たりの大きさを示す基準サイズ情報が登録されている。また、重さで量を特定することが一般的な食材(例えば肉類等)については、大きさから重さに変換するための変換用情報が登録されている。 Further, in the food material information 36a, reference size information indicating the size of each food material (for example, vegetables) whose amount is generally specified by the number of used food materials is registered. Further, for foodstuffs (for example, meat etc.) whose amount is generally specified by weight, conversion information for converting from size to weight is registered.

調味料情報36bでは、調味料の種類と対応付けて、その調味料の容器に付されている印の画像情報と、カロリー情報と、栄養素情報と、変換用情報とが登録されている。本実施の形態では、各調味料の容器に固有の印(識別情報)が付されており、上記印の画像情報はこれに対応したものとなっている。これは、例えばソースと醤油、塩と砂糖など、画像上での区別が困難な調味料があることに配慮したものである。また、調味料情報36bにおける変換用情報は、液状物であれば大きさを、粒状物であれば粒数を計量単位での使用量(例えば小さじ1など)に変換するための情報となっている。 In the seasoning information 36b, the image information of the mark attached to the container of the seasoning, the calorie information, the nutrient information, and the conversion information are registered in association with the type of the seasoning. In the present embodiment, a unique mark (identification information) is attached to each seasoning container, and the image information of the above mark corresponds to this. This takes into consideration that there are seasonings that are difficult to distinguish on the image, such as sauce and soy sauce, salt and sugar. Further, the conversion information in the seasoning information 36b is information for converting the size in the case of a liquid substance and the number of grains in the case of a granular substance into the amount used in the unit of measurement (for example, 1 teaspoon). There is.

料理情報36cでは、料理の種類と対応付けて、料理の画像情報と、レシピ情報と、カロリー情報と、栄養素情報とが登録されている。レシピ情報は、その料理の一般的なレシピを示すものであり、レシピ情報において各食材の使用量を示す情報は、例えば4人分に相当する量を示すものとなっている。また、カロリー情報は、レシピ情報のレシピ通りに作成した料理の1人分のカロリーを示すものであり、栄養素情報は、その料理に含まれる栄養素を示すものである。このうち、少なくともレシピ情報については、スマートフォンやPCなどの表示用端末40(図2参照)に表示可能となっており、レシピを見て料理を作ることが可能となっている。 In the food information 36c, image information of food, recipe information, calorie information, and nutrient information are registered in association with the type of food. The recipe information indicates a general recipe of the dish, and the information indicating the amount of each ingredient used in the recipe information indicates an amount corresponding to, for example, four people. Further, the calorie information indicates the calories for one person of the dish prepared according to the recipe of the recipe information, and the nutrient information indicates the nutrients contained in the dish. Of these, at least recipe information can be displayed on a display terminal 40 (see FIG. 2) such as a smartphone or a PC, and it is possible to cook by looking at the recipe.

図2に示すコントローラ35では、第1カメラ31及び第2カメラ32の撮影結果と、料理データベース36の登録情報とに基づいて、調理で使用された食材及び調味料の種別及び量や、調理された料理の種別等を判別する。また、第2カメラ32の撮影結果から、食事をした人の料理の摂取量を判別し、食材等の判別結果及び摂取量の判別結果に基づいて摂取カロリーや栄養素バランスを推定する。 In the controller 35 shown in FIG. 2, the types and amounts of ingredients and seasonings used in cooking and cooking are performed based on the shooting results of the first camera 31 and the second camera 32 and the registration information of the cooking database 36. Determine the type of food, etc. Further, the intake amount of the food of the person who ate is determined from the image taken by the second camera 32, and the calorie intake and the nutrient balance are estimated based on the determination result of the foodstuff and the like and the determination result of the intake amount.

これら推定した摂取カロリーや栄養バランスの情報は、コントローラ35に設けられた記憶部38に記憶される。記憶部38は不揮発性メモリによって構成されており、記憶部38に記憶された摂取カロリー等は、表示用端末40に表示することが可能となっている。また、記憶部38には、作った料理のデータ(調理履歴)が調理日から少なくとも一定期間(例えば1週間)に亘って記憶保持される。さらに、コントローラ35には、計時機能、時計機能及びカレンダ機能を有するタイマ部39が設けられている。 The estimated calorie intake and nutritional balance information is stored in the storage unit 38 provided in the controller 35. The storage unit 38 is composed of a non-volatile memory, and the calorie intake and the like stored in the storage unit 38 can be displayed on the display terminal 40. Further, the storage unit 38 stores the prepared food data (cooking history) for at least a certain period (for example, one week) from the cooking date. Further, the controller 35 is provided with a timer unit 39 having a timekeeping function, a clock function, and a calendar function.

また、図1及び図2に示すように、キッチン11には、キッチン11での人の存在する検知する第1人感センサ41が設置され、ダイニング12には、ダイニング12での人の存在を検知する第2人感センサ42が設置されている。これら各人感センサ41,42は、コントローラ35と電気的に接続されており、コントローラ35に対して検知信号を出力する。 Further, as shown in FIGS. 1 and 2, a first motion sensor 41 for detecting the presence of a person in the kitchen 11 is installed in the kitchen 11, and the presence of a person in the dining 12 is detected in the dining 12. A second motion sensor 42 for detecting is installed. Each of these motion sensors 41 and 42 is electrically connected to the controller 35 and outputs a detection signal to the controller 35.

次にコントローラ35によって実行される撮影処理について図4のフローチャートを参照して説明する。なお、本処理は所定の時間周期で実行される。 Next, the shooting process executed by the controller 35 will be described with reference to the flowchart of FIG. This process is executed in a predetermined time cycle.

撮影処理では先ず、ステップS101にて、各人感センサ41,42の検知信号に基づいてキッチン11又はダイニング12のいずれかで人の存在が検知されているか否かを判定する。人の存在が検知されていない場合には撮影処理を終了する。一方、人の存在が検知されている場合には、ステップS102にて、第1カメラ31によりキッチン11の画像を撮影するとともに、ステップS103にて、第2カメラ32によりダイニング12の画像を撮影する。なお、上記ステップS102,S103の処理は並行して実行され、各カメラ31,32による撮影処理はいずれも連続的に実行される。 In the photographing process, first, in step S101, it is determined whether or not the presence of a person is detected in either the kitchen 11 or the dining 12 based on the detection signals of the motion sensors 41 and 42. If the presence of a person is not detected, the shooting process is terminated. On the other hand, when the presence of a person is detected, the image of the kitchen 11 is taken by the first camera 31 in step S102, and the image of the dining 12 is taken by the second camera 32 in step S103. .. The processes of steps S102 and S103 are executed in parallel, and the shooting processes of the cameras 31 and 32 are all executed continuously.

続くステップS104では、第1カメラ31及び第2カメラ32により撮影された各画像を解析して特徴量(色や輪郭、明るさ)を抽出し、撮影画像に含まれる食材や調味料(容器の印)の画像を認識する。また、調理がある程度完成に近付いた段階では、撮影画像に含まれる料理の画像を認識する。 In the following step S104, each image taken by the first camera 31 and the second camera 32 is analyzed to extract the feature amount (color, contour, brightness), and the ingredients and seasonings (of the container) contained in the taken image are extracted. Mark) image is recognized. In addition, when cooking is nearing completion to some extent, the image of the dish included in the photographed image is recognized.

次いでステップS105にて、各人感センサ41,42の検知信号を参照し、キッチン11及びダイニング12の両方で人の存在が検知されない状態であるか否かを判定する。すなわち、キッチン11又はダイニング12に存在した人がキッチン11等から退出したか否かを判定する。人の存在が検知されている場合、すなわち、人が居続けている場合には、ステップS102に戻り、ステップS102~ステップS104の処理を繰り返す。 Next, in step S105, the detection signals of the motion sensors 41 and 42 are referred to, and it is determined whether or not the presence of a person is not detected in both the kitchen 11 and the dining room 12. That is, it is determined whether or not the person who was present in the kitchen 11 or the dining 12 has left the kitchen 11 or the like. When the presence of a person is detected, that is, when the person remains present, the process returns to step S102 and the processes of steps S102 to S104 are repeated.

一方、人の存在が検知されていない場合、すなわち、人がキッチン11等から退出した場合には、ステップS106にて、第1カメラ31及び第2カメラ32による撮影を停止し、その後、撮影処理を終了する。 On the other hand, when the presence of a person is not detected, that is, when the person leaves the kitchen 11 or the like, the shooting by the first camera 31 and the second camera 32 is stopped in step S106, and then the shooting process is performed. To finish.

次に、コントローラ35によって実行される調理内容判別処理について図5及び図6を参照して説明する。図5は調理内容判別処理を示すフローチャート、図6は判別された食材等のデータを示す概略図である。なお、本処理は所定の時間周期で実行される。 Next, the cooking content determination process executed by the controller 35 will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart showing the cooking content discriminating process, and FIG. 6 is a schematic diagram showing data of the discriminated ingredients and the like. This process is executed in a predetermined time cycle.

調理内容判別処理は、調理で使用した食材及び調味料の種別及び量を判別するとともに、作った料理の種別、作成量、提供量を判別し、さらにそのカロリー等を推定するものである。ここでは、料理としてカレーライス及びサラダを作る場合を例にとって説明する。 In the cooking content discrimination process, the type and amount of the ingredients and seasonings used in cooking are discriminated, the type of cooked dish, the amount to be prepared, and the amount to be provided are discriminated, and the calories and the like are estimated. Here, the case of making curry rice and salad as a dish will be described as an example.

図5に示すように、調理内容判別処理では、ステップS201にて、図4の撮影処理におけるステップS104で食材や調味料の画像が認識されたか否かを判定する。食材等の画像が認識されている場合にはステップS202に進み、撮影された食材等と、料理データベース36の食材情報36aや調味料情報36bに登録された画像情報とを照合し、食材等の種別を判別する。食材等の判別結果はコントローラ35のRAMに記憶される。 As shown in FIG. 5, in the cooking content determination process, in step S201, it is determined whether or not the image of the foodstuff or the seasoning is recognized in step S104 in the photographing process of FIG. If the image of the foodstuff or the like is recognized, the process proceeds to step S202, and the photographed foodstuff or the like is collated with the image information registered in the foodstuff information 36a or the seasoning information 36b of the cooking database 36 to check the foodstuff or the like. Determine the type. The determination result of the foodstuff or the like is stored in the RAM of the controller 35.

続くステップS203では、上記ステップS104の画像認識結果に基づいて食材及び調味料の使用量を判別する。この際、野菜類等の場合は使用個数(例えば1/2個や1個など)を判別し、肉類等の場合は使用重量(例えば100gなど)を判別し、調味料の場合は使用量(例えば小さじ1など)を判別する。使用個数、使用重量及び使用量の各判別は、例えば次のようにして行う。 In the following step S203, the amount of ingredients and seasonings used is determined based on the image recognition result of step S104. At this time, in the case of vegetables, etc., the number of pieces used (for example, 1/2 piece, 1 piece, etc.) is determined, in the case of meat, etc., the weight used (for example, 100 g, etc.) is determined, and in the case of seasonings, the amount used (for example, 100 g) is determined. For example, 1 teaspoon) is determined. The number of pieces used, the weight used, and the amount used are determined as follows, for example.

先ず、撮影画像における食材画像の画素数を把握するとともに、予め寸法が特定されている基準物(例えば、カウンタ25上に置かれるまな板や、ダイニングテーブル26の一辺)の画像の画素数を把握する。次に、基準物画像の画素数から1画素当たりの実寸(基準となる寸法)を特定し、それに食材画像の画素数を乗算して食材の寸法を導出する。これを撮影画像の縦方向及び横方向のそれぞれに行って食材の縦寸法及び横寸法を導出し、その結果から食材の大きさ(面積)を導出する。 First, the number of pixels of the food material image in the captured image is grasped, and the number of pixels of the image of the reference object (for example, a cutting board placed on the counter 25 or one side of the dining table 26) whose dimensions are specified in advance is grasped. .. Next, the actual size (reference dimension) per pixel is specified from the number of pixels of the reference object image, and the actual size (reference dimension) is multiplied by the number of pixels of the food material image to derive the size of the food material. This is performed in each of the vertical and horizontal directions of the captured image to derive the vertical and horizontal dimensions of the foodstuff, and the size (area) of the foodstuff is derived from the result.

そして、食材が野菜類等の場合は、導出した大きさと、料理データベース36の食材情報36aに登録された基準サイズ情報(図3)とを比較し、使用個数を導出する。例えば、撮影画像から認識される食材の個数が1個である場合に、その食材の大きさが基準サイズ情報により示される大きさの1/2程度である場合には、使用個数を1/2個とする。 Then, when the food material is vegetables or the like, the derived size is compared with the reference size information (FIG. 3) registered in the food material information 36a of the cooking database 36, and the number of used pieces is derived. For example, when the number of ingredients recognized from the captured image is one, and the size of the ingredients is about ½ of the size indicated by the reference size information, the number of ingredients used is halved. It shall be an individual.

食材が肉類等の場合は、食材情報36aに登録された変換用情報(図3)を用い、上記導出した大きさから使用重量を導出する。変換用情報には、単位面積(例えば1平方センチメートル)当たりの食材の重量(g)が規定されており、使用重量の導出にあたっては、変換用情報に規定された重量に対して食材の大きさを乗算することで、食材1個当たりの重量を得る。 When the food material is meat or the like, the conversion information (FIG. 3) registered in the food material information 36a is used to derive the weight to be used from the above-derived size. The conversion information defines the weight (g) of the foodstuff per unit area (for example, 1 square centimeter), and when deriving the weight to be used, the size of the foodstuff is specified with respect to the weight specified in the conversion information. By multiplying, the weight per ingredient is obtained.

液状調味料の場合は、調味料情報36bの変換用情報(図3)を用い、導出した大きさから使用量を導出し、粒状調味料の場合は、上記変換用情報を用いて粒数から使用量を導出する。なお、調味料を計量スプーン等の計量器で計って使用している場合は、その計量器の大きさと計量器への調味料の投入量(例えば計量器の1/2程度など)とから使用量を導出してもよい。 In the case of liquid seasoning, the conversion information (FIG. 3) of seasoning information 36b is used to derive the usage amount from the derived size, and in the case of granular seasoning, the above conversion information is used to derive the usage amount from the number of grains. Derive the usage. If the seasoning is measured and used with a measuring spoon or other measuring instrument, use it based on the size of the measuring instrument and the amount of seasoning charged into the measuring instrument (for example, about 1/2 of the measuring instrument). The quantity may be derived.

上記のようにして判別した食材等の使用量は、食材等の種類と対応付けてコントローラ35のRAMに記憶される。 The usage amount of the foodstuff or the like determined as described above is stored in the RAM of the controller 35 in association with the type of the foodstuff or the like.

ステップS203の実行後又は上記ステップS201で否定判定した場合には、ステップS204にて、図4の撮影処理におけるステップS104で料理の画像が認識されたか否かを判定する。料理の画像が認識されている場合には、ステップS205にて、撮影された料理と、料理データベース36の料理情報36cに登録された画像情報とを照合し、料理の種別を判別する。 After the execution of step S203 or when a negative determination is made in step S201, it is determined in step S204 whether or not the food image is recognized in step S104 in the photographing process of FIG. When the image of the dish is recognized, in step S205, the photographed dish is collated with the image information registered in the dish information 36c of the dish database 36, and the type of the dish is determined.

続くステップS206では、上記ステップS205において判別された料理が調理済みの料理であるか否かを判定する。調理済みの料理でないと判定した場合には、ステップS207に進み、料理の作成量を判別する。本ステップでは、撮影画像から判別した各食材の使用量と、料理データベース36における料理情報36cのレシピ情報に含まれる各食材の分量とを比較し、凡そ何人分の料理を作成したのかを判別する。なお、料理作成量の判別は、調理で使用した全ての食材を対象として量比較を行うのではなく、各家庭で使用量にばらつきが少ないと想定される食材(例えばカレーライスの場合はカレールーや水の分量)を対象とした量比較に基づいて行うとよい。また、料理に使用した調理器具(鍋など)の大きさから料理の作成量を判別してもよい。 In the following step S206, it is determined whether or not the dish determined in step S205 is a cooked dish. If it is determined that the dish is not cooked, the process proceeds to step S207 to determine the amount of dish to be prepared. In this step, the amount of each ingredient used determined from the photographed image is compared with the amount of each ingredient included in the recipe information of the cooking information 36c in the cooking database 36, and it is determined how many dishes are prepared. .. In addition, the amount of food prepared is not determined by comparing the amount of all the ingredients used in cooking, but the ingredients that are expected to have little variation in the amount used in each household (for example, curry roux in the case of curry rice). It is better to do it based on the amount comparison for the amount of water). In addition, the amount of food prepared may be determined from the size of the cooking utensil (pot, etc.) used for cooking.

続くステップS208では、食器に盛り付けられた料理の量、すなわち料理の提供量(配膳量)を判別する。本判別は、例えば、食器の大きさと食器に対する料理の割合とに基づいて行う。具体的には先ず、上記ステップS203と同様の方法により、料理が盛り付けられている皿等の食器の大きさを判別し、何人分用の食器であるかを特定する。そして、画像上、食器において料理が占める割合を求め、その結果から料理の量が何人分に相当するかを推定する。例えば、1人分用の大きさの食器において料理の占める割合が一定程度(例えば7割程度)あれば1人分として推定し、その半分程度であれば1/2人分と推定する。なお、本処理は、料理が食器に盛り付けられていない場合にはスキップする。 In the following step S208, the amount of food served on the tableware, that is, the amount of food served (serving amount) is determined. This determination is made based on, for example, the size of the tableware and the ratio of the dish to the tableware. Specifically, first, by the same method as in step S203, the size of the tableware such as the plate on which the dish is served is determined, and the number of tableware for the number of people is specified. Then, on the image, the proportion of food in the tableware is obtained, and from the result, the amount of food is estimated for how many people. For example, if the proportion of food in a tableware of a size for one person is a certain amount (for example, about 70%), it is estimated as one person, and if it is about half of that, it is estimated as 1/2 person. This process is skipped if the dish is not served on the tableware.

ステップS208の実行後又はステップS204で否定判定した場合には、ステップS209にて、調理が終了したか否かを判定する。本ステップでは、例えばカメラ31,32の撮影結果から、料理がダイニングテーブル26に持ち運ばれた後、料理に手が加えられず、そのまま所定期間放置されている否かを判定する。そして、放置されていると判定した場合に、調理が終了したとみなす。 After the execution of step S208 or when a negative determination is made in step S204, it is determined in step S209 whether or not cooking is completed. In this step, for example, from the shooting results of the cameras 31 and 32, it is determined whether or not the food has been left untouched for a predetermined period after being carried to the dining table 26. Then, when it is determined that the food has been left unattended, it is considered that cooking has been completed.

上記判定の結果、調理が終了していない場合には、ステップS201に戻り、以後、調理が終了するまでステップS201~S208の処理を繰り返す。このうちステップS201~S203の繰り返しにより、図6に示すように、コントローラ35のRAMには使用食材の情報が蓄積されていく。すなわち、調理において新たな食材が使用される都度、その食材の種類が使用量とともに順次記憶されていく。 As a result of the above determination, if cooking is not completed, the process returns to step S201, and thereafter, the processes of steps S201 to S208 are repeated until cooking is completed. Of these, by repeating steps S201 to S203, as shown in FIG. 6, information on the ingredients used is accumulated in the RAM of the controller 35. That is, each time a new ingredient is used in cooking, the type of the ingredient is sequentially memorized together with the amount used.

ここで、本実施の形態では、キッチン11を撮影した画像とダイニング12を撮影した画像との両方から、調理で使用された食材及び調味料の種別及び量を判別している。このため、キッチン11で調理の一部を行い、ダイニング12で調理の残りの部分を行った場合であっても、調理に使用された食材や調味料を漏れなく把握することができる。よって、例えば食器に盛り付けられた後のカレーライスに対して、ダイニング12でゆで卵やりんごなどのトッピングを追加した場合でも、それらの追加食材等の種別や使用量を適切に把握することができる(図6参照)。 Here, in the present embodiment, the type and amount of the ingredients and seasonings used in cooking are determined from both the image of the kitchen 11 and the image of the dining 12. Therefore, even when a part of cooking is performed in the kitchen 11 and the rest of the cooking is performed in the dining room 12, the ingredients and seasonings used for cooking can be grasped without omission. Therefore, for example, even when toppings such as boiled eggs and apples are added to the curry rice after being served on the tableware, the types and amounts of those additional ingredients can be appropriately grasped. (See FIG. 6).

一方、調理が終了している場合には、ステップS210に進み、使用食材やその使用量に応じて、作成された料理のカロリー等を補正する補正処理を実行する。本処理は、同じ種類の料理であっても、家庭ごとに使用食材等の種類や使用量が異なることに配慮したものである。ここで、補正処理について図7を参照しつつ説明する。 On the other hand, when cooking is completed, the process proceeds to step S210, and a correction process for correcting the calories and the like of the prepared dish is executed according to the ingredients used and the amount used thereof. This treatment takes into consideration that the types and amounts of ingredients used differ from household to household, even for the same type of food. Here, the correction process will be described with reference to FIG. 7.

補正処理では先ず、作成された料理を対象とし、1人分に相当する各食材及び各調味料の使用量を導出する。具体的には、調理中に使用した各食材等の使用量を、ステップS207で判別した料理の作成量で除算する。例えば図6に示すように、調理において400gの豚角切り肉を使用している場合において、ステップS207で料理作成量を4人分と判別している場合には、図7の「調理実績」欄のように、豚角切り肉の使用量として100gを導出する。 In the correction process, first, the prepared food is targeted, and the amount of each ingredient and each seasoning corresponding to one person is derived. Specifically, the amount of each ingredient used during cooking is divided by the amount of food prepared in step S207. For example, as shown in FIG. 6, when 400 g of pork diced meat is used for cooking and the cooking amount is determined to be for 4 people in step S207, the “cooking record” of FIG. As shown in the column, 100 g is derived as the amount of pork diced meat used.

そして、導出した各食材及び各調味料の使用量を、料理データベース36のレシピ情報に規定される各食材及び各調味料の使用量(1人分の使用量。図7の「レシピ情報」欄を参照)と比較し、その差異部分を把握する。図7に示すカレーライスの例では、差異部分として、「豚角切り肉をレシピよりも50g多く使用」などの使用量に関する差異や、「レシピにはないライスやゆで卵、りんごを使用」などの使用食材に関する差異が把握される。 Then, the amount of each ingredient and each seasoning derived is used as the amount of each ingredient and each seasoning specified in the recipe information of the cooking database 36 (the amount used for one person. The “recipe information” column in FIG. 7). To understand the difference. In the example of curry rice shown in FIG. 7, as the difference part, there is a difference regarding the amount of use such as "use 50 g more pork diced meat than the recipe" and "use rice, boiled egg and apple which are not in the recipe". The difference in the ingredients used in is grasped.

その後、差異部分における食材及び調味料のカロリー及び栄養素を、料理データベース36の食材情報36aや調味料情報36bに基づいて導出する。例えば豚角切り肉の場合であれば、料理データベース36の食材情報36aに登録された豚角切り肉のカロリー情報(図3)を参照し、50g分のカロリー(AAkcal)を導出する(図7の「補正カロリー」欄を参照)。 After that, the calories and nutrients of the ingredients and the seasonings in the difference portion are derived based on the ingredients information 36a and the seasonings information 36b of the cooking database 36. For example, in the case of pork diced meat, 50 g of calories (AAkcal) are derived by referring to the calorie information (FIG. 3) of the pork diced meat registered in the food material information 36a of the cooking database 36 (FIG. 7). See the "Corrected Calories" column).

最後に、料理データベース36の料理情報36cから、その料理のカロリー(1人分のカロリー)及び栄養素を読み出すとともに、読み出したカロリー等に対して差異部分を補正(差異部分のカロリー及び栄養素を増減)する。これにより、提供された料理のカロリー及び栄養素を推定する。 Finally, the calories (calories for one person) and nutrients of the dish are read from the cooking information 36c of the cooking database 36, and the difference portion is corrected for the read calories and the like (the calories and nutrients of the difference portion are increased or decreased). do. This estimates the calories and nutrients of the food served.

上記補正処理は、種類が判別された料理、すなわち作成された料理ごとに行う。よって、カレーライスとサラダとを作成した場合には、図7に示すように、それらについて各別に補正処理を行い、それぞれカロリー及び栄養素を推定する。 The above correction process is performed for each dish whose type has been determined, that is, for each prepared dish. Therefore, when curry rice and salad are prepared, as shown in FIG. 7, correction processing is performed for each of them, and calories and nutrients are estimated respectively.

図5の調理内容判別処理の説明に戻り、上記補正処理を実行した後は、ステップS211にて、調理履歴を記憶部38に記憶する。調理履歴には、作った料理の種別、その料理における1人分のカロリー及び栄養素の情報が含まれている。調理履歴は、調理日から一定期間に亘って記憶保持され、その後、消去される。ステップS211の実行後は調理内容判別処理を終了する。 Returning to the description of the cooking content determination process of FIG. 5, after executing the above correction process, the cooking history is stored in the storage unit 38 in step S211. The cooking history contains information on the type of dish made, the calories and nutrients for one person in that dish. The cooking history is stored for a certain period from the cooking date, and then deleted. After the execution of step S211 the cooking content determination process is terminated.

なお、トッピングや調味料の追加は、食事前に限らず、食事中に行われる場合もある。このような食事をしながらの追加(食材等の種類や使用量の変更)が行われた場合には、上記ステップS201~ステップS203にて、それら追加食材等の種別及び量を判別し、その後のステップS206において調理済みの料理であると判定する。そして、調理済みの料理であると判定した場合には、ステップS210に進み補正処理を実行する。これにより、食事中に追加された食材等を反映させたカロリー及び栄養素が得られる。 In addition, toppings and seasonings may be added not only before meals but also during meals. When such additions (changes in the types and amounts of ingredients and the like) are made while eating, the types and amounts of the additional ingredients and the like are determined in steps S201 to S203 above, and then. In step S206 of the above, it is determined that the dish has been cooked. Then, if it is determined that the dish has been cooked, the process proceeds to step S210 to execute the correction process. As a result, calories and nutrients that reflect the ingredients added during the meal can be obtained.

次に、コントローラ35によって実行される摂取内容判別処理について図8のフローチャートを参照して説明する。本処理は所定の時間周期で実行される。 Next, the intake content determination process executed by the controller 35 will be described with reference to the flowchart of FIG. This process is executed in a predetermined time cycle.

摂取内容判別処理は、料理の摂取量を判別し、食事をした人が摂取したカロリー及び栄養素を推定するものである。摂取内容判別では先ずステップS301にて、図4の撮影処理におけるステップS104で料理の画像が認識されたか否かを判定する。料理の画像が認識されている場合にはステップS302に進み、撮影された料理と、料理データベース36の料理情報36cに登録された画像情報とを照合し、料理の種別を判別する。 The intake content determination process determines the amount of food intake and estimates the calories and nutrients ingested by the person who ate the meal. In the intake content determination, first, in step S301, it is determined whether or not the food image is recognized in step S104 in the photographing process of FIG. If the image of the dish is recognized, the process proceeds to step S302, and the photographed dish is collated with the image information registered in the dish information 36c of the dish database 36 to determine the type of dish.

次にステップS303にて、判別した料理が今回の調理によって作成された料理であるか否かを判定する。具体的には、記憶部38に記憶された最新の調理履歴を参照し、当該調理履歴により示される料理の種別と、上記ステップS302で判別した料理の種別とが一致するか否かを判定する。 Next, in step S303, it is determined whether or not the determined dish is the dish created by this cooking. Specifically, the latest cooking history stored in the storage unit 38 is referred to, and it is determined whether or not the type of the dish indicated by the cooking history matches the type of the dish determined in step S302. ..

判別した料理と調理履歴の料理との種別が一致しない場合、すなわち、判別した料理が今回の調理による料理ではない場合には、ステップS304に進み、作り置き用処理を実行する。この処理は、作り置きされた料理や食べ残された料理を食べる場合を踏まえたものである。ここで、作り置き用処理について図9のフローチャートを参照して説明する。 If the types of the determined dish and the dish in the cooking history do not match, that is, if the determined dish is not the dish produced by the current cooking, the process proceeds to step S304 to execute the pre-preparation process. This process is based on the case of eating prepared dishes and leftover dishes. Here, the pre-preparation process will be described with reference to the flowchart of FIG.

作り置き用処理では先ずステップS401にて、図8のステップS302で判別した料理を過去一定期間内に作成した料理と比較する。具体的には、記憶部38に記憶された全ての調理履歴を参照し、判別した料理の種別と一致する調理履歴が存在するか否かを判定する。既に述べたように、調理履歴は調理日から一定期間が経過すると記憶部38から消去されるため、本ステップは、撮影された料理が過去一定期間内に作られたものであるか否かを判定するものとなる。 In the pre-preparation process, first, in step S401, the dish determined in step S302 of FIG. 8 is compared with the dish prepared within a certain period in the past. Specifically, all the cooking histories stored in the storage unit 38 are referred to, and it is determined whether or not there is a cooking history that matches the type of the determined dish. As already mentioned, the cooking history is deleted from the storage unit 38 after a certain period of time has passed from the cooking date, so this step determines whether or not the photographed dish was prepared within a certain period of time in the past. It will be judged.

上記判定の結果、撮影された料理の種別と一致する調理履歴が存在した場合には(ステップS402のYES)、ステップS403にて、その調理履歴(過去の料理データ)からカロリー及び栄養素の情報を取得し、撮影された料理のカロリー及び栄養素とする。すなわち、撮影された料理には、調理履歴の料理と同種の食材及び調味料が同量使用されているものとして、撮影された料理の調理内容を判別する。一方、撮影された料理の種別と一致する調理履歴が存在しなかった場合には(ステップS402のNO)、ステップS404にて、撮影された料理と同じ種類の料理のカロリー及び栄養素を料理データベース36の料理情報36c(図3)から取得する。 As a result of the above determination, if there is a cooking history that matches the type of dish taken (YES in step S402), in step S403, information on calories and nutrients is obtained from the cooking history (past cooking data). Obtained and used as the calories and nutrients of the photographed dish. That is, it is assumed that the same kind of ingredients and seasonings as the dishes in the cooking history are used in the photographed dishes, and the cooking contents of the photographed dishes are determined. On the other hand, if there is no cooking history that matches the type of the photographed dish (NO in step S402), in step S404, the calories and nutrients of the same type of dish as the photographed dish are stored in the cooking database 36. It is obtained from the cooking information 36c (FIG. 3) of.

ステップS403又はステップS404の実行後は、ステップS405にて、撮影された料理の提供量を判別し、その後、作り置き用処理を終了する。ステップS405の処理は、図5のステップS208における料理提供量の判別と同様の方法にて行う。 After the execution of step S403 or step S404, in step S405, the serving amount of the photographed dish is determined, and then the pre-preparation process is terminated. The process of step S405 is performed in the same manner as the determination of the serving amount of food in step S208 of FIG.

図8の摂取内容判別処理の説明に戻り、ステップS304の実行後又はステップS303で肯定判定した場合(撮影された料理が今回の調理による料理であった場合)には、ステップS305にて料理の摂取量を判別する。料理の摂取量は、料理の提供量と料理の残量とに基づいて判別する。具体的には先ず、撮影結果から食器の大きさを判別するとともに、画像上、食器において料理が占める割合を判別する。そして、食器の大きさと料理の割合とから料理の残量を判別し、これを料理の提供量から減算して摂取量を導出する。例えば料理の残量が1/4人分であり、提供量が1/2人分である場合は、摂取量として1/4人分を導出する。なお、料理の提供量は、撮影された料理が今回の調理による料理である場合には、図5のステップS208にて判別した提供量を用い、今回調理した料理でない場合には、図9のステップS405にて判別した提供量を用いる。 Returning to the explanation of the intake content discrimination process of FIG. 8, when the affirmative judgment is made after the execution of step S304 or in step S303 (when the photographed dish is the dish produced by this cooking), the dish is cooked in step S305. Determine the intake. The intake of food is determined based on the amount of food provided and the remaining amount of food. Specifically, first, the size of the tableware is determined from the shooting result, and the proportion of the dish in the tableware is determined on the image. Then, the remaining amount of the dish is determined from the size of the tableware and the ratio of the dish, and this is subtracted from the amount of the dish provided to derive the intake amount. For example, when the remaining amount of food is 1/4 serving and the serving amount is 1/2 serving, the intake amount for 1/4 serving is derived. As the serving amount of the dish, if the photographed dish is the dish prepared by this cooking, the serving amount determined in step S208 of FIG. 5 is used, and if it is not the dish cooked this time, the serving amount of FIG. 9 is shown. The provided amount determined in step S405 is used.

続くステップS306では、料理のカロリーと料理の摂取量とに基づいて、食事をした人の摂取カロリーを推定する。摂取カロリーは、撮影された料理が今回の調理による料理である場合には、図5のステップS210で導出したカロリー(1人分の料理のカロリー)に対して上記ステップS305で判別した摂取量を乗算し、今回調理した料理でない場合には、図9のステップS403又はステップS404で取得したカロリー(1人分の料理のカロリー)に対して上記摂取量を乗算することで、導出する。 In the following step S306, the calorie intake of the person who ate is estimated based on the calorie of the dish and the intake of the dish. The calorie intake is the calorie intake determined in step S305 with respect to the calorie derived in step S210 of FIG. 5 (calorie of the dish for one person) when the photographed dish is the dish prepared this time. If it is not the dish cooked this time, it is derived by multiplying the calories acquired in step S403 or step S404 of FIG. 9 (calories of the dish for one person) by the above intake amount.

続くステップS307では、摂取した料理の栄養バランスを推定する。撮影された料理が今回の調理による料理である場合には、図5のステップS210にて導出した栄養素を参照し、今回調理した料理でない場合には、図9のステップS403又はステップS404で取得した栄養素を参照して、各栄養素の摂取有無や摂取比率を導出し、例えばビタミンが不足するなどの栄養バランスを推定する。 In the following step S307, the nutritional balance of the ingested food is estimated. If the photographed dish is a dish prepared by this cooking, the nutrients derived in step S210 of FIG. 5 are referred to, and if the dish is not the dish cooked this time, it was acquired in step S403 or step S404 of FIG. With reference to nutrients, the presence or absence of intake and the intake ratio of each nutrient are derived, and the nutritional balance such as vitamin deficiency is estimated.

ステップS307の実行後又はステップS301で否定判定した場合(料理の画像を認識していない場合)には、ステップS308にて食事が終了したか否かを判定する。本ステップでは、第2カメラ32の撮影結果からダイニング12での人の動きを認識し、その結果に基づいて食事が終了したか否かを判定する。 After the execution of step S307 or when a negative determination is made in step S301 (when the image of the dish is not recognized), it is determined in step S308 whether or not the meal is completed. In this step, the movement of a person in the dining room 12 is recognized from the shooting result of the second camera 32, and it is determined whether or not the meal is finished based on the result.

食事が終了していない場合にはステップS301に戻り、以後、食事が終了するまでステップS301~S307の処理を繰り返す。これに対し、食事が終了している場合には、ステップS309にて、上記ステップS306で推定した摂取カロリーと、上記ステップS307で推定した栄養バランスとを、摂取した料理の種別や日時とともに記憶部38に記憶する。これにより、記憶部38に摂取カロリー等の情報が蓄積される。記憶部38に記憶(蓄積)された摂取カロリー等の情報は、既に説明したように、表示用端末40(図2参照)を用いて閲覧することが可能となっている。ステップS309の実行後、摂取内容判別処理を終了する。 If the meal is not completed, the process returns to step S301, and thereafter, the processes of steps S301 to S307 are repeated until the meal is completed. On the other hand, when the meal is completed, in step S309, the calorie intake estimated in step S306 and the nutritional balance estimated in step S307 are stored in the storage unit together with the type and date and time of the ingested dish. Remember in 38. As a result, information such as calorie intake is accumulated in the storage unit 38. Information such as calorie intake stored (stored) in the storage unit 38 can be viewed using the display terminal 40 (see FIG. 2) as described above. After the execution of step S309, the intake content determination process is terminated.

以上詳述した本実施の形態によれば、以下の優れた効果を奏する。 According to the present embodiment described in detail above, the following excellent effects are obtained.

・料理の調理状況を撮影し、その撮影結果から調理内容を判別する構成とした。これにより、完成した料理からは把握困難な食材が使用されている場合でも、使用食材を適切に把握することができる。しかも、キッチン11用の第1カメラ31と、ダイニング12用の第2カメラ32とを設け、各カメラ31,32により料理の調理状況を撮影する構成とした。これにより、キッチン11で調理の一部を行い、ダイニング12で調理の残りの部分を行った場合であっても、調理内容を精度よく自動的に把握することができる。 ・ The cooking situation of the dish was photographed, and the cooking content was determined from the photographed result. As a result, even if ingredients that are difficult to grasp from the finished dish are used, the ingredients used can be appropriately grasped. Moreover, a first camera 31 for the kitchen 11 and a second camera 32 for the dining 12 are provided, and the cooking situation of the dish is photographed by the respective cameras 31 and 32. As a result, even when a part of cooking is performed in the kitchen 11 and the rest of the cooking is performed in the dining room 12, the cooking contents can be accurately and automatically grasped.

・撮影結果から食材だけでなく、調味料の種別及び量も判別する構成とした。このため、調理内容として、キッチン11及びダイニング12における食材に加え、調味料も把握することができる。その結果、例えばキッチン11で一旦完成した料理に対し、ダイニング12で薬味や香辛料を追加したような場合であっても、食事に供される料理に使用された食材及び調味料の種別及び量を精度よく自動的に把握することが可能になる。 -The structure is such that not only the ingredients but also the type and amount of seasonings are determined from the shooting results. Therefore, as the cooking content, in addition to the ingredients in the kitchen 11 and the dining 12, the seasoning can be grasped. As a result, for example, even when condiments and spices are added in the dining room 12 to the dish once completed in the kitchen 11, the types and amounts of the ingredients and seasonings used in the dishes served in the meal can be determined. It will be possible to grasp accurately and automatically.

・料理データベース36に登録されている料理と、各カメラ31,32で撮影された料理とを比較することで、使用されている食材及び調味料の差異部分を把握するとともに、料理データベース36に登録されているカロリー及び栄養素に対して差異部分に応じた補正を行い、撮影された料理のカロリー及び栄養素を判別する構成とした。 -By comparing the dishes registered in the cooking database 36 with the dishes taken by the cameras 31 and 32, the differences in the ingredients and seasonings used can be grasped and registered in the cooking database 36. The calories and nutrients that have been taken are corrected according to the difference, and the calories and nutrients of the photographed dish are discriminated.

各料理の一般的なカロリー及び栄養素を予め料理データベース36に登録しておくことで、撮影された料理の種類さえ判別できれば、その料理のカロリー等を簡単に導出することが可能になる。その反面、家庭ごとに異なる使用食材等が反映されないものとなり、正確性の面で劣るおそれがある。この点、本構成では、登録された料理と撮影された料理との差異部分に応じてカロリー等が補正されるため、各家庭の調理内容が反映されたカロリー等を得ることができる。つまり、料理データベース36の利点を活用しつつ当該データベース36の欠点を補うことができる。 By registering the general calories and nutrients of each dish in the cooking database 36 in advance, it is possible to easily derive the calories and the like of the dish as long as the type of the photographed dish can be identified. On the other hand, the ingredients used that differ from household to household are not reflected, and there is a risk of inferior accuracy. In this respect, in this configuration, the calories and the like are corrected according to the difference between the registered dish and the photographed dish, so that the calories and the like reflecting the cooking contents of each household can be obtained. That is, it is possible to make up for the shortcomings of the database 36 while utilizing the advantages of the cooking database 36.

・カメラ31,32により撮影された画像に基づき、基準となる寸法を特定し、その寸法に基づいて、撮影された食材の寸法を特定する構成とした。これにより、調理に使用された食材の大きさを撮影画像から特定することができ、延いては食材の量を特定することが可能になる。なお、基準寸法となるものは、ダイニングテーブル26の寸法やまな板の寸法のほか、予め設置しておく物差し、シール及び印刷等の寸法とすることができ、特に限定されるものではない。 -Based on the images taken by the cameras 31 and 32, the reference dimensions are specified, and the dimensions of the photographed foodstuff are specified based on the dimensions. As a result, the size of the foodstuff used for cooking can be specified from the photographed image, and the amount of the foodstuff can be specified. In addition to the dimensions of the dining table 26 and the cutting board, the standard dimensions can be the dimensions of a ruler, a seal, printing, etc. that are installed in advance, and are not particularly limited.

・作成した料理のデータを記憶部38に少なくとも一定期間記憶しておき、撮影された料理が今回の調理によって作られた料理でない場合に、記憶部38に記憶されている以前調理された料理であるか否かを判定し、以前調理された料理である場合には、その料理のデータに基づいて、撮影された料理の調理内容を判別する構成とした。 -The data of the created dish is stored in the storage unit 38 for at least a certain period of time, and if the photographed dish is not the dish made by this cooking, the previously cooked dish stored in the storage unit 38 is used. It is determined whether or not there is a dish, and if it is a previously cooked dish, the cooking content of the photographed dish is determined based on the data of the dish.

家庭では、料理を作り置きしておく場合や、残った料理を冷蔵庫等に保存して再度食事に利用することがある。これら作り置きや食べ残しの料理を食する場合、食事の直前に調理の工程が発生しないため、食材判別の機会がなく、カロリー算出等を適切に行えないおそれが生じる。この点、本構成では、以前調理された料理のデータから調理内容を判別するため、作り置きや食べ残しの料理を食する場合にもカロリー等を適切に算出することが可能となる。 At home, there are cases where food is prepared and stored, or the remaining food is stored in a refrigerator or the like and used again for meals. When eating these pre-prepared or leftover dishes, the cooking process does not occur immediately before the meal, so there is no opportunity to discriminate the ingredients, and there is a risk that calorie calculation and the like cannot be performed properly. In this respect, in this configuration, since the cooking content is determined from the data of the previously cooked food, it is possible to appropriately calculate the calories and the like even when eating the prepared food or the leftover food.

この場合において、本実施の形態では上記一定期間を1週間とし、撮影された料理と同じ種類の料理が過去1週間以内に作成されている場合に、その料理の調理内容を撮影された料理の調理内容として利用する構成としている。このように参照期間を比較的に短い1週間に制限することで、撮影された料理と以前調理された料理との種類が一致した場合に、それらの料理が同じ調理工程で作成された料理である可能性が高まる。よって、作り置きや食べ残しの料理の調理内容を精度よく判別することが可能になる。 In this case, in the present embodiment, the above-mentioned fixed period is set to one week, and when a dish of the same type as the photographed dish is prepared within the past one week, the cooking content of the dish is photographed. It is configured to be used as cooking content. By limiting the reference period to a relatively short week in this way, if the types of dishes taken and those previously cooked match, those dishes will be prepared in the same cooking process. There is a higher possibility. Therefore, it is possible to accurately determine the cooking contents of the prepared and leftover dishes.

・ダイニング12の撮影画像から料理の摂取量を判別し、摂取量及び調理内容の各判別結果に基づいて、食事をした人の摂取カロリー及び栄養バランスを推定する構成とした。 -The composition was such that the intake amount of food was discriminated from the photographed image of the dining 12, and the calorie intake and nutritional balance of the person who ate the meal were estimated based on the discrimination results of the intake amount and the cooking content.

この構成によれば、判別された調理内容と、その調理により提供される料理の摂取状況とから、食事をした人の摂取カロリー及び栄養バランスが推定される。この推定結果を利用すれば、1食分の食事についてカロリーオーバーであることや栄養バランスが崩れていることなど、家庭における食事による各種の状況を得ることができる。また、上記摂取カロリー及び栄養バランスを蓄積することができ、これを活用してカロリーの取得状況や栄養バランスの状態を診断したり、さらには、その診断結果の報知又は診断結果を踏まえた報知(例えば「高カロリーの食事が多いのでカロリーの摂取量を抑えましょう」や、「ビタミンが不足がちなので野菜や果物を多く摂りましょう」などのアドバイス)を行ったりすることができる。これにより、日々の健康管理に役立つ情報を提供することが可能になる。ちなみに報知は定期的に行うとよい。 According to this configuration, the calorie intake and nutritional balance of the person who ate the meal are estimated from the determined cooking content and the intake status of the food provided by the cooking. By using this estimation result, it is possible to obtain various situations depending on the meal at home, such as the fact that one meal is over-calorie and the nutritional balance is out of order. In addition, the above calorie intake and nutritional balance can be accumulated, and this can be used to diagnose the calorie acquisition status and nutritional balance status, and further, notification of the diagnosis result or notification based on the diagnosis result (notification of the diagnosis result or notification based on the diagnosis result). For example, you can give advice such as "Because there are many high-calorie meals, let's reduce calorie intake" and "Because we tend to be deficient in vitamins, let's eat a lot of vegetables and fruits"). This makes it possible to provide useful information for daily health management. By the way, it is good to notify regularly.

なお、上記実施の形態においては、摂取カロリー及び栄養バランスの両方を推定するが、これらのいずれか一方のみを推定する構成としてもよい。 In the above embodiment, both the calorie intake and the nutritional balance are estimated, but only one of these may be estimated.

<その他の実施の形態>
(1)上記実施の形態では、摂取カロリー及び栄養素バランスの情報を食事後に提供する構成としたが、作成された料理又は提供された料理のカロリーや栄養バランスの情報を食事前又は食事中に提供する構成としてもよい。具体的には、料理摂取量の判別を省略し、図5のステップS210の補正結果から、作成された料理又は提供された料理のカロリーや栄養バランスを取得する。そして、取得したカロリーや栄養バランスに基づき、表示用端末40又はダイニング12に設置された他の報知手段にて、例えば「カロリーが高めです」や「野菜を多く食べましょう」等のアドバイス(報知)を行う。
<Other embodiments>
(1) In the above embodiment, the information on the calorie intake and the nutrient balance is provided after the meal, but the information on the calorie and nutritional balance of the prepared dish or the provided dish is provided before or during the meal. It may be configured to be used. Specifically, the determination of the food intake is omitted, and the calorie and nutritional balance of the prepared food or the provided food are acquired from the correction result of step S210 in FIG. Then, based on the acquired calories and nutritional balance, advice (notification) such as "high calories" or "let's eat a lot of vegetables" is used by other notification means installed in the display terminal 40 or the dining room 12. )I do.

(2)上記実施の形態では、調味料の容器に付した印に基づいて調味料の種別を判別する構成としたが、料理データベース36に登録されたレシピ情報に基づいて調味料の種別を判別する構成としてもよい。例えば、調理において白色の調味料が使用されていることを判別した場合に、その使用量をレシピと照らし合わせて塩と判別したり、調理の中で白色の調味料が使用された順番(タイミング)をレシピと照らし合わせて塩と判別したりすることができる。また、その料理のレシピにおいて白色の調味料が塩のみの場合である場合には、その調味料を塩と判別する構成としてもよい。 (2) In the above embodiment, the type of seasoning is determined based on the mark attached to the container of the seasoning, but the type of seasoning is determined based on the recipe information registered in the cooking database 36. It may be configured to be used. For example, when it is determined that a white seasoning is used in cooking, the amount used is compared with the recipe to determine that it is salt, or the order in which the white seasoning is used in cooking (timing). ) Can be compared with the recipe to distinguish it from salt. Further, when the white seasoning is only salt in the recipe of the dish, the seasoning may be discriminated as salt.

(3)上記実施の形態において、建物10の各住人を予めコントローラ35の料理データベース36又は記憶部38に登録しておき、摂取カロリー及び栄養バランスを住人ごとに蓄積する構成としてもよい。この場合における各住人の判別は、各カメラ31,32の撮影画像に基づく顔認証やID認証等によって行うことができる。また、ダイニング12(複数の椅子27)での座席と対応付けて各住人を登録しておき、各カメラ31,32により撮影される、食事をする人が座る座席の位置から、どの住人であるかを判別する構成としてもよい。 (3) In the above embodiment, each resident of the building 10 may be registered in advance in the cooking database 36 or the storage unit 38 of the controller 35, and the calorie intake and the nutritional balance may be accumulated for each resident. In this case, the determination of each resident can be performed by face authentication, ID authentication, or the like based on the captured images of the cameras 31 and 32. In addition, each resident is registered in association with the seat in the dining 12 (plural chairs 27), and which resident is from the position of the seat where the eater sits, which is taken by the cameras 31 and 32. It may be configured to determine whether or not.

(4)上記実施の形態において、キッチン11及びダイニング12のそれぞれに複数のカメラを設けるとともに、各カメラの撮影結果から食材の縦、横及び奥行方向の寸法を特定し、食材の体積を導出して量を判別する構成としてもよい。 (4) In the above embodiment, a plurality of cameras are provided in each of the kitchen 11 and the dining 12, and the vertical, horizontal, and depth dimensions of the food are specified from the shooting results of each camera, and the volume of the food is derived. It may be configured to determine the amount.

(5)上記実施の形態では、料理データベース36に食材等の画像情報を登録するが、これに代えて、各食材等の特徴量を示す情報を登録してもよい。 (5) In the above embodiment, the image information of the foodstuff or the like is registered in the cooking database 36, but instead of this, the information indicating the feature amount of each foodstuff or the like may be registered.

(6)上記実施の形態において、料理データベース36をインターネット上のwebサーバに備えてもよい。すなわち、インターネットに接続可能な通信部をコントローラ35に設け、インターネットを通じて上記webサーバから食材、調味料及び料理の登録情報を得る構成とする。また、推定した摂取カロリーや栄養バランスについても、上記webサーバ又は他のwebサーバに記憶し、スマートフォン等の携帯通信端末から閲覧可能な構成としてもよい。 (6) In the above embodiment, the cooking database 36 may be provided in the web server on the Internet. That is, a communication unit that can be connected to the Internet is provided in the controller 35, and registration information of ingredients, seasonings, and dishes is obtained from the above-mentioned web server through the Internet. Further, the estimated calorie intake and nutritional balance may be stored in the above-mentioned web server or another web server and viewed from a mobile communication terminal such as a smartphone.

11…キッチン、12…ダイニング、31…第1撮影手段としての第1カメラ、32…第2撮影手段としての第2カメラ、35…調理内容判別手段としてのコントローラ、36…料理データベース、38…記憶手段としての記憶部。 11 ... Kitchen, 12 ... Dining, 31 ... First camera as the first shooting means, 32 ... Second camera as the second shooting means, 35 ... Controller as the cooking content determination means, 36 ... Cooking database, 38 ... Memory Memory as a means.

Claims (4)

キッチンにおける料理の調理状況を撮影する第1撮影手段と、
ダイニングにおける料理の調理状況を撮影する第2撮影手段と、
前記第1撮影手段及び前記第2撮影手段による各撮影結果に基づいて、調理内容を判別する調理内容判別手段と、
を備え
前記調理内容判別手段は、
前記第1撮影手段による撮影結果から、調理に使用された食材及び調味料の種別及び量を判別する手段と、
前記第2撮影手段による撮影結果から、調理に使用された食材及び調味料の種別及び量を判別する手段と、
各種料理に係るレシピ情報、カロリー情報、栄養素を少なくとも含む、料理データベースに登録されている料理と、前記第1撮影手段及び前記第2撮影手段により撮影された料理とを比較し、使用されている食材及び調味料の差異部分を補正する手段と、
前記補正された結果に基づいて、前記撮影された料理のカロリー及び栄養素を判別する手段と、
を備えていることを特徴とする調理内容判別システム。
The first shooting method to shoot the cooking situation of food in the kitchen,
A second means of taking pictures of the cooking situation of food in the dining room,
A cooking content discriminating means for discriminating cooking content based on the results of each photographing by the first photographing means and the second photographing means, and
Equipped with
The cooking content determination means is
A means for determining the type and amount of ingredients and seasonings used for cooking from the results of photography by the first photography means, and
A means for determining the type and amount of ingredients and seasonings used for cooking from the results of photography by the second photography means, and
The dishes registered in the cooking database, which include at least recipe information, calorie information, and nutrients related to various dishes, are compared with the dishes taken by the first photographing means and the second photographing means, and are used. Means to correct the difference between ingredients and seasonings,
A means for determining the calories and nutrients of the photographed dish based on the corrected result, and
A cooking content discrimination system characterized by being equipped with .
前記調理内容判別手段は、
前記第1撮影手段又は前記第2撮影手段により撮影された画像に基づき、基準となる寸法を特定し、前記寸法に基づいて少なくとも前記調理に用いた食材の量を判別する、請求項1に記載の調理内容判別システム。
The cooking content determination means is
The first aspect of the present invention, wherein the reference dimension is specified based on the image taken by the first photographing means or the second photographing means, and at least the amount of the food material used for the cooking is determined based on the dimension. Cooking content discrimination system.
キッチンにおける料理の調理状況を撮影する第1撮影手段と、
ダイニングにおける料理の調理状況を撮影する第2撮影手段と、
前記第1撮影手段及び前記第2撮影手段による各撮影結果に基づいて、調理内容を判別する調理内容判別手段と、
前記第1撮影手段及び前記第2撮影手段によって撮影された料理のデータを少なくとも一定期間記憶しておく記憶手段と、
を備え、
前記調理内容判別手段は、
前記第1撮影手段及び前記第2撮影手段によって撮影された料理が、今回の調理によって作られた料理ではないと判断される場合、前記記憶手段に記憶されている以前調理された料理であるか否かを判断し、
前記以前調理された料理である場合には、その料理の調理状況をもとに調理内容を判別することを特徴とする調理内容判別システム。
The first shooting method to shoot the cooking situation of food in the kitchen,
A second means of taking pictures of the cooking situation of food in the dining room,
A cooking content discriminating means for discriminating cooking content based on the results of each photographing by the first photographing means and the second photographing means, and
A storage means for storing food data taken by the first photographing means and the second photographing means for at least a certain period of time, and a storage means .
Equipped with
The cooking content determination means is
If it is determined that the dish photographed by the first photographing means and the second photographing means is not the dish prepared by the present cooking, is it a previously cooked dish stored in the storage means? Judge whether or not,
In the case of a previously cooked dish, the cooking content discrimination system is characterized in that the cooking content is discriminated based on the cooking status of the dish.
請求項1~のいずれか1項に記載の調理内容判別システムと、
前記第2撮影手段による撮影結果から、前記調理内容判別システムによる判別対象とされた料理の摂取量を判別する摂取量判別手段と、
前記調理内容判別手段及び前記摂取量判別手段の各判別結果に基づいて、食事をした人の摂取カロリー及び栄養バランスの少なくとも一方を推定する推定手段と、
を備える、摂取内容判別システム。
The cooking content determination system according to any one of claims 1 to 3 and the cooking content determination system.
An intake amount discriminating means for discriminating the intake amount of a dish targeted for discrimination by the cooking content discriminating system from the photographing result by the second photographing means, and an intake amount discriminating means.
An estimation means for estimating at least one of the calorie intake and the nutritional balance of a person who ate a meal based on the discrimination results of the cooking content discriminating means and the intake amount discriminating means.
Ingestion content discrimination system equipped with.
JP2017231798A 2017-12-01 2017-12-01 Cooking content discrimination system and intake content discrimination system Active JP7064853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017231798A JP7064853B2 (en) 2017-12-01 2017-12-01 Cooking content discrimination system and intake content discrimination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231798A JP7064853B2 (en) 2017-12-01 2017-12-01 Cooking content discrimination system and intake content discrimination system

Publications (2)

Publication Number Publication Date
JP2019101736A JP2019101736A (en) 2019-06-24
JP7064853B2 true JP7064853B2 (en) 2022-05-11

Family

ID=66977000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231798A Active JP7064853B2 (en) 2017-12-01 2017-12-01 Cooking content discrimination system and intake content discrimination system

Country Status (1)

Country Link
JP (1) JP7064853B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428609B2 (en) 2019-10-03 2024-02-06 株式会社リンクアンドコミュニケーション Cooking area estimation device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250766A (en) 2004-03-03 2005-09-15 Tietech Co Ltd Dish order support system
JP2007020833A (en) 2005-07-15 2007-02-01 Inax Corp Kitchen furniture provided with imaging function
JP2009151616A (en) 2007-12-21 2009-07-09 Konica Minolta Holdings Inc Event performance system
JP2013250699A (en) 2012-05-31 2013-12-12 Nikon Corp Menu support device, and menu support method
US20150228062A1 (en) 2014-02-12 2015-08-13 Microsoft Corporation Restaurant-specific food logging from images
WO2016031246A1 (en) 2014-08-26 2016-03-03 ハイアールアジア株式会社 Nutrient quantity calculating device and refrigerator provided with same
WO2017199389A1 (en) 2016-05-19 2017-11-23 株式会社amuse oneself Information provision system, information provision method, and information provision program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250766A (en) 2004-03-03 2005-09-15 Tietech Co Ltd Dish order support system
JP2007020833A (en) 2005-07-15 2007-02-01 Inax Corp Kitchen furniture provided with imaging function
JP2009151616A (en) 2007-12-21 2009-07-09 Konica Minolta Holdings Inc Event performance system
JP2013250699A (en) 2012-05-31 2013-12-12 Nikon Corp Menu support device, and menu support method
US20150228062A1 (en) 2014-02-12 2015-08-13 Microsoft Corporation Restaurant-specific food logging from images
WO2016031246A1 (en) 2014-08-26 2016-03-03 ハイアールアジア株式会社 Nutrient quantity calculating device and refrigerator provided with same
WO2017199389A1 (en) 2016-05-19 2017-11-23 株式会社amuse oneself Information provision system, information provision method, and information provision program

Also Published As

Publication number Publication date
JP2019101736A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
Robson et al. An evaluation of food photographs as a tool for quantifying food and nutrient intakes
JP2010061382A (en) Automatic recipe creation apparatus and program
JP2010061383A (en) Automatic recipe creation apparatus and program
CN110867239A (en) Diet suggestion generation method and device, computer device and storage medium
CN109431288A (en) A kind of electric cooker control method, device, storage medium and electric cooker
US20200159750A1 (en) System for measuring food weight
CN110853735A (en) Method and device for analyzing intake of dietary component, computer device and storage medium
Kong et al. Validity and practicability of smartphone-based photographic food records for estimating energy and nutrient intake
CN110762571B (en) Recipe recommendation method based on cooking oil smoke and range hood
JP2010061381A (en) Automatic recipe preparing device and program
CN108073906B (en) Method and device for detecting nutrient components of dishes, cooking utensil and readable storage medium
JP7064853B2 (en) Cooking content discrimination system and intake content discrimination system
CN109074861B (en) Food monitoring system
KR101687452B1 (en) A smart tableware and a method for controlling thereof
KR102487925B1 (en) Method, server and program for providing information on the operation and management information of the group feeding
WO2018197596A1 (en) Device and method for determining sugar content information for a food item
JP2021505242A (en) Cooking utensils and their control methods
CN112052810A (en) Vegetable quality detection method and device
Kwon et al. An exploratory study of foods served to guests of head families (Jong-ga)
EP3882830A1 (en) System and method for the quality control of cooked dishes
Anjos et al. Development of a food frequency questionnaire in a probabilistic sample of adults from Niterói, Rio de Janeiro, Brazil
CN110910987A (en) Diet advice generation method and apparatus, computer apparatus, and storage medium
JP2009236506A (en) Seasoning used weight calculation device, recipe creation device, seasoning used weight calculation method, recipe creation method, and program
WO2015195575A1 (en) Dynamic recipe control
CN115439908A (en) Face recognition self-service weighing consumption system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7064853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150