JP6368497B2 - Eating habit management program, eating habit management method, and eating habit management device - Google Patents
Eating habit management program, eating habit management method, and eating habit management device Download PDFInfo
- Publication number
- JP6368497B2 JP6368497B2 JP2014019563A JP2014019563A JP6368497B2 JP 6368497 B2 JP6368497 B2 JP 6368497B2 JP 2014019563 A JP2014019563 A JP 2014019563A JP 2014019563 A JP2014019563 A JP 2014019563A JP 6368497 B2 JP6368497 B2 JP 6368497B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- procedure
- eating
- user
- dietary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 235000006694 eating habits Nutrition 0.000 title claims description 159
- 238000007726 management method Methods 0.000 title claims description 64
- 235000005911 diet Nutrition 0.000 claims description 142
- 238000000034 method Methods 0.000 claims description 130
- 230000000378 dietary effect Effects 0.000 claims description 123
- 235000013305 food Nutrition 0.000 claims description 114
- 235000012054 meals Nutrition 0.000 claims description 107
- 230000036541 health Effects 0.000 claims description 51
- 235000005686 eating Nutrition 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 33
- 230000035622 drinking Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 30
- 235000013361 beverage Nutrition 0.000 claims description 29
- 230000001055 chewing effect Effects 0.000 claims description 27
- 230000037213 diet Effects 0.000 claims description 19
- 230000032258 transport Effects 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 4
- 230000003862 health status Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 68
- 230000018984 mastication Effects 0.000 description 41
- 238000010077 mastication Methods 0.000 description 41
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 235000012046 side dish Nutrition 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 230000006872 improvement Effects 0.000 description 7
- 238000010295 mobile communication Methods 0.000 description 7
- 235000013311 vegetables Nutrition 0.000 description 5
- 210000000577 adipose tissue Anatomy 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 3
- 230000037396 body weight Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000002994 raw material Substances 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 244000269722 Thea sinensis Species 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 235000012631 food intake Nutrition 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000167880 Hirundinidae Species 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 235000013334 alcoholic beverage Nutrition 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 235000021186 dishes Nutrition 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000000147 hypnotic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 206010036067 polydipsia Diseases 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000000152 swallowing effect Effects 0.000 description 1
- 210000000966 temporal muscle Anatomy 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、食生活管理プログラム、食生活管理方法、および食生活管理装置に関する。 The present invention relates to a dietary life management program, a dietary life management method, and a dietary life management device.
食について考える習慣や食に関する様々な知識と食を選択する判断力を身に付けるための取組みとして、食育の必要性が広く取り上げられている。近年、食生活の乱れや偏りによって肥満、糖尿病、高血圧等の生活習慣病を引き起こすケースが増えており、健康のまま寿命を延ばすとともに医療費を抑制するためにも、食生活の改善が重要となっている。 The need for dietary education is widely taken up as an effort to acquire various knowledge about food and various knowledge about food and judgment to choose food. In recent years, cases of lifestyle-related diseases such as obesity, diabetes, and hypertension are increasing due to disorder and bias in eating habits, and it is important to improve eating habits in order to extend life expectancy and reduce medical expenses. It has become.
従来、食生活に関する指導は、医師等からの口頭での指導がほとんどである。また、ユーザ(食事者)が自らの食生活に関して測定できるものとしては、食事の際の咀嚼回数を計測する咀嚼回数計測装置が知られている(例えば、特許文献1参照)。 Conventionally, most of the guidance regarding eating habits is oral guidance from a doctor or the like. In addition, a device for measuring the number of chewing times during a meal is known as a method that can be measured by the user (diet) regarding his / her eating habits (see, for example, Patent Document 1).
しかしながら、医師等から口頭で指導を受けたとしても、ユーザは自らの食生活を確認して食生活がどのように改善しているのか把握することが困難であるため、指導内容の実行が長続きせず、指導の効果がなかなか得られないことが多い。また、咀嚼回数計測装置は、継続的な使用を確保して食生活の改善に繋げることは必ずしも容易ではない。 However, even if verbal guidance is received from doctors, etc., it is difficult for the user to confirm their dietary habits and understand how their dietary life has improved, so the implementation of the guidance content continues for a long time. In many cases, it is difficult to get the guidance effect. In addition, it is not always easy for the chewing frequency measuring device to ensure continuous use and lead to an improvement in eating habits.
本発明は、前記した事情に鑑みてなされたものであり、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理プログラム、食生活管理方法、および食生活管理装置を提供することを課題とする。 The present invention has been made in view of the circumstances described above, and allows a user to easily check his / her eating habits and lead to improvement of eating habits, eating habits management method, and eating habits. It is an object to provide a management device.
前記課題を解決するため、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Bにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、前記手順Cにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されることを特徴とする。 In order to solve the above-mentioned problem, the eating habits management program according to the present invention uses a procedure A for causing the camera unit to acquire image data, and an image of the eating and drinking utensil from the image data acquired in the procedure A by image recognition processing. The procedure B for recognizing, the procedure C for detecting eating habits information, which is information related to the user's eating habits, from the images of the eating and drinking utensils recognized in the procedure B, and the eating habits information detected in the procedure C A dietary life management program for causing a computer including the camera unit to execute a dietary life management process including the procedure D to be collected and processed, and in the procedure B, the food and beverage transporting the food to the mouth An image of the food transport member is recognized, and in the procedure C, the food transport member is moved forward depending on whether the food transport member is placed on the table. Time that is placed on the table, and at least one information based on the placed on non time is characterized in that it is detected.
この発明によれば、食事の際に必要となる飲食用具が画像認識処理によって認識されて、ユーザの食生活情報が検知されるとともに、ユーザの食生活情報が収集されて処理される。したがって、ユーザは、自らの食生活に関して収集されて処理された情報を容易に取得することが可能となり、食生活改善のモチベーションを高めることができる。
すなわち、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理装置を提供できる。
また、本発明は、カメラ部を備えるスマートフォンやタブレット型コンピュータに食生活管理プログラム(アプリケーション)をインストールするだけで簡単かつ安価に実施できる。
また、ユーザは、箸等の飲食物運搬用部材が食卓上に載置されている時間(箸置き時間)と載置されていない時間(箸持ち時間)とを容易に取得することが可能となる。したがって、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断することができ、ユーザは、食事中において、自らの食生活を容易に確認することが可能となる。
また、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Cにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されることを特徴とする。
このような構成によれば、食事中の音声の中で予め決められたキーワードの有無が検知される。したがって、例えば「いただきます」や「ごちそうさま」等のキーワードの有無を確認することにより、例えば子供の食事マナーの向上や食事の際の家族の団らんを促進することができる。
また、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Bにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、前記手順Cにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されることを特徴とする。
このような構成によれば、食事中にユーザが着座しているか否かが検知される。したがって、例えば子供がしっかり座って食事をしているか否かを確認することができ、食事中に子供が動きまわることがないようにチェックすることが可能となる。
According to this invention, the eating and drinking utensils necessary for eating are recognized by the image recognition process, the user's eating habits information is detected, and the user's eating habits information is collected and processed. Therefore, the user can easily acquire information collected and processed regarding his / her eating habits, and can increase motivation for improving eating habits.
That is, it is possible to provide a dietary management device that allows the user to easily check his / her diet and lead to improvement of the diet.
Moreover, this invention can be implemented simply and cheaply only by installing the eating habits management program (application) in a smart phone or tablet type computer provided with a camera part.
In addition, the user can easily acquire the time during which the food transport member such as chopsticks is placed on the table (chopstick rest time) and the time when the member is not placed (chopstick holding time). . Therefore, the chopstick holding time corresponds to the time when the food and drink are often carried into the mouth and the food and drink are not chewed much, while the chopstick rest time stops carrying the food and drink into the mouth and bites the food and drink. it can be determined to correspond to many times are, the user, in the diet, that Do is possible to easily confirm their diet.
Also, dietary management program according to the present invention, a procedure A for obtaining the image data to the camera unit, from the image data acquired in the procedure A, Procedure B recognizes the image of the food equipment by the image recognition processing And, from the image of the eating tool recognized in the procedure B, the procedure C for detecting the eating habit information that is information related to the eating habits of the user, and the eating habit information detected in the procedure C is collected and processed. A dietary life management program for causing a computer having the camera unit to execute a dietary life management process having the procedure D. In the procedure C, the voice of the user during a meal is acquired through the microphone unit Voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal is detected.
According to such a configuration, presence / absence of a predetermined keyword is detected in the voice during meal. Therefore, for example, by confirming the presence / absence of keywords such as “I will” or “Feast”, it is possible to improve, for example, the child's manners and encourage family members to eat.
Moreover, the eating habits management program according to the present invention includes a procedure A for causing the camera unit to acquire image data, and a procedure B for recognizing an image of the eating and drinking utensil from the image data acquired in the procedure A by an image recognition process. The procedure C for detecting eating habits information, which is information related to the user's eating habits, and the eating habits information detected in the procedure C are collected and processed from the images of the eating utensils recognized in the procedure B. A dietary life management program for causing a computer including the camera unit to execute a dietary life management process having a procedure D, wherein the image of the user eating from the image data is further recognized in the procedure B In step C, seating information indicating whether or not the user is seated during a meal is detected.
According to such a configuration, it is detected whether or not the user is seated during a meal. Therefore, for example, it can be confirmed whether or not the child sits firmly and eats, and it is possible to check that the child does not move around during the meal.
また、本発明は、前記手順Dにおいて、前記食生活情報に基づく情報が、前記ユーザが認識可能な態様で出力部を通して出力されることを特徴とする。 Further, the present invention is characterized in that, in the procedure D, information based on the eating habits information is output through an output unit in a manner recognizable by the user.
このような構成によれば、出力部を通して、食生活情報に基づく情報を例えば表示出力したり音声出力したりすることができる。したがって、ユーザは、自らの食生活を迅速かつ容易に確認することが可能となる。 According to such a configuration, information based on dietary information can be displayed and output, for example, through voice through the output unit. Therefore, the user can confirm his / her diet quickly and easily.
また、本発明は、前記手順Dにおいて、過去所定期間内に処理された前記食生活情報に基づく情報が、履歴情報として記憶手段に記憶されることを特徴とする。 Further, the present invention is characterized in that in the procedure D, information based on the eating habits information processed in the past predetermined period is stored as history information in a storage means.
このような構成によれば、ユーザは、記憶手段に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去所定期間に亘って確認でき、食生活をより改善することが可能となる。 According to such a configuration, the user can come into contact with history information about information based on dietary information stored in the storage unit. Therefore, the user can confirm his / her eating habits over a predetermined period in the past, and can further improve the eating habits.
また、本発明は、前記食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報が、前記ユーザに提供されることを特徴とする。 The present invention is characterized in that navigation information including advice on eating habits is provided to the user in accordance with information based on the eating habits information.
このような構成によれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となり、食生活をより改善することができる。 According to such a configuration, by obtaining navigation information, the user can quickly correct the eating habits, for example, during a meal, and can further improve the eating habits.
また、本発明は、前記手順Cにおいて、前記コンピュータの外部に設けられ食事の際の咀嚼回数を測定するための咀嚼回数計測装置から受信した咀嚼情報が検知されることを特徴とする。 Further, the present invention is characterized in that, in the procedure C, mastication information received from a mastication number measuring device provided outside the computer for measuring the number of mastication times during a meal is detected.
このような構成によれば、ユーザの咀嚼回数に応じた咀嚼情報がさらに検知されるとともに、ユーザの咀嚼回数が収集されて処理される。したがって、ユーザは、自らの食事の際の咀嚼回数が収集されて処理された情報を容易に取得することが可能となる。 According to such a configuration, mastication information corresponding to the number of times of mastication of the user is further detected, and the number of times of mastication of the user is collected and processed. Therefore, the user can easily obtain information processed by collecting the number of chewing times during his / her meal.
また、本発明は、前記食生活管理処理が、前記食生活情報を含むユーザに関する情報の入力を、入力手段を通して受け付ける手順Eを有することを特徴とする。 Further, the present invention is characterized in that the eating habit management process includes a procedure E for accepting input of information relating to a user including the eating habit information through an input means.
このような構成によれば、ユーザは、入力手段を通じて、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。したがって、ユーザの食生活がより詳細に確認可能となるとともに、ユーザの食生活の改善に、より資することが可能となる。 According to such a configuration, the user, through the input means, dietary information such as food and beverage menu (raw materials) information, energy (calorie, calorie) information, ingredient information, user sex, age, disease history, etc. User registration information can be entered. Therefore, the user's eating habits can be confirmed in more detail, and the user's eating habits can be further improved.
また、本発明は、前記食生活管理処理が、前記コンピュータの外部に設置される少なくとも一つの外部装置と通信する手順Fを有することを特徴とする。 In addition, the present invention is characterized in that the eating habit management process includes a procedure F for communicating with at least one external device installed outside the computer.
このような構成によれば、コンピュータの外部に設置される外部装置と通信して、各種の情報を授受することが可能となる。 According to such a configuration, it is possible to communicate with an external device installed outside the computer and exchange various information.
また、本発明は、前記外部装置には、前記ユーザの健康状態に関する情報である健康情報を計測する健康情報計測装置が含まれ、前記食生活管理処理は、前記健康情報計測装置から受信した前記健康情報を検知する手順Gを有することを特徴とする。 Further, according to the present invention, the external device includes a health information measuring device that measures health information that is information related to the health condition of the user, and the dietary management process is received from the health information measuring device. It has a procedure G for detecting health information.
このような構成によれば、例えば体重計、体組成計、歩数計等の各種の健康情報計測装置から受信した健康情報を収集して処理することができる。したがって、例えば飲食物の摂取量、歩数計測値等のエネルギー消費量、体重、BMI、体脂肪率等を比較することが可能となり、ユーザの食生活の改善に、より資することが可能となる。 According to such a configuration, it is possible to collect and process health information received from various health information measuring devices such as a weight scale, a body composition meter, and a pedometer. Therefore, for example, it is possible to compare food consumption, energy consumption such as step count measurement values, body weight, BMI, body fat percentage, and the like, which can further contribute to improving the user's diet.
また、本発明は、前記手順Dにおいて、前記食生活情報に基づく情報と前記健康情報に基づく情報とが表示出力部に同時に表示出力されることを特徴とする。 In the procedure D, the information based on the dietary information and the information based on the health information are simultaneously displayed on the display output unit in the procedure D.
このような構成によれば、ユーザは、食生活情報に基づく情報と健康情報に基づく情報とを同時に容易に確認でき、ユーザの食生活の改善に、より資することが可能となる。 According to such a configuration, the user can easily check information based on dietary information and information based on health information at the same time, and can further contribute to improvement of the user's dietary life.
また、本発明は、前記外部装置には、前記手順Dにおいて収集されて処理された情報を保存するデータベースを有するサーバコンピュータが含まれ、前記データベースに保存される情報は、予め登録された会員のみアクセス可能であることを特徴とする。 Further, according to the present invention, the external device includes a server computer having a database for storing information collected and processed in the procedure D, and information stored in the database is only for members registered in advance. It is accessible.
このような構成によれば、会員がアクセス可能なサーバコンピュータに食生活情報に基づく情報や健康情報に基づく情報等の各種情報を保存することができるため、ユーザは、会員となることによりサーバコンピュータにアクセスして、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、サーバコンピュータにアクセス可能であれば何時でも何処でも自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。 According to such a configuration, since various information such as information based on dietary information and information based on health information can be stored in a server computer accessible to the member, the user becomes a server computer by becoming a member. It is possible to access history information about information based on past dietary information, for example. Therefore, the user can easily confirm his / her dietary life anytime and anywhere as long as he / she can access the server computer, and can further improve his / her dietary life.
また、本発明は、前記予め登録された会員には、予め許可された医療機関または公共機関が含まれることを特徴とする。 Further, the present invention is characterized in that the previously registered member includes a medical institution or a public institution that is permitted in advance.
このような構成によれば、ユーザは、予め許可された医療機関または公共機関に出向くことにより、医師や栄養士等の専門家から適確な指導を受けることができ、食生活をより確実に改善することが可能となる。 According to such a configuration, the user can receive appropriate guidance from an expert such as a doctor or a dietitian by visiting a medical institution or public institution that has been permitted in advance, thereby improving the eating habits more reliably. It becomes possible to do.
本発明によれば、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理プログラム、食生活管理方法、および食生活管理装置を提供できる。 According to the present invention, it is possible to provide a dietary management program, a dietary management method, and a dietary management device that allow a user to easily check their dietary habits and lead to an improvement in dietary habits.
本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
なお、以下に示す図面において、同一の部材または相当する部材間には同一の参照符号を付するものとする。また、部材のサイズおよび形状は、説明の便宜のため、変形または誇張して模式的に表す場合がある。
Embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
In addition, in drawing shown below, the same referential mark shall be attached | subjected between the same members or corresponding members. In addition, the size and shape of the member may be schematically represented by being modified or exaggerated for convenience of explanation.
〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る食生活管理システム100の全体構成を示す斜視図である。図2は、図1に示される情報通信端末1の構成を示すブロック図である。図3は、図2に示される制御手段2における食生活管理部20の機能を示すブロック図である。図4は、図1に示される咀嚼回数計測装置103の構成を示すブロック図である。図5は、食生活に関する目標値の設定方法を説明するための情報通信端末1の操作パネル4の拡大図である。
[First Embodiment]
FIG. 1 is a perspective view showing the overall configuration of a
図1に示すように、本発明の第1の実施形態に係る食生活管理システム100は、食生活管理装置として機能する情報通信端末1を備えている。また、食生活管理システム100は、ここでは、食事の際にユーザ(食事者)が食物を噛む回数(咀嚼回数)を測定するための咀嚼回数計測装置103を備えている。
As shown in FIG. 1, a dietary
情報通信端末1は、スマートフォン(多機能携帯電話)、タブレット型コンピュータ等のカメラ部7(図2参照)を備えるコンピュータである。この情報通信端末1は、食卓108上に、例えばクレードル107に装着された状態で載置されており、クレードル107を介して充電可能となっている。ただし、クレードル107は必ずしも必要ではなく、情報通信端末1は、任意の指示部材によって支持されて食卓108上に載置され得る。
The
食卓108上には、ランチョンマット(プレースマット)109が敷かれており、ランチョンマット109上に、飲食物を口に運ぶ箸(飲食用具、飲食物運搬用部材)101が置かれている。箸101は、ここでは箸置き102上に置かれている。ランチョンマット109上には、例えばご飯等の主食を受容する主食用容器104a、例えば肉、魚等の主菜を受容する主菜用容器(皿)104b、例えば野菜等の副菜を受容する副菜用容器(皿)104c、例えばアルコール類、水等の飲料を収容する飲料用容器105などの飲食物支持具(飲食用具)がさらに置かれている。飲料用容器105は、ここではコースター106上に置かれている。情報通信端末1は、食卓108上において、飲食用具を後記するカメラ部7によって撮像可能な位置に載置される。なお、カメラ部7として、操作パネル4が向く側を写す自分撮り用のカメラが使用される。
On the dining table 108, a place mat (place mat) 109 is laid, and on the
図2に示すように、情報通信端末1は、制御手段2、記憶手段3、操作パネル(出力部)4、マイク部5、スピーカ部(出力部)6、カメラ部7、移動通信インタフェース8、および近距離通信インタフェース9を備えている。
As shown in FIG. 2, the
制御手段2は、CPU(Central Processing Unit)とメモリとを備えており、メモリに展開された所定のプログラムを実行する。すなわち、制御手段2は、記憶手段3にインストールされている食生活管理プログラム(アプリケーション)をメモリに展開して実行することによって食生活管理部20(図3参照)の機能を発揮するとともに、情報通信端末1全体を統括制御する。
The control means 2 includes a CPU (Central Processing Unit) and a memory, and executes a predetermined program expanded in the memory. That is, the control means 2 exhibits the function of the eating habits management unit 20 (see FIG. 3) by expanding and executing the eating habits management program (application) installed in the storage means 3 in the memory and executing information. Overall control of the
記憶手段3は、過去所定期間(例えば2週間)内に処理された食生活情報に基づく情報を履歴情報として記憶する。この記憶保持される所定期間は、変更できるように構成されてもよい。ここで、記憶期間が所定期間を超えた食生活情報に基づく情報は、制御手段2により自動的に消去されるようになっている。また、記憶手段3は、前記したように食生活管理プログラムを保存している。この食生活管理プログラムは、ユーザによって例えばインターネットや記憶媒体を経由して記憶手段3にインストールされてもよいし、情報通信端末1の出荷前に予め記憶手段3にインストールされてもよい。
The memory | storage means 3 memorize | stores the information based on the eating habits information processed within the past predetermined period (for example, 2 weeks) as historical information. The predetermined period that is stored and held may be configured to be changeable. Here, information based on eating habits information whose storage period exceeds a predetermined period is automatically deleted by the control means 2. Moreover, the memory | storage means 3 has preserve | saved the dietary life management program as mentioned above. The eating habit management program may be installed in the
操作パネル4は、各種情報を表示し、または各種入力を行うためのタッチパネルであり、各種情報に基づく画像の表示出力を行う出力部としての機能を有する。また、操作パネル4は、食生活情報を含むユーザに関する情報の入力を受け付ける入力手段として使用され得る。ユーザは、情報通信端末1の操作パネル4を操作することによって、情報通信端末1を通じて、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。
The
マイク部5は、音声を入力するために使用されるものである。スピーカ部6は、音声を出力するものであり、各種情報に基づく音声の出力を行う出力部としての機能を有する。カメラ部7は、CCDイメージセンサ等の撮像素子により画像を読み取って画像データを取得する。
The
移動通信インタフェース8は、所定の周波数帯の電波を用いて移動通信網に接続して移動通信を行うためのインタフェースである。近距離通信インタフェース9は、近距離通信を行うためのインタフェースである。近距離通信として、ここでは赤外線通信が使用される。但し、近距離通信は、ケーブル類を利用した有線通信、あるいは電波や赤外線を利用した無線通信のいずれであってもよい。
The mobile communication interface 8 is an interface for performing mobile communication by connecting to a mobile communication network using radio waves in a predetermined frequency band. The near
図3に示すように、制御手段2は、記憶手段3に保存されている食生活管理プログラムをメモリに展開することによって食生活管理部20の機能を有することになる。食生活管理部20は、画像処理部21、食生活情報検知部22、食生活情報処理部23、表示出力制御部24、および音声出力制御部25を備えている。
As shown in FIG. 3, the control means 2 has the function of the eating
画像処理部21は、カメラ部7によって取得された画像データから、飲食用具等の画像を画像認識処理によって認識する。画像認識処理は、例えば予め与えられた特定のパターン(形)との合致の度合を測るパターンマッチングを行うことによって行われる。なお、飲食用具等の画像の認識は、予め食卓108上に飲食用具等が置かれる場所を予め決めておいて、該場所の情報が使用されて行われてもよい。例えば箸101は、ユーザ(食事者)の最も手前正面に置かれる一対の棒状部材であり、画像認識が容易である。主食用容器104a、主菜用容器104b、副菜用容器104c、および飲料用容器105は、食卓108上の配置場所を予め決めておいて、さらにパターンマッチング等で画像認識することが好ましい。また、飲食用具の画像認識を確実に行うために、予め形状が決められた専用の飲食用具が用意されてもよく、例えば病院等の施設で食生活管理プログラムを実行する場合に好ましい。
The
食生活情報検知部22は、認識された飲食用具等の画像から、ユーザの食生活に関する情報である食生活情報を検知する。食卓108上に箸101が置かれているか否かによって、箸101が食卓108上に載置されている時間(箸置き時間)、および載置されていない時間(箸持ち時間)の少なくとも一方に基づく情報が検知される。この検知情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。
The eating habits
また、食卓108上に置かれた主食用容器104a、主菜用容器(皿)104b、副菜用容器(皿)104c、飲料用容器105等の飲食物支持具に支持されている飲食物に関する情報である飲食物情報の検知情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。そして、例えば、認識された飲食物支持具の画像の変化から、飲食物支持具に支持されている飲食物の消費量等の飲食物情報が検知され得る。
In addition, the present invention relates to food and drink supported by food and drink support tools such as a
また、飲食物情報の検知情報によって、ユーザによるグラス等の飲料用容器105のコースター106上からの持上げ、あるいはコースター106への載置の回数を検知でき、後記ステップS7において当該回数を操作パネル4に表示させたり、後記ステップS8において当該回数が所定回数よりも多い場合にその旨のメッセージをスピーカ部6を通して音声出力させたりすることにより、アルコールの飲み過ぎを防止することができる。この場合に、飲むピッチが速くならないように、ユーザは事前に情報通信端末1においてグラスの持上げ回数や持上げ動作の時間間隔の目標値を設定することができ、それに合わせて飲むようなナビゲーションが可能となる。また、コースター106に湯のみ茶碗等の飲料用容器105を置いて食事をする場合には、例えば1食でお茶を例えば10回に分けて飲むように、湯のみ茶碗の持上げ回数や持上げ動作の時間間隔の目標値を設定することができ、お茶を飲みながらゆっくりよく噛んで食べる習慣づけが可能となる。
Further, the number of times the user lifts the
食生活情報処理部23は、検知された食生活情報を収集して処理する。表示出力制御部24は、操作パネル4に画像の表示出力を行わせる制御を行う。音声出力制御部25は、スピーカ部6に音声出力を行わせる制御を行う。
The eating habit
本実施形態では、画像処理部21が、カメラ部7によって取得された画像データから、食事するユーザ(人物)の特に顔の画像をさらに認識し、食生活情報検知部22が、食事中にユーザが着座しているか否かを示す着座情報を検知する。ここで、食事中の着座情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。
In the present embodiment, the
また、食生活情報検知部22は、食事中の音声をマイク部5を通して取得させて、食事中の音声の中での予め決められたキーワード、例えば「いただきます」や「ごちそうさま」等の有無を示す音声情報を検知する。ここで、食事中の音声情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。
In addition, the eating habits
図4に示すように、咀嚼回数計測装置103は、咀嚼情報取得部103aと、近距離通信インタフェース103bと、を有している。咀嚼情報取得部103aは、ユーザの咀嚼回数に応じた咀嚼情報を検知して取得する。ここで、咀嚼情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。
As shown in FIG. 4, the mastication
咀嚼情報取得部103aとしては、咀嚼運動に伴う下顎の動きを検知して咀嚼情報を取得するもの、顎運動のための筋活動を検知して咀嚼情報を取得するもの、咀嚼時の外耳道の変形や咀嚼音を検知して咀嚼情報を取得するもの、ヘアバンドで側頭筋に装着された圧電素子の出力信号から特定の周波数成分を取り出して咀嚼信号を検知して咀嚼情報を取得するもの等、種々のものが使用され得る。
The mastication
近距離通信インタフェース103bは、近距離通信インタフェース9と同様のものである。咀嚼回数計測装置103と情報通信端末1とは、近距離通信インタフェース103bおよび近距離通信インタフェース9を介して、情報伝達可能に構成されている。
The near
図5に示すように、ユーザは、情報通信端末1において、操作パネル4を使用して、食生活に関する目標値の設定が可能となっている。ユーザは、操作パネル4を操作することによって、動作モードを設定モードに移行させ、目標値を入力する。目標値としては、例えば、目標咀嚼回数(例えば一食当たり)、目標箸置き時間(例えば一食当たり)、許容される最大の連続箸持ち時間等が挙げられる。また、ユーザは、操作パネル4を操作することによって、動作モードを、食生活情報の収集・処理を実行する実行モード、目標値等の各種情報を設定する設定モード、食生活情報に基づく情報等の各種情報を表示させる表示モード、に順次移行させることができる。
As shown in FIG. 5, the user can set target values related to eating habits using the
本実施形態に係る食生活管理プログラムがインストールされた情報通信端末1は、箸置き時間や箸持ち時間等の検知情報、咀嚼情報などの食生活情報を収集して処理する食生活情報処理機能、食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報をユーザに提供するナビゲーション機能、および過去所定期間内に処理された食生活情報に基づく情報を履歴情報として記憶するデータ蓄積機能を有している。なお、ユーザは、操作パネル4を操作することによって、例えばナビゲーション機能等の特定の機能を実行させないように設定することが可能となっている。
The
以上のように構成された情報通信端末1における食生活管理部20の動作について、図6〜図9を参照しながら説明する。図6は、情報通信端末1における食生活管理部20の動作の手順を示すフローチャートである。図7は、食事途中における操作パネル4の表示内容の一例を示す図である。図8は、食事終了時における操作パネル4の表示内容の一例を示す図である。図9は、食事終了時における操作パネル4の表示内容の他の例を示す図である。図10は、食事終了時における操作パネル4の表示内容のさらに他の例を示す図である。
The operation of the dietary
図6に示すように、情報通信端末1の制御手段2は、まず、ユーザの食事が開始されたか否かを判断する(ステップS1)。食事の開始は、例えば、ユーザが操作パネル4を通して食生活情報の収集・処理の実行を開始させるための操作を行ったか否かによって判断される。食事がまだ開始されていないと判断された場合(ステップS1:No)、制御手段2はそのまま待機する。
As shown in FIG. 6, the control means 2 of the
なお、例えば食事の開始前に、操作パネル4を通して、食生活情報を含むユーザに関する情報の入力が受け付けられる(手順E)。 For example, before the start of a meal, input of information about a user including dietary information is accepted through the operation panel 4 (procedure E).
食事が開始されたと判断された場合(ステップS1:Yes)、制御手段2は、カメラ部7に画像データを取得させる(ステップS2;手順A)。また、制御手段2は、内蔵のタイマー(図示せず)を用いて、食事開始からの経過時間を計測することによって食事時間の計測を行う。
When it is determined that the meal has started (step S1: Yes), the
ステップS3(手順B)では、制御手段2は、カメラ部7によって取得された画像データから、箸101の画像を画像認識処理によって認識する。
In step S3 (procedure B), the control means 2 recognizes the image of the
ステップS4(手順C)では、制御手段2は、認識された箸101の画像から、食卓108上に箸101が置かれているか否かによって、箸置き時間および箸持ち時間の少なくとも一方を計測し、食生活情報として検知する。
In step S4 (procedure C), the control means 2 measures at least one of the chopstick placement time and the chopstick holding time depending on whether or not the
ステップS4では、箸持ち時間の取得が行われる。すなわち、制御手段2は、ステップS2において計測された食事時間からステップS3において計測された箸置き時間を減算することにより箸持ち時間を算出して取得する。 In step S4, the chopstick holding time is acquired. That is, the control means 2 calculates and obtains the chopstick holding time by subtracting the chopstick rest time measured in step S3 from the meal time measured in step S2.
ステップS5(手順C)では、咀嚼情報の検知が行われる。すなわち、制御手段2は、咀嚼回数計測装置103から、ユーザの食生活情報として、ユーザの咀嚼回数に応じた咀嚼情報を受信して検知する。
In step S5 (procedure C), detection of mastication information is performed. That is, the control means 2 receives and detects mastication information corresponding to the number of mastications of the user from the mastication
ステップS6では、他の食生活情報の検知が行われる。すなわち、制御手段2は、カメラ部7によって取得された画像データから、主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105等の飲食物支持具の画像を画像認識処理によって認識し、前記飲食物支持具に受容され支持されている飲食物に関する情報である飲食物情報を検知する(手順C)。また、制御手段2は、他の食生活情報として、飲食物情報に加えて、食事中の着座情報、および食事中の音声情報を検知する(手順C)。
In step S6, detection of other dietary information is performed. That is, the control means 2 recognizes images of food and drink support tools such as the
そして、制御手段2は、食事中における食生活情報に基づく情報を操作パネル4に表示させる(ステップS7;手順D)。本実施形態では、食生活情報には、箸置き時間や箸持ち時間等の検知情報、咀嚼情報、および飲食物情報が含まれる。ここで、食生活情報に基づく情報とは、食生活情報、または食生活情報から導かれた情報をいう。 And the control means 2 displays the information based on the eating habits information in a meal on the operation panel 4 (step S7; procedure D). In this embodiment, the eating habit information includes detection information such as chopstick rest time and chopstick holding time, mastication information, and food and drink information. Here, the information based on dietary information refers to dietary information or information derived from dietary information.
図7に示すように、本実施形態では、操作パネル4には、咀嚼回数、箸持ち時間、および箸置き時間が表示され、刻一刻と変化する。ここで、ユーザに食生活管理プログラムの使用方法を予め提示しておくことにより、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断され得る。また、例えば、食べた食物や飲んだ飲物の消費量、摂取したエネルギーの量等が操作パネル4に表示され得る。
As shown in FIG. 7, in the present embodiment, the
ステップS8(手順D)では、ナビゲーション情報の出力が行われる。すなわち、制御手段2は、得られた食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報をユーザに提供する。具体的には、制御手段2は、操作パネル4およびスピーカ部6の少なくとも一方にナビゲーション情報を出力させる。このようにすれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となる。
In step S8 (procedure D), navigation information is output. That is, the control means 2 provides the user with navigation information including advice on eating habits according to the information based on the obtained eating habits information. Specifically, the
ナビゲーション情報としては、例えば、連続箸持ち時間が、予め設定されている許容される最大の連続箸持ち時間を超えた場合の、「箸を置いてください」とのメッセージが挙げられる。これは、箸101を食卓108上に置いて飲食物をよく噛んでくださいとの意味であり、例えば「箸を置いてよく噛んでください」とのメッセージが出力されてもよい。また、箸置き時間、箸持ち時間、食事時間、咀嚼回数、飲食物情報に応じて他のメッセージが出力されてもよい。また、咀嚼回数を増やすために、咀嚼するタイミングをナビゲーションするためのナビゲーション情報が出力されてもよい。この場合のナビゲーション情報の出力には、リズム、音楽、映像等の各種情報の音声や表示の出力が含まれる。
The navigation information includes, for example, a message “Please put chopsticks” when the continuous chopstick holding time exceeds the preset allowable continuous chopstick holding time. This means that the
食べる順序をユーザに示すために、食べるように指示する飲食物が受容される飲食物支持具が画像や文字等によって操作パネル4を通してユーザに示されるように構成されてもよい。例えば、野菜から重点的に食べるダイエットプラグラムに従って、野菜が受容される副菜用容器104cが指示されてもよい。あるいは、主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105に受容されている飲食物をユーザが少しずつ順番に食べるように、これらが順番に繰り返し指示されてもよい。
In order to show the order of eating to the user, the food and drink support tool that receives the food and drink instructed to eat may be configured to be shown to the user through the
さらに、主食用容器104a、主菜用容器104b、副菜用容器104cに受容され支持されている飲食物の減少速度が速いと判断される場合、「早く食べ過ぎだよ」等のメッセージが出力されてもよい。また、飲料用容器105に受容されている飲料の減少速度に基づいて、飲料用容器105でアルコール飲料を何杯も飲んでいると判断される場合、「飲み過ぎだよ」等のメッセージが出力されてもよい。例えば、飲食物支持具の認識画像の変化から、飲食物の消費量が検知され得る。さらに、ユーザの年齢に基づいてメッセージの内容を変えることも可能である。例えば、子供に対しては、遊びながらの食事を戒めて食事に集中させるために、食事を速くするためのメッセージが出力され、大人に対しては、ダイエットの観点から食事をゆっくりするためのメッセージが出力されてもよい。
Further, when it is determined that the food and drink received and supported by the
さらに、箸置き時間、箸持ち時間、食事時間、咀嚼回数に応じたメッセージ、飲食物情報に応じたメッセージに加え、食事中の着座情報、食事中の音声情報に応じたメッセージが出力され得る。例えば、食事中の着座情報からユーザが所定時間以上食卓108から離れて着座していないと判断される場合に、「席につきましょう」等のメッセージが出力され得る。 Furthermore, in addition to messages according to chopstick rest time, chopstick holding time, meal time, number of chewing times, and messages according to food and drink information, messages corresponding to seating information during meals and audio information during meals can be output. For example, when it is determined from the seating information during the meal that the user has not been seated away from the table 108 for a predetermined time or longer, a message such as “Let's sit down” can be output.
なお、ステップS2〜S4とステップS5とステップS6、およびステップS7とステップS8は、それぞれ処理順番が変更されてもよいし、同時に実行されてもよい。 Note that the processing order of steps S2 to S4, step S5 and step S6, and steps S7 and S8 may be changed, or may be executed simultaneously.
ステップS9では、制御手段2は、ユーザの食事が終了したか否かを判断する。食事の終了は、例えば、ユーザが操作パネル4を通して食生活情報の収集・処理の実行を終了させるための操作を行ったか否かによって判断される。食事が終了していないと判断された場合(ステップS9:No)、制御手段2は、ステップS2に処理を戻し、ステップS2〜S9が繰り返される。
In step S9, the control means 2 determines whether or not the user's meal has ended. The end of the meal is determined based on, for example, whether or not the user has performed an operation for ending the collection and processing of eating habits information through the
食事が終了したと判断された場合(ステップS9:Yes)、食生活情報に基づく情報の保存が行われる(ステップS10;手順D)。すなわち、制御手段2は、食生活情報に基づく情報を記憶手段3に記憶させる。本実施形態では、食事中の咀嚼回数合計、一食の食事時間合計、食事中の箸置き時間合計、食事中の箸持ち時間合計、および飲食物情報に基づく情報が記憶手段3に記憶される。また、ユーザ登録情報も記憶手段3に記憶される。なお、食事時刻等の他の情報が記憶されてもよい。記憶手段3内の食生活情報に基づく情報は、履歴情報として、所定期間(例えば2週間)保存される。さらに、履歴情報として、例えば、夕食時刻が不規則である、夕食にあまり野菜を食べない、等の情報が導かれて保存されてもよい。 When it is determined that the meal has ended (step S9: Yes), information based on the eating habit information is stored (step S10; procedure D). That is, the control means 2 stores information based on dietary information in the storage means 3. In the present embodiment, information based on the total number of chewing times during a meal, the total meal time for a meal, the total chopstick rest time during a meal, the total chopstick holding time during a meal, and food and drink information is stored in the storage means 3. User registration information is also stored in the storage means 3. Note that other information such as meal time may be stored. Information based on dietary information in the storage means 3 is stored as history information for a predetermined period (for example, two weeks). Further, as history information, for example, information such as irregular dinner times or not eating much vegetables for dinner may be guided and stored.
このようにすれば、ユーザは、記憶手段3に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。
In this way, the user can contact history information about information based on dietary information stored in the
ステップS11(手順D)では、制御手段2は、食事終了後における食生活情報に基づく情報を操作パネル4に表示させる。表示される食生活情報に基づく情報は、食事中の咀嚼回数合計、一食の食事時間合計、食事中の箸置き時間合計、食事中の箸持ち時間合計、飲食物情報に基づく情報等である。例えば、図8に示すように、操作パネル4に、一食の食事時間合計、および食事中の咀嚼回数合計が表示される。したがって、ユーザは、食事終了後において、自らの食生活を迅速かつ容易に確認することが可能となる。
In step S11 (procedure D), the control means 2 causes the
ステップS12では、制御手段2は、図6に示す処理が終了したか否かを判断する。処理の終了は、例えば、ユーザが操作パネル4を通して所定の終了操作を行ったか否かによって判断される。処理が終了していないと判断された場合(ステップS12:No)、制御手段2は、ステップS11に処理を戻し、表示モードに移行して、ステップS11、S12が繰り返される。
In step S12, the control means 2 determines whether or not the processing shown in FIG. The end of the process is determined based on, for example, whether or not the user has performed a predetermined end operation through the
このとき、ユーザは、操作パネル4を操作することにより、操作パネル4に表示される表示内容を変更させることができる。例えば図9に示すように、操作パネル4に、目標咀嚼回数達成度(%)、および目標箸置き時間達成度(%)が表示されてもよく、例えば図10に示すように、食生活情報に基づく情報、例えば食事中の咀嚼回数合計がグラフで表示されてもよい。なお、図10では、朝食、昼食、夕食における咀嚼回数合計が最近の複数日に亘って時系列的に表示されている。このように操作パネル4に表示される表示内容を複数種類の中から選択可能とされており、ユーザは、自らの食生活をより容易に確認できる。
At this time, the user can change the display content displayed on the
一方、ステップS12において処理が終了したと判断された場合(ステップS12:Yes)、制御手段2は、図6に示す処理を終了する。
On the other hand, when it is determined in step S12 that the process has ended (step S12: Yes), the
前記したように、本実施形態に係る食生活管理プログラムは、カメラ部7に画像データを取得させる手順A(ステップS2)と、取得された画像データから、飲食用具の画像を画像認識処理によって認識する手順B(ステップS3)と、認識された飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順C(ステップS4)と、検知された食生活情報を収集して処理する手順D(ステップS7,S8,S10,S11)と、を有する食生活管理処理を、カメラ部7を備えるコンピュータである情報通信端末1に実行させるものである。
As described above, the eating habit management program according to the present embodiment recognizes the image of the eating and drinking utensil by the image recognition process from the procedure A (step S2) in which the
したがって本実施形態によれば、食事の際に必要となる飲食用具である箸置き102等が画像認識処理によって認識されて、ユーザの食生活情報が検知されるとともに、ユーザの食生活情報が収集されて処理される。したがって、ユーザは、自らの食生活に関して収集されて処理された情報を容易に取得することが可能となり、食生活改善のモチベーションを高めることができる。すなわち、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる。
また、本実施形態は、カメラ部7を備えるスマートフォンやタブレット型コンピュータに食生活管理プログラム(アプリケーション)をインストールするだけで簡単かつ安価に実施できる。
Therefore, according to the present embodiment, the
Moreover, this embodiment can be implemented simply and inexpensively by simply installing a dietary management program (application) on a smartphone or tablet computer provided with the
また、本実施形態では、食生活情報に基づく情報が、ユーザが認識可能な態様で操作パネル4およびスピーカ部6の少なくとも一方を通して出力される。これにより、食生活情報に基づく情報を例えば表示出力したり音声出力したりすることができる。したがって、ユーザは、自らの食生活を迅速かつ容易に確認することが可能となる。
Moreover, in this embodiment, the information based on eating habits information is output through at least one of the
また、本実施形態では、過去所定期間内に処理された食生活情報に基づく情報が、履歴情報として記憶手段3に記憶される。これにより、ユーザは、記憶手段3に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去所定期間に亘って確認でき、食生活をより改善することが可能となる。
Moreover, in this embodiment, the information based on the dietary information processed in the past predetermined period is memorize | stored in the memory | storage means 3 as historical information. Thereby, the user can contact history information about information based on the eating habit information stored in the
また、本実施形態では、食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報がユーザに提供される。このようにすれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となり、食生活をより改善することができる。 In the present embodiment, navigation information including advice on eating habits is provided to the user in accordance with information based on eating habits information. If it does in this way, it will become possible for a user to correct eating habits quickly, for example during a meal by obtaining navigation information, and can improve eating habits more.
また、本実施形態では、飲食物を口に運ぶ箸101の画像が認識され、食卓108上に箸101が置かれているか否かによって、箸101が食卓108上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知される。このようにすれば、ユーザは、箸101が食卓上に載置されている時間(箸置き時間)と載置されていない時間(箸持ち時間)とを容易に取得することが可能となる。したがって、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断することができ、ユーザは、食事中において、自らの食生活を容易に確認することが可能となる。
Further, in the present embodiment, an image of the
また、本実施形態では、情報通信端末1の外部に設けられ食事の際の咀嚼回数を測定するための咀嚼回数計測装置103から受信した咀嚼情報が検知される。このようにすれば、ユーザの咀嚼回数に応じた咀嚼情報が検知されるとともに、ユーザの咀嚼回数が収集されて処理される。したがって、ユーザは、自らの食事の際の咀嚼回数が収集されて処理された情報を容易に取得することが可能となる。
Moreover, in this embodiment, the mastication information received from the mastication
また、咀嚼回数計測装置103とともに、ユーザが食物を飲み込む動作を検知するマイクロフォンや歪みセンサ等の検知手段を喉の近傍に装着することも可能である。この場合、何回噛んだ後に食物を飲み込んだかという情報を検知することができ、食卓108上に箸101を置いている間の咀嚼回数をカウントする動作に代えて、食物を飲み込むまでの咀嚼回数のカウントが可能になる。したがって、当該回数を操作パネル4に表示させたり、当該回数が所定回数よりも少ない場合にその旨のメッセージをスピーカ部6を通して音声出力させたりすることができる。また、ユーザは事前に情報通信端末1において食物を飲み込むまでの咀嚼回数の目標値を設定することができ、食物をよく噛んで食べる習慣づけが可能となる。
In addition to the mastication
また、本実施形態では、カメラ部7によって取得された画像データから飲食物を支持する主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105等の飲食物支持具の画像が認識され、飲食物支持具に受容されて支持されている飲食物に関する情報である飲食物情報が検知される。このようにすれば、ユーザは、食事の際に飲食する飲食物に関する情報として、例えば飲食物の消費量等の飲食物情報が収集されて処理された情報を容易に取得することが可能となる。したがって、ユーザの飲食情報を確認でき、ユーザの食生活をより改善することが可能となる。
Moreover, in this embodiment, food / drink support tools such as the
また、本実施形態では、食生活情報を含むユーザに関する情報の入力が、入力手段としての操作パネル4を通して受け付けられる。このようにすれば、ユーザは、操作パネル4を通して、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。したがって、ユーザの食生活がより詳細に確認可能となるとともに、ユーザの食生活の改善に、より資することが可能となる。
Moreover, in this embodiment, the input of the information regarding the user containing eating habits information is received through the
また、本実施形態では、食事中の音声がマイク部5を通して取得され、食事中の音声の中での予め決められたキーワードの有無を示す音声情報が検知される。したがって、例えば「いただきます」や「ごちそうさま」等のキーワードの有無を確認することにより、例えば子供の食事マナーの向上や食事の際の家族の団らんを促進することができる。なお、ステップS1の食事開始の判断が、例えば「いただきます」等の食事開始を示すキーワードの発声によって判断され、ステップS12の食事終了の判断が、例えば「ごちそうさま」等の食事終了を示すキーワードの発声によって判断されるように構成されてもよい。
Moreover, in this embodiment, the audio | voice during a meal is acquired through the
また、本実施形態では、カメラ部7によって取得された画像データから食事するユーザの画像がさらに認識され、食事中にユーザが着座しているか否かを示す着座情報が検知される。したがって、例えば子供がしっかり座って食事をしているか否かを確認することができ、食事中に子供が動きまわることがないようにチェックすることが可能となる。
Moreover, in this embodiment, the image of the user who eats is further recognized from the image data acquired by the
なお、情報通信端末1は、カメラ部を備えるコンピュータであればよく、通常の携帯電話や、タブレット型コンピュータ、ノート型PC(パーソナルコンピュータ)等のコンピュータ、通信端末、表示端末などであってもよい。例えば、ファミリーレストランなどの注文用タブレットがカメラ部を備えており、食事中の記録データ(食生活情報)を注文用タブレットの操作パネルに表示出力させることも可能である。また、その注文用タブレットからレジ端末へ通信し、レシートに食事中の記録データ(食生活情報)をプリントアウトさせることも可能である。
The
〔第2の実施形態〕
図11は、本発明の第2の実施形態に係る食生活管理システム100aの概略構成を示す図である。図12は、本発明の第2の実施形態の変形例に係る食生活管理システム100bの概略構成を示す図である。
次に、第2の実施形態に係る食生活管理システム100aについて、前記した第1の実施形態に係る食生活管理システム100と相違する点を説明し、共通する点の説明を適宜省略する。
[Second Embodiment]
FIG. 11 is a diagram showing a schematic configuration of a dietary
Next, regarding the eating
図11に示すように、本発明の第2の実施形態に係る食生活管理システム100aは、情報通信端末1がカメラ部7を上に向けて食卓108上に載置されるとともに、支持部材としてのスタンド11が食卓108上に載置されており、凸面鏡12がカメラ部7の上方に位置するようにスタンド11に支持されている点で、第1の実施形態と相違している。カメラ部7として、操作パネル4が向く側を写す自分撮り用のカメラが使用され、情報通信端末1は、操作パネル4およびカメラ部7を上に向けて食卓108上に載置される。なお、図11において、図1に示す食卓108および食卓108上に載置されている飲食用具等、および咀嚼回数計測装置103は、図示が省略されている。
As shown in FIG. 11, the dietary
この第2の実施形態では、カメラ部7は、凸面鏡12に写った情報通信端末1の周囲の全方位の画像を読み取ることができる。したがって、第3の実施形態によれば、前記した第1の実施形態と同様の作用効果を奏することができることに加えて、複数人のユーザU1,U2(図11ではユーザは2人だが3人以上であってもよい)の動きや食生活情報を検知できるとともに、収集して処理することができる。これにより、複数人のユーザU1,U2の食生活情報に基づく情報を例えば操作パネル4に表示出力することができる。
In the second embodiment, the
また、図12の第2の実施形態の変形例に係る食生活管理システム100bに示すように、前記支持部材として、食卓108上に載置され複数本の脚部を有する櫓13が使用され、凸面鏡12がカメラ部7の上方に位置するように櫓13の上部に支持されるように構成されてもよい。
Moreover, as shown in the eating
〔第3の実施形態〕
図13は、本発明の第3の実施形態に係る食生活管理システム100cの全体構成を示す図である。図14は、図13に示される健康情報計測装置111の構成を示すブロック図である。
次に、第3の実施形態に係る食生活管理システム100cについて、前記した第1の実施形態に係る食生活管理システム100と相違する点を説明し、共通する点の説明を適宜省略する。
[Third Embodiment]
FIG. 13 is a diagram showing an overall configuration of a dietary
Next, the eating
図13に示すように、本発明の第3の実施形態に係る食生活管理システム100cは、さらに、健康情報計測装置111、PC112、サーバコンピュータ113、および医療機関114を備えている点で、第1の実施形態と相違している。なお、図13において、図1に示す食卓108および食卓108上に載置されている飲食用具等は、図示が省略されている。
As shown in FIG. 13, the
図14に示すように、健康情報計測装置111は、ユーザの健康状態に関する情報である健康情報を計測する装置である。健康情報計測装置111としては、例えば体重計、体組成計(体重、BMI、体脂肪率、筋肉量、内蔵脂肪、基礎代謝量、推定骨量等を計測)、歩数計、血圧計、体温計、尿糖計、アルコールセンサ、ブレスチェッカ、催眠計、生体センサ等が挙げられる。
As shown in FIG. 14, the health
健康情報計測装置111は、健康情報取得部111aと、近距離通信インタフェース111bと、を有している。健康情報取得部111aは、ユーザの健康状態を検知して健康情報をする。近距離通信インタフェース111bは、近距離通信インタフェース9と同様のものである。
The health
図13に示すように、PC112は、情報通信端末1の制御手段2における食生活管理部20からの情報を保存する保存手段(図示せず)を有している。情報通信端末1とPC112とを、例えばケーブル118や近距離通信インタフェース9で接続することにより、情報通信端末1の記憶手段3に記憶されている食生活情報、健康情報、ユーザ登録情報等の情報をPC112の保存手段に保存することが可能である。また、食生活情報、健康情報、ユーザ登録情報等の情報は、PC112から、インターネット等のネットワーク115を介してサーバコンピュータ113にアップロードすることが可能となっている。
As shown in FIG. 13, the
なお、食生活情報、健康情報、ユーザ登録情報等の情報は、情報通信端末1から、移動通信網等のネットワーク116を介してサーバコンピュータ113にアップロードできるように構成されてもよい。
Information such as dietary information, health information, and user registration information may be configured to be uploaded from the
サーバコンピュータ113は、情報通信端末1からの食生活情報、健康情報、ユーザ登録情報等の情報を保存するデータベース113aを有している。このデータベース113aに保存される情報は、予め登録された会員のみアクセス可能とされている。この場合、例えば会員ごとにIDとパスワードが割り当てられる。また、予め登録された会員には、予め許可された医療機関114が含まれており、医療機関114は、インターネット等のネットワーク117を介してサーバコンピュータ113のデータベース113aに保存されている情報を閲覧することができる。なお、医療機関114の代わりに、あるいはこれに加えて保健所等の公共機関が、予め登録された会員に含まれていてもよい。
The
図15は、第3の実施形態に係る情報通信端末1における食生活管理部20の動作の手順を示すフローチャートである。
図15のステップS1〜S6、S9、S12は、図6(第1の実施形態)のステップS1〜S6、S9、S12とそれぞれ同様であるため、その説明を省略する。
FIG. 15 is a flowchart showing the procedure of the operation of the dietary
Steps S1 to S6, S9, and S12 in FIG. 15 are the same as steps S1 to S6, S9, and S12 in FIG. 6 (first embodiment), respectively, and thus description thereof is omitted.
ステップS6a(手順G)では、健康情報の検知が行われる。すなわち、制御手段2は、健康情報計測装置111から受信したユーザの健康情報を検知する。
In step S6a (procedure G), health information is detected. That is, the
ステップS7a(手順D)では、食事中における食生活情報に基づく情報、および健康情報に基づく情報が操作パネル4に表示される。なお、食事中における食生活情報に基づく情報、および健康情報に基づく情報の少なくとも一方が表示されてもよい。
In step S7a (procedure D), information based on dietary information during meals and information based on health information are displayed on the
ステップS8a(手順D)では、ナビゲーション情報の出力が行われるが、本実施形態では、箸置き時間、箸持ち時間、食事時間、咀嚼回数に応じたメッセージ、飲食物情報に応じたメッセージ、食事中の着座情報、食事中の音声情報に応じたメッセージに加え、健康情報に応じたメッセージが出力され得る。例えば、「体脂肪に気をつけましょう」等のメッセージが出力され得る。 In step S8a (procedure D), navigation information is output. In this embodiment, the chopstick rest time, chopstick holding time, meal time, message corresponding to the number of chewing times, message corresponding to food / drink information, In addition to messages corresponding to seating information and audio information during meals, messages corresponding to health information can be output. For example, a message such as “Let's take care of body fat” may be output.
ステップS10a(手順D)では、制御手段2は、飲食物情報を含む食生活情報に基づく情報、およびユーザ登録情報に加えて、さらに他の食生活情報としての食事中の着座情報に基づく情報および食事中の音声情報に基づく情報(キーワードの有無や発生頻度の情報)、および健康情報に基づく情報を記憶手段3に記憶させる。 In step S10a (procedure D), in addition to information based on dietary information including food and drink information and user registration information, the control means 2 further includes information based on seating information during meals as other dietary information and Information based on voice information during meals (information on presence / absence of keywords and occurrence frequency) and information based on health information are stored in the storage means 3.
ステップS11a(手順D)では、制御手段2は、食事終了後における食生活情報に基づく情報、および健康情報に基づく情報を操作パネル4に表示させる。なお、食事終了後における食生活情報に基づく情報、および健康情報に基づく情報の一方が表示されてもよい。
In step S11a (procedure D), the control means 2 causes the
このように第3の実施形態によれば、前記した第1の実施形態と同様の作用効果を奏することができることに加えて、以下の作用効果を奏する。 Thus, according to 3rd Embodiment, in addition to having the same effect as 1st Embodiment mentioned above, there exist the following effects.
すなわち、第3の実施形態では、食生活管理装置として機能する情報通信端末1は、情報通信端末1の外部に設置される外部装置としてのPC112やサーバコンピュータ113と、ケーブル118、近距離通信インタフェース9、移動通信インタフェース8等の通信手段を介して通信する(手順F)。このようにすれば、情報通信端末1は、PC112やサーバコンピュータ113と通信して、各種の情報を授受することが可能となる。
That is, in the third embodiment, the
また、第3の実施形態では、情報通信端末1は、ユーザの健康状態に関する情報である健康情報を計測する健康情報計測装置111から受信した健康情報が検知される。このようにすれば、例えば体重計、体組成計、歩数計等の各種の健康情報計測装置111から受信した健康情報を収集して処理することができる。したがって、例えば飲食物の摂取量、歩数計測値等のエネルギー消費量、体重、BMI、体脂肪率等を比較することが可能となり、ユーザの食生活の改善に、より資することが可能となる。
In the third embodiment, the
また、第3の実施形態では、食生活情報に基づく情報と健康情報に基づく情報とが操作パネル4に同時に表示出力される。したがって、ユーザは、食生活情報に基づく情報と健康情報に基づく情報とを同時に容易に確認でき、ユーザの食生活の改善に、より資することが可能となる。
In the third embodiment, information based on dietary information and information based on health information are simultaneously displayed and output on the
また、PC112に情報通信端末1からの情報を保存することができるため、ユーザは、PC112を用いて、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。
Further, since the information from the
また、会員がアクセス可能なサーバコンピュータ113に情報通信端末1からの情報を保存することができるため、ユーザは、会員となることによりサーバコンピュータ113にアクセスして、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、サーバコンピュータ113にアクセス可能であれば何時でも何処でも自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。
Further, since the information from the
また、予め登録された会員には、予め許可された医療機関114や公共機関が含まれる。したがって、ユーザは、予め許可された医療機関114や公共機関に出向くことにより、医師や栄養士等の専門家から適確な指導を受けることができ、食生活をより確実に改善することが可能となる。
In addition, the members registered in advance include
また、第3の実施形態においても、第2の実施形態と同様にして、複数人のユーザの食生活情報や健康情報等が検知されるとともに、収集されて処理されるように構成されてもよいことは勿論である。 Also in the third embodiment, the dietary information and health information of a plurality of users may be detected and collected and processed in the same manner as in the second embodiment. Of course it is good.
以上、本発明について実施形態に基づいて説明したが、本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to above-described embodiment, Various modifications are included. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
例えば、箸101に代えて、カトラリー(ナイフ、フォーク、スプーン)等の飲食物運搬用部材が使用されてもよく、箸置き102に代えて、カトラリーレスト(カトラリー置き)が使用されてもよい。
For example, in place of the
また、食生活管理装置として機能する情報通信端末1は、各家庭に設置されることを想定しているが、本発明はこのような形態での実施に限定されるものではない。例えば、食生活管理装置として機能する情報通信端末1を設置して使用するのに好適な食育レストランを開設し、ユーザが食事の記録データ(食生活情報)をレジ端末でプリントアウト(印刷出力)等してもらって取得するような形態で実施することも可能である。また、食育レストランのレジ端末でプリントアウトするレシート等の用紙に、該食育レストランでの食事の記録データ(食生活情報)に応じて、今後の食生活に関するアドバイス等が記載されるようにしてもよい。さらに、食育レストランにおいて、食事中の咀嚼回数や箸置き時間(食物を噛む時間に相当)に応じて、ポイント(商品やサービスの対価の支払いなどの際に付与される点数)がつくように処理されてもよい。したがって、ユーザは例えば他の商品等の対価の支払いのときに、たまったポイントを利用して値引きを受けることができ、食事中によく噛むことの習慣化につなげることができる。
Moreover, although the
また、前記実施形態では、食卓108上に各種の飲食用具等が載置されている場合について説明したが、本発明はこれに限定されるものではない。例えばコンビニエンスストア等の店舗で購入した弁当が食卓108上に載置され、情報通信端末1が、食卓108上において、弁当をカメラ部7によって撮像可能な位置に載置されるようにしてもよい。この場合、弁当における主食、主菜、副菜等の配置が予め決められていて画像認識処理を実施するのに好適な例えばダイエット弁当として提供されてもよい。
Moreover, although the said embodiment demonstrated the case where various food-drinks etc. were mounted on the dining table 108, this invention is not limited to this. For example, a lunch purchased at a store such as a convenience store may be placed on the dining table 108, and the
また、操作パネル4に、医師、栄養士、教授、先生等の専門家のWeb上のサイト(ホームページ)とリンクするためのボタンを表示させ、該ボタンを操作することによって、専門家の食生活に関する指導情報が得られるように構成されてもよい。指導情報には、ダイエット情報、箸の持ち方等の教育情報、食事のマナー情報等が含まれる。指導情報は操作パネル4に表示出力されてもよいし、スピーカ部6を通して音声出力されてもよい。また、例えば、ユーザが専門家の指導情報を得て、食生活管理プログラムが実行された場合、該専門家のWeb上のサイトに食生活情報に基づく情報や健康情報に基づく情報の各種情報が自動的にアップロードされ、収集および処理されて、統計データとして構築されるようにしてもよい。このような統計データは、ユーザの許可の下で、Web上で公開され得る。また、アップロードされた食生活情報に基づく情報や健康情報に基づく情報の各種情報に基づいて、採点やアドバイスの情報が、ユーザの情報通信端末1に返送される等して、ユーザに提供されてもよい。
In addition, the
1 情報通信端末(コンピュータ)
2 制御手段
3 記憶手段
4 操作パネル(出力部、入力手段)
5 マイク部
6 スピーカ部(出力部)
7 カメラ部
8 移動通信インタフェース
9 近距離通信インタフェース
20 食生活管理部
21 画像処理部
22 食生活情報検知部
23 食生活情報処理部
24 表示出力制御部
25 音声出力制御部
101 箸(飲食用具、飲食物運搬用部材)
103 咀嚼回数計測装置
104a 主食用容器(飲食用具、飲食物支持具)
104b 主菜用容器(飲食用具、飲食物支持具)
104c 副菜用容器(飲食用具、飲食物支持具)
105 飲料用容器(飲食用具、飲食物支持具
108 食卓
111 健康情報計測装置(外部装置)
112 PC(外部装置)
113 サーバコンピュータ(外部装置)
114 医療機関
1 Information communication terminal (computer)
2 Control means 3 Storage means 4 Operation panel (output unit, input means)
5
DESCRIPTION OF
103 Chewing
104b Main vegetable container (food and drink, food and beverage support)
104c Side dish container (food and drink, food and beverage support)
105 Beverage Containers (Eating and Drinking Tools, Food and Drink Supporting
112 PC (external device)
113 Server computer (external device)
114 medical institutions
Claims (19)
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Bにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、
前記手順Cにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されること
を特徴とする食生活管理プログラム。 Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure B, an image of a food transport member that transports food and drink to the mouth is recognized,
In the procedure C, depending on whether or not the food transport member is placed on the table, at least the time when the food transport member is placed on the table and the time when it is not placed Eating habits management program characterized in that information based on one side is detected.
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Cにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されること
を特徴とする食生活管理プログラム。 Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure C, the voice of the user during a meal is acquired through a microphone unit, and voice information indicating presence / absence of a predetermined keyword in the voice of the user during the meal is detected. Eating habits management program.
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Bにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、
前記手順Cにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されること
を特徴とする食生活管理プログラム。 Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure B, the image of the user eating from the image data is further recognized,
In the procedure C, seating information indicating whether or not the user is seated during a meal is detected.
を特徴とする請求項1乃至請求項3のいずれか一項に記載の食生活管理プログラム。 The dietary life according to any one of claims 1 to 3 , wherein in the procedure D, information based on the dietary life information is output through an output unit in a manner recognizable by the user. Management program.
を特徴とする請求項1乃至請求項4のいずれか一項に記載の食生活管理プログラム。 In the procedure D, the information based on the diet information processed in the past within a predetermined period, according to any one of claims 1 to 4, characterized in that it is stored in the storage unit as history information Eating habits management program.
を特徴とする請求項1乃至請求項5のいずれか一項に記載の食生活管理プログラム。 In the procedure D, depending on the information based on the diet information, navigation information including advice on diet, in any one of claims 1 to 5, characterized in that it is provided to the user The dietary management program described.
を特徴とする請求項1乃至請求項6のいずれか一項に記載の食生活管理プログラム。 In the procedure C, any of claims 1 to 6 chewing information received from chewing frequency measurement device for measuring the chewing times during meals provided outside the computer, characterized in that it is detected The dietary management program according to any one of the above.
前記食生活情報を含む前記ユーザに関する情報の入力を、入力手段を通して受け付ける手順Eを有すること
を特徴とする請求項1乃至請求項7のいずれか一項に記載の食生活管理プログラム。 The dietary management process is:
The eating habit management program according to any one of claims 1 to 7 , further comprising: a procedure E for accepting input of information related to the user including the eating habit information through an input unit.
前記コンピュータの外部に設置される少なくとも一つの外部装置と通信する手順Fを有すること
を特徴とする請求項1乃至請求項8のいずれか一項に記載の食生活管理プログラム。 The dietary management process is:
The dietary life management program according to any one of claims 1 to 8 , further comprising a procedure F for communicating with at least one external device installed outside the computer.
前記食生活管理処理は、前記健康情報計測装置から受信した前記健康情報を検知する手順Gを有すること
を特徴とする請求項9に記載の食生活管理プログラム。 The external device includes a health information measuring device that measures health information that is information about the health status of the user,
The eating habit management program according to claim 9 , wherein the eating habit management process includes a procedure G for detecting the health information received from the health information measuring device.
を特徴とする請求項10に記載の食生活管理プログラム。 11. The eating habit management program according to claim 10 , wherein in the procedure D, information based on the eating habit information and information based on the health information are simultaneously displayed and output on an output unit.
を特徴とする請求項9乃至請求項11のいずれか一項に記載の食生活管理プログラム。 The external device includes a server computer having a database for storing the information collected and processed in the procedure D, and the information stored in the database is accessible only to members registered in advance. The eating habit management program according to any one of claims 9 to 11 , wherein the eating habit management program is characterized.
を特徴とする請求項12に記載の食生活管理プログラム。 The dietary life management program according to claim 12 , wherein the pre-registered member includes a medical institution or a public institution permitted in advance.
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップBにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、
前記ステップCにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されること
を特徴とする食生活管理方法。 Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step B, an image of a food transport member that transports food to the mouth is recognized,
In step C, depending on whether or not the food transport member is placed on the table, at least the time when the food transport member is placed on the table and the time when it is not placed A dietary management method characterized in that information based on one side is detected.
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップCにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されること
を特徴とする食生活管理方法。 Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step C, voice of the user during a meal is acquired through a microphone unit, and voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal is detected. How to manage your eating habits.
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップBにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、
前記ステップCにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されること
を特徴とする食生活管理方法。 Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step B, the image of the user eating from the image data is further recognized,
In step C, seating information indicating whether or not the user is seated during a meal is detected.
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、飲食物を口に運ぶ飲食物運搬用部材の画像を認識し、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報を検知すること
を特徴とする食生活管理装置。 A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means recognizes an image of a food transport member that transports food to the mouth, and the food transport member is on the table depending on whether the food transport member is placed on the table. A dietary life management device characterized by detecting information based on at least one of a time when the device is placed on the device and a time when the device is not placed.
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、食事中の前記ユーザの音声をマイク部を通して取得し、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報を検知すること
を特徴とする食生活管理装置。 A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means acquires the voice of the user during a meal through a microphone unit, and detects voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal. Eating habits management device.
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、前記画像データから食事する前記ユーザの画像をさらに認識し、食事中に前記ユーザが着座しているか否かを示す着座情報を検知すること
を特徴とする食生活管理装置。 A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means further recognizes an image of the user eating from the image data, and detects seating information indicating whether or not the user is seated during the meal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019563A JP6368497B2 (en) | 2014-02-04 | 2014-02-04 | Eating habit management program, eating habit management method, and eating habit management device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014019563A JP6368497B2 (en) | 2014-02-04 | 2014-02-04 | Eating habit management program, eating habit management method, and eating habit management device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015146168A JP2015146168A (en) | 2015-08-13 |
JP6368497B2 true JP6368497B2 (en) | 2018-08-01 |
Family
ID=53890358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014019563A Active JP6368497B2 (en) | 2014-02-04 | 2014-02-04 | Eating habit management program, eating habit management method, and eating habit management device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6368497B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6403825B1 (en) * | 2017-03-27 | 2018-10-10 | foo.log株式会社 | Information providing apparatus and program |
JP2019101811A (en) * | 2017-12-04 | 2019-06-24 | 富士通株式会社 | Processing program, processing method, processing apparatus, display program, display method, and display controller |
EP3764364A4 (en) * | 2018-03-29 | 2021-12-15 | Tanita Corporation | Component determining device, component determining method, and program |
WO2021095767A1 (en) * | 2019-11-15 | 2021-05-20 | 株式会社Nttドコモ | Information processing device |
WO2023085434A1 (en) * | 2021-11-15 | 2023-05-19 | 旭化成ホームズ株式会社 | Information processing system, information processing method, and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08202251A (en) * | 1995-01-30 | 1996-08-09 | Royal Kogyo Kk | Toy with uttering function and voice recognition function |
JP2003173375A (en) * | 2001-09-28 | 2003-06-20 | Toshiba Corp | Life management terminal device, life management method and life management system |
JP3765776B2 (en) * | 2002-07-03 | 2006-04-12 | 独立行政法人科学技術振興機構 | Chewing function evaluation system |
JP2004242902A (en) * | 2003-02-14 | 2004-09-02 | Masafumi Matsumura | Mastication frequency detector and program therefor |
JP2005070908A (en) * | 2003-08-20 | 2005-03-17 | Matsumoto Takashi | Method and system for measuring meal intake for hospital |
JP4938963B2 (en) * | 2004-01-19 | 2012-05-23 | 裕美 小野 | Nutritional guidance computer system |
JP2010033326A (en) * | 2008-07-29 | 2010-02-12 | Nec Corp | Diet-health management system, method, and program |
JP2011028382A (en) * | 2009-07-22 | 2011-02-10 | Kddi Corp | Nutrition management server and nutrition management method for managing nutrition component of meal for each user |
JP2012113627A (en) * | 2010-11-26 | 2012-06-14 | Terumo Corp | Portable terminal, calorie estimation method, and calorie estimation program |
JP2012235869A (en) * | 2011-05-11 | 2012-12-06 | Sony Corp | Information processing apparatus and information processing method |
JP3185905U (en) * | 2013-03-11 | 2013-09-12 | 賢 大久保 | Chopstick rest with notification function to prevent continuous use of chopsticks |
-
2014
- 2014-02-04 JP JP2014019563A patent/JP6368497B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015146168A (en) | 2015-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180204638A1 (en) | Dynamic scale and accurate food measuring | |
Shen et al. | Assessing the accuracy of a wrist motion tracking method for counting bites across demographic and food variables | |
JP6170293B2 (en) | Eating habits management device | |
Kalantarian et al. | A survey of diet monitoring technology | |
US9536449B2 (en) | Smart watch and food utensil for monitoring food consumption | |
JP6368497B2 (en) | Eating habit management program, eating habit management method, and eating habit management device | |
US9442100B2 (en) | Caloric intake measuring system using spectroscopic and 3D imaging analysis | |
US9254099B2 (en) | Smart watch and food-imaging member for monitoring food consumption | |
Casperson et al. | A mobile phone food record app to digitally capture dietary intake for adolescents in a free-living environment: usability study | |
US9529385B2 (en) | Smart watch and human-to-computer interface for monitoring food consumption | |
KR100831036B1 (en) | System for monitoring health, wellness and fitness | |
US9314206B2 (en) | Diet and calories measurements and control | |
US20150126873A1 (en) | Wearable Spectroscopy Sensor to Measure Food Consumption | |
US20020099274A1 (en) | Portable self-administered health care terminal and a self-administered health support system | |
WO2010070645A1 (en) | Method and system for monitoring eating habits | |
JP6343371B2 (en) | Eating habits management device | |
CN110853735A (en) | Method and device for analyzing intake of dietary component, computer device and storage medium | |
KR102007482B1 (en) | System for mesuring and managing body informantion having personal identification function | |
Magrini et al. | Suppl-1, M7: Wearable Devices for Caloric Intake Assessment: State of Art and Future Developments | |
JP2014164411A (en) | Health management support system and program | |
JP2004113315A (en) | Mastication frequency counter and health management system using the mastication frequency counter | |
CN110910987A (en) | Diet advice generation method and apparatus, computer apparatus, and storage medium | |
JP2003085289A (en) | Eating habit improvement supporting device | |
JP2016103274A (en) | Eating and drinking control method | |
JP6403825B1 (en) | Information providing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20160704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6368497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |