JP6368497B2 - Eating habit management program, eating habit management method, and eating habit management device - Google Patents

Eating habit management program, eating habit management method, and eating habit management device Download PDF

Info

Publication number
JP6368497B2
JP6368497B2 JP2014019563A JP2014019563A JP6368497B2 JP 6368497 B2 JP6368497 B2 JP 6368497B2 JP 2014019563 A JP2014019563 A JP 2014019563A JP 2014019563 A JP2014019563 A JP 2014019563A JP 6368497 B2 JP6368497 B2 JP 6368497B2
Authority
JP
Japan
Prior art keywords
information
procedure
eating
user
dietary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014019563A
Other languages
Japanese (ja)
Other versions
JP2015146168A (en
Inventor
一剛 山中
一剛 山中
照美 竹本
照美 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co Ltd filed Critical Yoshida Dental Mfg Co Ltd
Priority to JP2014019563A priority Critical patent/JP6368497B2/en
Publication of JP2015146168A publication Critical patent/JP2015146168A/en
Application granted granted Critical
Publication of JP6368497B2 publication Critical patent/JP6368497B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、食生活管理プログラム、食生活管理方法、および食生活管理装置に関する。   The present invention relates to a dietary life management program, a dietary life management method, and a dietary life management device.

食について考える習慣や食に関する様々な知識と食を選択する判断力を身に付けるための取組みとして、食育の必要性が広く取り上げられている。近年、食生活の乱れや偏りによって肥満、糖尿病、高血圧等の生活習慣病を引き起こすケースが増えており、健康のまま寿命を延ばすとともに医療費を抑制するためにも、食生活の改善が重要となっている。   The need for dietary education is widely taken up as an effort to acquire various knowledge about food and various knowledge about food and judgment to choose food. In recent years, cases of lifestyle-related diseases such as obesity, diabetes, and hypertension are increasing due to disorder and bias in eating habits, and it is important to improve eating habits in order to extend life expectancy and reduce medical expenses. It has become.

従来、食生活に関する指導は、医師等からの口頭での指導がほとんどである。また、ユーザ(食事者)が自らの食生活に関して測定できるものとしては、食事の際の咀嚼回数を計測する咀嚼回数計測装置が知られている(例えば、特許文献1参照)。   Conventionally, most of the guidance regarding eating habits is oral guidance from a doctor or the like. In addition, a device for measuring the number of chewing times during a meal is known as a method that can be measured by the user (diet) regarding his / her eating habits (see, for example, Patent Document 1).

実用新案登録第3102647号公報Utility Model Registration No. 3106647

しかしながら、医師等から口頭で指導を受けたとしても、ユーザは自らの食生活を確認して食生活がどのように改善しているのか把握することが困難であるため、指導内容の実行が長続きせず、指導の効果がなかなか得られないことが多い。また、咀嚼回数計測装置は、継続的な使用を確保して食生活の改善に繋げることは必ずしも容易ではない。   However, even if verbal guidance is received from doctors, etc., it is difficult for the user to confirm their dietary habits and understand how their dietary life has improved, so the implementation of the guidance content continues for a long time. In many cases, it is difficult to get the guidance effect. In addition, it is not always easy for the chewing frequency measuring device to ensure continuous use and lead to an improvement in eating habits.

本発明は、前記した事情に鑑みてなされたものであり、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理プログラム、食生活管理方法、および食生活管理装置を提供することを課題とする。   The present invention has been made in view of the circumstances described above, and allows a user to easily check his / her eating habits and lead to improvement of eating habits, eating habits management method, and eating habits. It is an object to provide a management device.

前記課題を解決するため、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Bにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、前記手順Cにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されることを特徴とする。 In order to solve the above-mentioned problem, the eating habits management program according to the present invention uses a procedure A for causing the camera unit to acquire image data, and an image of the eating and drinking utensil from the image data acquired in the procedure A by image recognition processing. The procedure B for recognizing, the procedure C for detecting eating habits information, which is information related to the user's eating habits, from the images of the eating and drinking utensils recognized in the procedure B, and the eating habits information detected in the procedure C A dietary life management program for causing a computer including the camera unit to execute a dietary life management process including the procedure D to be collected and processed, and in the procedure B, the food and beverage transporting the food to the mouth An image of the food transport member is recognized, and in the procedure C, the food transport member is moved forward depending on whether the food transport member is placed on the table. Time that is placed on the table, and at least one information based on the placed on non time is characterized in that it is detected.

この発明によれば、食事の際に必要となる飲食用具が画像認識処理によって認識されて、ユーザの食生活情報が検知されるとともに、ユーザの食生活情報が収集されて処理される。したがって、ユーザは、自らの食生活に関して収集されて処理された情報を容易に取得することが可能となり、食生活改善のモチベーションを高めることができる。
すなわち、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理装置を提供できる。
また、本発明は、カメラ部を備えるスマートフォンやタブレット型コンピュータに食生活管理プログラム(アプリケーション)をインストールするだけで簡単かつ安価に実施できる。
また、ユーザは、箸等の飲食物運搬用部材が食卓上に載置されている時間(箸置き時間)と載置されていない時間(箸持ち時間)とを容易に取得することが可能となる。したがって、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断することができ、ユーザは、食事中において、自らの食生活を容易に確認することが可能となる。
た、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Cにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されることを特徴とする。
このような構成によれば、食事中の音声の中で予め決められたキーワードの有無が検知される。したがって、例えば「いただきます」や「ごちそうさま」等のキーワードの有無を確認することにより、例えば子供の食事マナーの向上や食事の際の家族の団らんを促進することができる。
また、本発明に係る食生活管理プログラムは、カメラ部に画像データを取得させる手順Aと、前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、前記手順Bにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、前記手順Cにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されることを特徴とする。
このような構成によれば、食事中にユーザが着座しているか否かが検知される。したがって、例えば子供がしっかり座って食事をしているか否かを確認することができ、食事中に子供が動きまわることがないようにチェックすることが可能となる。
According to this invention, the eating and drinking utensils necessary for eating are recognized by the image recognition process, the user's eating habits information is detected, and the user's eating habits information is collected and processed. Therefore, the user can easily acquire information collected and processed regarding his / her eating habits, and can increase motivation for improving eating habits.
That is, it is possible to provide a dietary management device that allows the user to easily check his / her diet and lead to improvement of the diet.
Moreover, this invention can be implemented simply and cheaply only by installing the eating habits management program (application) in a smart phone or tablet type computer provided with a camera part.
In addition, the user can easily acquire the time during which the food transport member such as chopsticks is placed on the table (chopstick rest time) and the time when the member is not placed (chopstick holding time). . Therefore, the chopstick holding time corresponds to the time when the food and drink are often carried into the mouth and the food and drink are not chewed much, while the chopstick rest time stops carrying the food and drink into the mouth and bites the food and drink. it can be determined to correspond to many times are, the user, in the diet, that Do is possible to easily confirm their diet.
Also, dietary management program according to the present invention, a procedure A for obtaining the image data to the camera unit, from the image data acquired in the procedure A, Procedure B recognizes the image of the food equipment by the image recognition processing And, from the image of the eating tool recognized in the procedure B, the procedure C for detecting the eating habit information that is information related to the eating habits of the user, and the eating habit information detected in the procedure C is collected and processed. A dietary life management program for causing a computer having the camera unit to execute a dietary life management process having the procedure D. In the procedure C, the voice of the user during a meal is acquired through the microphone unit Voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal is detected.
According to such a configuration, presence / absence of a predetermined keyword is detected in the voice during meal. Therefore, for example, by confirming the presence / absence of keywords such as “I will” or “Feast”, it is possible to improve, for example, the child's manners and encourage family members to eat.
Moreover, the eating habits management program according to the present invention includes a procedure A for causing the camera unit to acquire image data, and a procedure B for recognizing an image of the eating and drinking utensil from the image data acquired in the procedure A by an image recognition process. The procedure C for detecting eating habits information, which is information related to the user's eating habits, and the eating habits information detected in the procedure C are collected and processed from the images of the eating utensils recognized in the procedure B. A dietary life management program for causing a computer including the camera unit to execute a dietary life management process having a procedure D, wherein the image of the user eating from the image data is further recognized in the procedure B In step C, seating information indicating whether or not the user is seated during a meal is detected.
According to such a configuration, it is detected whether or not the user is seated during a meal. Therefore, for example, it can be confirmed whether or not the child sits firmly and eats, and it is possible to check that the child does not move around during the meal.

また、本発明は、前記手順Dにおいて、前記食生活情報に基づく情報が、前記ユーザが認識可能な態様で出力部を通して出力されることを特徴とする。   Further, the present invention is characterized in that, in the procedure D, information based on the eating habits information is output through an output unit in a manner recognizable by the user.

このような構成によれば、出力部を通して、食生活情報に基づく情報を例えば表示出力したり音声出力したりすることができる。したがって、ユーザは、自らの食生活を迅速かつ容易に確認することが可能となる。   According to such a configuration, information based on dietary information can be displayed and output, for example, through voice through the output unit. Therefore, the user can confirm his / her diet quickly and easily.

また、本発明は、前記手順Dにおいて、過去所定期間内に処理された前記食生活情報に基づく情報が、履歴情報として記憶手段に記憶されることを特徴とする。   Further, the present invention is characterized in that in the procedure D, information based on the eating habits information processed in the past predetermined period is stored as history information in a storage means.

このような構成によれば、ユーザは、記憶手段に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去所定期間に亘って確認でき、食生活をより改善することが可能となる。   According to such a configuration, the user can come into contact with history information about information based on dietary information stored in the storage unit. Therefore, the user can confirm his / her eating habits over a predetermined period in the past, and can further improve the eating habits.

また、本発明は、前記食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報が、前記ユーザに提供されることを特徴とする。   The present invention is characterized in that navigation information including advice on eating habits is provided to the user in accordance with information based on the eating habits information.

このような構成によれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となり、食生活をより改善することができる。   According to such a configuration, by obtaining navigation information, the user can quickly correct the eating habits, for example, during a meal, and can further improve the eating habits.

また、本発明は、前記手順Cにおいて、前記コンピュータの外部に設けられ食事の際の咀嚼回数を測定するための咀嚼回数計測装置から受信した咀嚼情報が検知されることを特徴とする。   Further, the present invention is characterized in that, in the procedure C, mastication information received from a mastication number measuring device provided outside the computer for measuring the number of mastication times during a meal is detected.

このような構成によれば、ユーザの咀嚼回数に応じた咀嚼情報がさらに検知されるとともに、ユーザの咀嚼回数が収集されて処理される。したがって、ユーザは、自らの食事の際の咀嚼回数が収集されて処理された情報を容易に取得することが可能となる。   According to such a configuration, mastication information corresponding to the number of times of mastication of the user is further detected, and the number of times of mastication of the user is collected and processed. Therefore, the user can easily obtain information processed by collecting the number of chewing times during his / her meal.

また、本発明は、前記食生活管理処理が、前記食生活情報を含むユーザに関する情報の入力を、入力手段を通して受け付ける手順Eを有することを特徴とする。   Further, the present invention is characterized in that the eating habit management process includes a procedure E for accepting input of information relating to a user including the eating habit information through an input means.

このような構成によれば、ユーザは、入力手段を通じて、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。したがって、ユーザの食生活がより詳細に確認可能となるとともに、ユーザの食生活の改善に、より資することが可能となる。   According to such a configuration, the user, through the input means, dietary information such as food and beverage menu (raw materials) information, energy (calorie, calorie) information, ingredient information, user sex, age, disease history, etc. User registration information can be entered. Therefore, the user's eating habits can be confirmed in more detail, and the user's eating habits can be further improved.

また、本発明は、前記食生活管理処理が、前記コンピュータの外部に設置される少なくとも一つの外部装置と通信する手順Fを有することを特徴とする。   In addition, the present invention is characterized in that the eating habit management process includes a procedure F for communicating with at least one external device installed outside the computer.

このような構成によれば、コンピュータの外部に設置される外部装置と通信して、各種の情報を授受することが可能となる。   According to such a configuration, it is possible to communicate with an external device installed outside the computer and exchange various information.

また、本発明は、前記外部装置には、前記ユーザの健康状態に関する情報である健康情報を計測する健康情報計測装置が含まれ、前記食生活管理処理は、前記健康情報計測装置から受信した前記健康情報を検知する手順Gを有することを特徴とする。   Further, according to the present invention, the external device includes a health information measuring device that measures health information that is information related to the health condition of the user, and the dietary management process is received from the health information measuring device. It has a procedure G for detecting health information.

このような構成によれば、例えば体重計、体組成計、歩数計等の各種の健康情報計測装置から受信した健康情報を収集して処理することができる。したがって、例えば飲食物の摂取量、歩数計測値等のエネルギー消費量、体重、BMI、体脂肪率等を比較することが可能となり、ユーザの食生活の改善に、より資することが可能となる。   According to such a configuration, it is possible to collect and process health information received from various health information measuring devices such as a weight scale, a body composition meter, and a pedometer. Therefore, for example, it is possible to compare food consumption, energy consumption such as step count measurement values, body weight, BMI, body fat percentage, and the like, which can further contribute to improving the user's diet.

また、本発明は、前記手順Dにおいて、前記食生活情報に基づく情報と前記健康情報に基づく情報とが表示出力部に同時に表示出力されることを特徴とする。   In the procedure D, the information based on the dietary information and the information based on the health information are simultaneously displayed on the display output unit in the procedure D.

このような構成によれば、ユーザは、食生活情報に基づく情報と健康情報に基づく情報とを同時に容易に確認でき、ユーザの食生活の改善に、より資することが可能となる。   According to such a configuration, the user can easily check information based on dietary information and information based on health information at the same time, and can further contribute to improvement of the user's dietary life.

また、本発明は、前記外部装置には、前記手順Dにおいて収集されて処理された情報を保存するデータベースを有するサーバコンピュータが含まれ、前記データベースに保存される情報は、予め登録された会員のみアクセス可能であることを特徴とする。   Further, according to the present invention, the external device includes a server computer having a database for storing information collected and processed in the procedure D, and information stored in the database is only for members registered in advance. It is accessible.

このような構成によれば、会員がアクセス可能なサーバコンピュータに食生活情報に基づく情報や健康情報に基づく情報等の各種情報を保存することができるため、ユーザは、会員となることによりサーバコンピュータにアクセスして、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、サーバコンピュータにアクセス可能であれば何時でも何処でも自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。   According to such a configuration, since various information such as information based on dietary information and information based on health information can be stored in a server computer accessible to the member, the user becomes a server computer by becoming a member. It is possible to access history information about information based on past dietary information, for example. Therefore, the user can easily confirm his / her dietary life anytime and anywhere as long as he / she can access the server computer, and can further improve his / her dietary life.

また、本発明は、前記予め登録された会員には、予め許可された医療機関または公共機関が含まれることを特徴とする。   Further, the present invention is characterized in that the previously registered member includes a medical institution or a public institution that is permitted in advance.

このような構成によれば、ユーザは、予め許可された医療機関または公共機関に出向くことにより、医師や栄養士等の専門家から適確な指導を受けることができ、食生活をより確実に改善することが可能となる。   According to such a configuration, the user can receive appropriate guidance from an expert such as a doctor or a dietitian by visiting a medical institution or public institution that has been permitted in advance, thereby improving the eating habits more reliably. It becomes possible to do.

本発明によれば、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる食生活管理プログラム、食生活管理方法、および食生活管理装置を提供できる。   According to the present invention, it is possible to provide a dietary management program, a dietary management method, and a dietary management device that allow a user to easily check their dietary habits and lead to an improvement in dietary habits.

本発明の第1の実施形態に係る食生活管理システムの全体構成を示す斜視図である。1 is a perspective view showing an overall configuration of a dietary life management system according to a first embodiment of the present invention. 図1に示される情報通信端末の構成を示すブロック図である。It is a block diagram which shows the structure of the information communication terminal shown by FIG. 図2に示される制御手段における食生活管理部の機能を示すブロック図である。It is a block diagram which shows the function of the eating habits management part in the control means shown by FIG. 図1に示される咀嚼回数計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the mastication frequency measuring apparatus shown by FIG. 食生活に関する目標値の設定方法を説明するための情報通信端末の操作パネルの拡大図である。It is an enlarged view of the operation panel of the information communication terminal for demonstrating the setting method of the target value regarding eating habits. 情報通信端末における食生活管理部の動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement of the eating habits management part in an information communication terminal. 食事途中における操作パネルの表示内容の一例を示す図である。It is a figure which shows an example of the display content of the operation panel in the middle of a meal. 食事終了時における操作パネルの表示内容の一例を示す図である。It is a figure which shows an example of the display content of the operation panel at the time of the end of a meal. 食事終了時における操作パネルの表示内容の他の例を示す図である。It is a figure which shows the other example of the display content of the operation panel at the time of the end of a meal. 食事終了時における操作パネルの表示内容のさらに他の例を示す図である。It is a figure which shows the further another example of the display content of the operation panel at the time of the end of a meal. 本発明の第2の実施形態に係る食生活管理システムの概略構成を示す図である。It is a figure which shows schematic structure of the eating habits management system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態の変形例に係る食生活管理システムの概略構成を示す図である。It is a figure which shows schematic structure of the eating habits management system which concerns on the modification of the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る食生活管理システムの全体構成を示す図である。It is a figure which shows the whole structure of the eating habits management system which concerns on the 3rd Embodiment of this invention. 図13に示される健康情報計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the health information measuring device shown by FIG. 第3の実施形態に係る情報通信端末における食生活管理部の動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement of the eating habits management part in the information communication terminal which concerns on 3rd Embodiment.

本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
なお、以下に示す図面において、同一の部材または相当する部材間には同一の参照符号を付するものとする。また、部材のサイズおよび形状は、説明の便宜のため、変形または誇張して模式的に表す場合がある。
Embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
In addition, in drawing shown below, the same referential mark shall be attached | subjected between the same members or corresponding members. In addition, the size and shape of the member may be schematically represented by being modified or exaggerated for convenience of explanation.

〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る食生活管理システム100の全体構成を示す斜視図である。図2は、図1に示される情報通信端末1の構成を示すブロック図である。図3は、図2に示される制御手段2における食生活管理部20の機能を示すブロック図である。図4は、図1に示される咀嚼回数計測装置103の構成を示すブロック図である。図5は、食生活に関する目標値の設定方法を説明するための情報通信端末1の操作パネル4の拡大図である。
[First Embodiment]
FIG. 1 is a perspective view showing the overall configuration of a dietary management system 100 according to the first embodiment of the present invention. FIG. 2 is a block diagram showing the configuration of the information communication terminal 1 shown in FIG. FIG. 3 is a block diagram showing the function of the dietary life management unit 20 in the control means 2 shown in FIG. FIG. 4 is a block diagram showing a configuration of the mastication count measuring device 103 shown in FIG. FIG. 5 is an enlarged view of the operation panel 4 of the information communication terminal 1 for explaining a method for setting a target value related to eating habits.

図1に示すように、本発明の第1の実施形態に係る食生活管理システム100は、食生活管理装置として機能する情報通信端末1を備えている。また、食生活管理システム100は、ここでは、食事の際にユーザ(食事者)が食物を噛む回数(咀嚼回数)を測定するための咀嚼回数計測装置103を備えている。   As shown in FIG. 1, a dietary life management system 100 according to the first embodiment of the present invention includes an information communication terminal 1 that functions as a dietary life management device. Moreover, the eating habits management system 100 is provided with the mastication frequency measuring device 103 for measuring the number of times (mastication frequency) that the user (diet) bites the food during the meal.

情報通信端末1は、スマートフォン(多機能携帯電話)、タブレット型コンピュータ等のカメラ部7(図2参照)を備えるコンピュータである。この情報通信端末1は、食卓108上に、例えばクレードル107に装着された状態で載置されており、クレードル107を介して充電可能となっている。ただし、クレードル107は必ずしも必要ではなく、情報通信端末1は、任意の指示部材によって支持されて食卓108上に載置され得る。   The information communication terminal 1 is a computer including a camera unit 7 (see FIG. 2) such as a smartphone (multifunctional mobile phone) or a tablet computer. The information communication terminal 1 is placed on the dining table 108 in a state of being mounted on, for example, a cradle 107, and can be charged via the cradle 107. However, the cradle 107 is not necessarily required, and the information communication terminal 1 can be supported on an arbitrary instruction member and placed on the dining table 108.

食卓108上には、ランチョンマット(プレースマット)109が敷かれており、ランチョンマット109上に、飲食物を口に運ぶ箸(飲食用具、飲食物運搬用部材)101が置かれている。箸101は、ここでは箸置き102上に置かれている。ランチョンマット109上には、例えばご飯等の主食を受容する主食用容器104a、例えば肉、魚等の主菜を受容する主菜用容器(皿)104b、例えば野菜等の副菜を受容する副菜用容器(皿)104c、例えばアルコール類、水等の飲料を収容する飲料用容器105などの飲食物支持具(飲食用具)がさらに置かれている。飲料用容器105は、ここではコースター106上に置かれている。情報通信端末1は、食卓108上において、飲食用具を後記するカメラ部7によって撮像可能な位置に載置される。なお、カメラ部7として、操作パネル4が向く側を写す自分撮り用のカメラが使用される。   On the dining table 108, a place mat (place mat) 109 is laid, and on the place mat 109, a chopstick (a food / drink utensil, a food / drink transport member) 101 is placed. Here, the chopsticks 101 are placed on the chopstick rest 102. On the place mat 109, for example, a main food container 104a for receiving a main food such as rice, a main dish container (dish) 104b for receiving a main dish such as meat and fish, for example, a side dish for receiving a side dish such as vegetables. A food container (dish) 104c, for example, a beverage container 105 that contains a beverage such as alcohol or water, is further placed. Here, the beverage container 105 is placed on a coaster 106. The information communication terminal 1 is placed on the dining table 108 at a position where an image can be captured by the camera unit 7 described later. As the camera unit 7, a self-portrait camera that captures the side facing the operation panel 4 is used.

図2に示すように、情報通信端末1は、制御手段2、記憶手段3、操作パネル(出力部)4、マイク部5、スピーカ部(出力部)6、カメラ部7、移動通信インタフェース8、および近距離通信インタフェース9を備えている。   As shown in FIG. 2, the information communication terminal 1 includes a control unit 2, a storage unit 3, an operation panel (output unit) 4, a microphone unit 5, a speaker unit (output unit) 6, a camera unit 7, a mobile communication interface 8, And a short-range communication interface 9.

制御手段2は、CPU(Central Processing Unit)とメモリとを備えており、メモリに展開された所定のプログラムを実行する。すなわち、制御手段2は、記憶手段3にインストールされている食生活管理プログラム(アプリケーション)をメモリに展開して実行することによって食生活管理部20(図3参照)の機能を発揮するとともに、情報通信端末1全体を統括制御する。   The control means 2 includes a CPU (Central Processing Unit) and a memory, and executes a predetermined program expanded in the memory. That is, the control means 2 exhibits the function of the eating habits management unit 20 (see FIG. 3) by expanding and executing the eating habits management program (application) installed in the storage means 3 in the memory and executing information. Overall control of the communication terminal 1 is performed.

記憶手段3は、過去所定期間(例えば2週間)内に処理された食生活情報に基づく情報を履歴情報として記憶する。この記憶保持される所定期間は、変更できるように構成されてもよい。ここで、記憶期間が所定期間を超えた食生活情報に基づく情報は、制御手段2により自動的に消去されるようになっている。また、記憶手段3は、前記したように食生活管理プログラムを保存している。この食生活管理プログラムは、ユーザによって例えばインターネットや記憶媒体を経由して記憶手段3にインストールされてもよいし、情報通信端末1の出荷前に予め記憶手段3にインストールされてもよい。   The memory | storage means 3 memorize | stores the information based on the eating habits information processed within the past predetermined period (for example, 2 weeks) as historical information. The predetermined period that is stored and held may be configured to be changeable. Here, information based on eating habits information whose storage period exceeds a predetermined period is automatically deleted by the control means 2. Moreover, the memory | storage means 3 has preserve | saved the dietary life management program as mentioned above. The eating habit management program may be installed in the storage unit 3 by the user via the Internet or a storage medium, for example, or may be installed in the storage unit 3 in advance before the information communication terminal 1 is shipped.

操作パネル4は、各種情報を表示し、または各種入力を行うためのタッチパネルであり、各種情報に基づく画像の表示出力を行う出力部としての機能を有する。また、操作パネル4は、食生活情報を含むユーザに関する情報の入力を受け付ける入力手段として使用され得る。ユーザは、情報通信端末1の操作パネル4を操作することによって、情報通信端末1を通じて、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。   The operation panel 4 is a touch panel for displaying various information or performing various inputs, and has a function as an output unit that performs display output of an image based on the various information. In addition, the operation panel 4 can be used as an input unit that receives input of information related to a user including dietary information. The user operates the operation panel 4 of the information communication terminal 1, through the information communication terminal 1, dietary information such as menu (raw materials) information of food and drink, energy (calorie, calorie) information, component information, etc. User registration information such as gender, age, and illness history can be entered.

マイク部5は、音声を入力するために使用されるものである。スピーカ部6は、音声を出力するものであり、各種情報に基づく音声の出力を行う出力部としての機能を有する。カメラ部7は、CCDイメージセンサ等の撮像素子により画像を読み取って画像データを取得する。   The microphone unit 5 is used for inputting voice. The speaker unit 6 outputs sound and has a function as an output unit that outputs sound based on various types of information. The camera unit 7 acquires image data by reading an image with an imaging element such as a CCD image sensor.

移動通信インタフェース8は、所定の周波数帯の電波を用いて移動通信網に接続して移動通信を行うためのインタフェースである。近距離通信インタフェース9は、近距離通信を行うためのインタフェースである。近距離通信として、ここでは赤外線通信が使用される。但し、近距離通信は、ケーブル類を利用した有線通信、あるいは電波や赤外線を利用した無線通信のいずれであってもよい。   The mobile communication interface 8 is an interface for performing mobile communication by connecting to a mobile communication network using radio waves in a predetermined frequency band. The near field communication interface 9 is an interface for performing near field communication. Here, infrared communication is used as near field communication. However, near field communication may be either wired communication using cables or wireless communication using radio waves or infrared rays.

図3に示すように、制御手段2は、記憶手段3に保存されている食生活管理プログラムをメモリに展開することによって食生活管理部20の機能を有することになる。食生活管理部20は、画像処理部21、食生活情報検知部22、食生活情報処理部23、表示出力制御部24、および音声出力制御部25を備えている。   As shown in FIG. 3, the control means 2 has the function of the eating habit management unit 20 by developing the eating habit management program stored in the storage means 3 in the memory. The dietary life management unit 20 includes an image processing unit 21, a dietary life information detection unit 22, a dietary life information processing unit 23, a display output control unit 24, and an audio output control unit 25.

画像処理部21は、カメラ部7によって取得された画像データから、飲食用具等の画像を画像認識処理によって認識する。画像認識処理は、例えば予め与えられた特定のパターン(形)との合致の度合を測るパターンマッチングを行うことによって行われる。なお、飲食用具等の画像の認識は、予め食卓108上に飲食用具等が置かれる場所を予め決めておいて、該場所の情報が使用されて行われてもよい。例えば箸101は、ユーザ(食事者)の最も手前正面に置かれる一対の棒状部材であり、画像認識が容易である。主食用容器104a、主菜用容器104b、副菜用容器104c、および飲料用容器105は、食卓108上の配置場所を予め決めておいて、さらにパターンマッチング等で画像認識することが好ましい。また、飲食用具の画像認識を確実に行うために、予め形状が決められた専用の飲食用具が用意されてもよく、例えば病院等の施設で食生活管理プログラムを実行する場合に好ましい。   The image processing unit 21 recognizes an image such as a food and drink utensil from the image data acquired by the camera unit 7 by image recognition processing. The image recognition process is performed, for example, by performing pattern matching that measures the degree of matching with a specific pattern (shape) given in advance. Note that recognition of an image of a food / drink utensil or the like may be performed by previously determining a place where the food / drink utensil or the like is placed on the table 108 and using the information on the place. For example, the chopsticks 101 are a pair of rod-like members placed in front of the user (dinner), and image recognition is easy. It is preferable that the main food container 104a, the main dish container 104b, the side dish container 104c, and the beverage container 105 are arranged in advance on the table 108 and further image-recognized by pattern matching or the like. In addition, in order to reliably perform image recognition of the eating and drinking utensils, a dedicated eating and drinking utensil having a predetermined shape may be prepared, which is preferable when the eating habit management program is executed in a facility such as a hospital.

食生活情報検知部22は、認識された飲食用具等の画像から、ユーザの食生活に関する情報である食生活情報を検知する。食卓108上に箸101が置かれているか否かによって、箸101が食卓108上に載置されている時間(箸置き時間)、および載置されていない時間(箸持ち時間)の少なくとも一方に基づく情報が検知される。この検知情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。   The eating habits information detection unit 22 detects eating habits information, which is information related to the eating habits of the user, from the recognized images of eating and drinking utensils. Based on whether or not the chopsticks 101 are placed on the table 108, it is based on at least one of the time during which the chopsticks 101 are placed on the table 108 (chopstick placement time) and the time when the chopsticks 101 are not placed (chopstick holding time). Information is detected. This detection information corresponds to one of eating habits information that is information relating to the eating habits of the user.

また、食卓108上に置かれた主食用容器104a、主菜用容器(皿)104b、副菜用容器(皿)104c、飲料用容器105等の飲食物支持具に支持されている飲食物に関する情報である飲食物情報の検知情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。そして、例えば、認識された飲食物支持具の画像の変化から、飲食物支持具に支持されている飲食物の消費量等の飲食物情報が検知され得る。   In addition, the present invention relates to food and drink supported by food and drink support tools such as a main food container 104a, a main dish container (dish) 104b, a side dish container (dish) 104c, and a beverage container 105 placed on the table 108. The food / beverage information detection information, which is information, corresponds to one of the dietary information that is information related to the user's dietary life. And food and beverage information, such as the consumption of the food and drink currently supported by the food and drink support tool, can be detected from the change of the image of the recognized food and drink support tool, for example.

また、飲食物情報の検知情報によって、ユーザによるグラス等の飲料用容器105のコースター106上からの持上げ、あるいはコースター106への載置の回数を検知でき、後記ステップS7において当該回数を操作パネル4に表示させたり、後記ステップS8において当該回数が所定回数よりも多い場合にその旨のメッセージをスピーカ部6を通して音声出力させたりすることにより、アルコールの飲み過ぎを防止することができる。この場合に、飲むピッチが速くならないように、ユーザは事前に情報通信端末1においてグラスの持上げ回数や持上げ動作の時間間隔の目標値を設定することができ、それに合わせて飲むようなナビゲーションが可能となる。また、コースター106に湯のみ茶碗等の飲料用容器105を置いて食事をする場合には、例えば1食でお茶を例えば10回に分けて飲むように、湯のみ茶碗の持上げ回数や持上げ動作の時間間隔の目標値を設定することができ、お茶を飲みながらゆっくりよく噛んで食べる習慣づけが可能となる。   Further, the number of times the user lifts the beverage container 105 such as a glass from the coaster 106 or places it on the coaster 106 can be detected based on the detection information of the food / drink information. If the number of times is greater than the predetermined number in step S8 to be described later, a message to that effect may be output through the speaker unit 6 to prevent excessive drinking of alcohol. In this case, the user can set the target value of the number of times the glass is lifted and the time interval of the lifting operation in advance in the information communication terminal 1 so that the drinking pitch does not become fast, and navigation that allows drinking according to that is possible. It becomes. In addition, when a drink container 105 such as a hot water bowl is placed on the coaster 106 and eats, the number of times the hot water bowl is lifted and the time interval of the lifting operation, for example, so that tea is divided into 10 meals, for example. The target value can be set, and it becomes possible to make a habit of slowly chewing and eating while drinking tea.

食生活情報処理部23は、検知された食生活情報を収集して処理する。表示出力制御部24は、操作パネル4に画像の表示出力を行わせる制御を行う。音声出力制御部25は、スピーカ部6に音声出力を行わせる制御を行う。   The eating habit information processing unit 23 collects and processes the detected eating habits information. The display output control unit 24 performs control to cause the operation panel 4 to display and output an image. The audio output control unit 25 performs control for causing the speaker unit 6 to output audio.

本実施形態では、画像処理部21が、カメラ部7によって取得された画像データから、食事するユーザ(人物)の特に顔の画像をさらに認識し、食生活情報検知部22が、食事中にユーザが着座しているか否かを示す着座情報を検知する。ここで、食事中の着座情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。   In the present embodiment, the image processing unit 21 further recognizes an image of the face of the user (person) who eats from the image data acquired by the camera unit 7, and the dietary information detection unit 22 detects the user during the meal. Seating information indicating whether or not is seated. Here, the seating information during the meal corresponds to one of the eating habits information that is information related to the eating habits of the user.

また、食生活情報検知部22は、食事中の音声をマイク部5を通して取得させて、食事中の音声の中での予め決められたキーワード、例えば「いただきます」や「ごちそうさま」等の有無を示す音声情報を検知する。ここで、食事中の音声情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。   In addition, the eating habits information detection unit 22 acquires the voice during the meal through the microphone unit 5 and checks whether or not there is a predetermined keyword in the voice during the meal, for example, “you receive” or “feast”. The voice information shown is detected. Here, the audio information during the meal corresponds to one of the eating habits information that is information related to the eating habits of the user.

図4に示すように、咀嚼回数計測装置103は、咀嚼情報取得部103aと、近距離通信インタフェース103bと、を有している。咀嚼情報取得部103aは、ユーザの咀嚼回数に応じた咀嚼情報を検知して取得する。ここで、咀嚼情報は、ユーザの食生活に関する情報である食生活情報の一つに相当する。   As shown in FIG. 4, the mastication frequency measuring device 103 has a mastication information acquisition unit 103a and a short-range communication interface 103b. The mastication information acquisition unit 103a detects and acquires mastication information corresponding to the number of mastications of the user. Here, the mastication information corresponds to one of eating habits information that is information related to the eating habits of the user.

咀嚼情報取得部103aとしては、咀嚼運動に伴う下顎の動きを検知して咀嚼情報を取得するもの、顎運動のための筋活動を検知して咀嚼情報を取得するもの、咀嚼時の外耳道の変形や咀嚼音を検知して咀嚼情報を取得するもの、ヘアバンドで側頭筋に装着された圧電素子の出力信号から特定の周波数成分を取り出して咀嚼信号を検知して咀嚼情報を取得するもの等、種々のものが使用され得る。   The mastication information acquisition unit 103a detects the movement of the lower jaw associated with the mastication movement to acquire mastication information, detects the muscle activity for jaw movement and acquires the mastication information, and deforms the ear canal during mastication To acquire mastication information by detecting mastication sound, and to acquire mastication information by detecting a mastication signal by extracting a specific frequency component from the output signal of a piezoelectric element attached to the temporal muscle with a hair band, etc. Various ones can be used.

近距離通信インタフェース103bは、近距離通信インタフェース9と同様のものである。咀嚼回数計測装置103と情報通信端末1とは、近距離通信インタフェース103bおよび近距離通信インタフェース9を介して、情報伝達可能に構成されている。   The near field communication interface 103b is the same as the near field communication interface 9. The mastication number measuring device 103 and the information communication terminal 1 are configured to be capable of transmitting information via the short-range communication interface 103b and the short-range communication interface 9.

図5に示すように、ユーザは、情報通信端末1において、操作パネル4を使用して、食生活に関する目標値の設定が可能となっている。ユーザは、操作パネル4を操作することによって、動作モードを設定モードに移行させ、目標値を入力する。目標値としては、例えば、目標咀嚼回数(例えば一食当たり)、目標箸置き時間(例えば一食当たり)、許容される最大の連続箸持ち時間等が挙げられる。また、ユーザは、操作パネル4を操作することによって、動作モードを、食生活情報の収集・処理を実行する実行モード、目標値等の各種情報を設定する設定モード、食生活情報に基づく情報等の各種情報を表示させる表示モード、に順次移行させることができる。   As shown in FIG. 5, the user can set target values related to eating habits using the operation panel 4 in the information communication terminal 1. By operating the operation panel 4, the user shifts the operation mode to the setting mode and inputs a target value. Examples of the target value include a target number of chewing times (for example, per meal), a target chopstick rest time (for example, per meal), a maximum allowable continuous chopstick holding time, and the like. In addition, the user operates the operation panel 4 to set the operation mode, the execution mode for collecting and processing dietary information, the setting mode for setting various information such as target values, the information based on the dietary information, and the like It is possible to sequentially shift to a display mode for displaying various types of information.

本実施形態に係る食生活管理プログラムがインストールされた情報通信端末1は、箸置き時間や箸持ち時間等の検知情報、咀嚼情報などの食生活情報を収集して処理する食生活情報処理機能、食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報をユーザに提供するナビゲーション機能、および過去所定期間内に処理された食生活情報に基づく情報を履歴情報として記憶するデータ蓄積機能を有している。なお、ユーザは、操作パネル4を操作することによって、例えばナビゲーション機能等の特定の機能を実行させないように設定することが可能となっている。   The information communication terminal 1 in which the eating habit management program according to the present embodiment is installed includes an eating information processing function for collecting and processing eating information such as detection information such as chopstick rest time and chopstick holding time, and chewing information, A navigation function that provides users with navigation information including advice on eating habits according to information based on living information, and a data storage function that stores information based on eating habits information processed within a predetermined past period as history information Have. Note that the user can set the operation panel 4 not to execute a specific function such as a navigation function by operating the operation panel 4.

以上のように構成された情報通信端末1における食生活管理部20の動作について、図6〜図9を参照しながら説明する。図6は、情報通信端末1における食生活管理部20の動作の手順を示すフローチャートである。図7は、食事途中における操作パネル4の表示内容の一例を示す図である。図8は、食事終了時における操作パネル4の表示内容の一例を示す図である。図9は、食事終了時における操作パネル4の表示内容の他の例を示す図である。図10は、食事終了時における操作パネル4の表示内容のさらに他の例を示す図である。   The operation of the dietary life management unit 20 in the information communication terminal 1 configured as described above will be described with reference to FIGS. FIG. 6 is a flowchart showing an operation procedure of the eating habits management unit 20 in the information communication terminal 1. FIG. 7 is a diagram illustrating an example of display contents of the operation panel 4 during a meal. FIG. 8 is a diagram illustrating an example of display contents on the operation panel 4 at the end of the meal. FIG. 9 is a diagram showing another example of the display contents on the operation panel 4 at the end of the meal. FIG. 10 is a diagram showing still another example of the display content of the operation panel 4 at the end of the meal.

図6に示すように、情報通信端末1の制御手段2は、まず、ユーザの食事が開始されたか否かを判断する(ステップS1)。食事の開始は、例えば、ユーザが操作パネル4を通して食生活情報の収集・処理の実行を開始させるための操作を行ったか否かによって判断される。食事がまだ開始されていないと判断された場合(ステップS1:No)、制御手段2はそのまま待機する。   As shown in FIG. 6, the control means 2 of the information communication terminal 1 first determines whether or not the user's meal has started (step S1). The start of a meal is determined by, for example, whether or not the user has performed an operation for starting the collection and processing of eating habits information through the operation panel 4. When it is determined that the meal has not yet started (step S1: No), the control means 2 stands by as it is.

なお、例えば食事の開始前に、操作パネル4を通して、食生活情報を含むユーザに関する情報の入力が受け付けられる(手順E)。   For example, before the start of a meal, input of information about a user including dietary information is accepted through the operation panel 4 (procedure E).

食事が開始されたと判断された場合(ステップS1:Yes)、制御手段2は、カメラ部7に画像データを取得させる(ステップS2;手順A)。また、制御手段2は、内蔵のタイマー(図示せず)を用いて、食事開始からの経過時間を計測することによって食事時間の計測を行う。   When it is determined that the meal has started (step S1: Yes), the control unit 2 causes the camera unit 7 to acquire image data (step S2; procedure A). Moreover, the control means 2 measures meal time by measuring the elapsed time from the meal start using a built-in timer (not shown).

ステップS3(手順B)では、制御手段2は、カメラ部7によって取得された画像データから、箸101の画像を画像認識処理によって認識する。   In step S3 (procedure B), the control means 2 recognizes the image of the chopsticks 101 from the image data acquired by the camera unit 7 by image recognition processing.

ステップS4(手順C)では、制御手段2は、認識された箸101の画像から、食卓108上に箸101が置かれているか否かによって、箸置き時間および箸持ち時間の少なくとも一方を計測し、食生活情報として検知する。   In step S4 (procedure C), the control means 2 measures at least one of the chopstick placement time and the chopstick holding time depending on whether or not the chopstick 101 is placed on the dining table 108 from the recognized image of the chopstick 101. Detect as dietary information.

ステップS4では、箸持ち時間の取得が行われる。すなわち、制御手段2は、ステップS2において計測された食事時間からステップS3において計測された箸置き時間を減算することにより箸持ち時間を算出して取得する。   In step S4, the chopstick holding time is acquired. That is, the control means 2 calculates and obtains the chopstick holding time by subtracting the chopstick rest time measured in step S3 from the meal time measured in step S2.

ステップS5(手順C)では、咀嚼情報の検知が行われる。すなわち、制御手段2は、咀嚼回数計測装置103から、ユーザの食生活情報として、ユーザの咀嚼回数に応じた咀嚼情報を受信して検知する。   In step S5 (procedure C), detection of mastication information is performed. That is, the control means 2 receives and detects mastication information corresponding to the number of mastications of the user from the mastication frequency measuring device 103 as the user's dietary information.

ステップS6では、他の食生活情報の検知が行われる。すなわち、制御手段2は、カメラ部7によって取得された画像データから、主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105等の飲食物支持具の画像を画像認識処理によって認識し、前記飲食物支持具に受容され支持されている飲食物に関する情報である飲食物情報を検知する(手順C)。また、制御手段2は、他の食生活情報として、飲食物情報に加えて、食事中の着座情報、および食事中の音声情報を検知する(手順C)。   In step S6, detection of other dietary information is performed. That is, the control means 2 recognizes images of food and drink support tools such as the main food container 104a, the main dish container 104b, the side dish container 104c, and the beverage container 105 from the image data acquired by the camera unit 7. It recognizes by processing, and detects food and drink information which is information on food and drink received and supported by the food and drink support tool (procedure C). Moreover, the control means 2 detects the seating information in a meal and the audio | voice information in a meal in addition to food / beverage information as other dietary information (procedure C).

そして、制御手段2は、食事中における食生活情報に基づく情報を操作パネル4に表示させる(ステップS7;手順D)。本実施形態では、食生活情報には、箸置き時間や箸持ち時間等の検知情報、咀嚼情報、および飲食物情報が含まれる。ここで、食生活情報に基づく情報とは、食生活情報、または食生活情報から導かれた情報をいう。   And the control means 2 displays the information based on the eating habits information in a meal on the operation panel 4 (step S7; procedure D). In this embodiment, the eating habit information includes detection information such as chopstick rest time and chopstick holding time, mastication information, and food and drink information. Here, the information based on dietary information refers to dietary information or information derived from dietary information.

図7に示すように、本実施形態では、操作パネル4には、咀嚼回数、箸持ち時間、および箸置き時間が表示され、刻一刻と変化する。ここで、ユーザに食生活管理プログラムの使用方法を予め提示しておくことにより、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断され得る。また、例えば、食べた食物や飲んだ飲物の消費量、摂取したエネルギーの量等が操作パネル4に表示され得る。   As shown in FIG. 7, in the present embodiment, the operation panel 4 displays the number of chewing times, the chopstick holding time, and the chopstick rest time, and changes every moment. Here, by showing the user how to use the eating habits management program in advance, the chopstick holding time corresponds to the time when the food is often carried into the mouth and the food is not chewed much, while the chopstick rest It can be determined that the time corresponds to a time when the person often stops eating the food and drinks and bites the food and drink. Further, for example, the consumption of consumed food and drinks consumed, the amount of energy consumed, and the like can be displayed on the operation panel 4.

ステップS8(手順D)では、ナビゲーション情報の出力が行われる。すなわち、制御手段2は、得られた食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報をユーザに提供する。具体的には、制御手段2は、操作パネル4およびスピーカ部6の少なくとも一方にナビゲーション情報を出力させる。このようにすれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となる。   In step S8 (procedure D), navigation information is output. That is, the control means 2 provides the user with navigation information including advice on eating habits according to the information based on the obtained eating habits information. Specifically, the control unit 2 causes navigation information to be output to at least one of the operation panel 4 and the speaker unit 6. If it does in this way, a user can correct eating habits quickly, for example during a meal by obtaining navigation information.

ナビゲーション情報としては、例えば、連続箸持ち時間が、予め設定されている許容される最大の連続箸持ち時間を超えた場合の、「箸を置いてください」とのメッセージが挙げられる。これは、箸101を食卓108上に置いて飲食物をよく噛んでくださいとの意味であり、例えば「箸を置いてよく噛んでください」とのメッセージが出力されてもよい。また、箸置き時間、箸持ち時間、食事時間、咀嚼回数、飲食物情報に応じて他のメッセージが出力されてもよい。また、咀嚼回数を増やすために、咀嚼するタイミングをナビゲーションするためのナビゲーション情報が出力されてもよい。この場合のナビゲーション情報の出力には、リズム、音楽、映像等の各種情報の音声や表示の出力が含まれる。   The navigation information includes, for example, a message “Please put chopsticks” when the continuous chopstick holding time exceeds the preset allowable continuous chopstick holding time. This means that the chopsticks 101 are placed on the table 108 and chew food and drink well. For example, a message “put chopsticks and chew well” may be output. Also, other messages may be output according to the chopstick rest time, chopstick holding time, meal time, number of chewing times, and food / beverage information. In addition, navigation information for navigating the timing of mastication may be output in order to increase the number of mastications. The output of the navigation information in this case includes output of various information such as rhythm, music, video, etc. and display.

食べる順序をユーザに示すために、食べるように指示する飲食物が受容される飲食物支持具が画像や文字等によって操作パネル4を通してユーザに示されるように構成されてもよい。例えば、野菜から重点的に食べるダイエットプラグラムに従って、野菜が受容される副菜用容器104cが指示されてもよい。あるいは、主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105に受容されている飲食物をユーザが少しずつ順番に食べるように、これらが順番に繰り返し指示されてもよい。   In order to show the order of eating to the user, the food and drink support tool that receives the food and drink instructed to eat may be configured to be shown to the user through the operation panel 4 by an image, characters, or the like. For example, the side dish container 104c into which the vegetable is received may be instructed according to a diet program that eats mainly from the vegetable. Or even if these are repeatedly instructed in order so that the user eats the food and drink received in the main dish container 104a, the main dish container 104b, the side dish container 104c, and the beverage container 105 little by little in order. Good.

さらに、主食用容器104a、主菜用容器104b、副菜用容器104cに受容され支持されている飲食物の減少速度が速いと判断される場合、「早く食べ過ぎだよ」等のメッセージが出力されてもよい。また、飲料用容器105に受容されている飲料の減少速度に基づいて、飲料用容器105でアルコール飲料を何杯も飲んでいると判断される場合、「飲み過ぎだよ」等のメッセージが出力されてもよい。例えば、飲食物支持具の認識画像の変化から、飲食物の消費量が検知され得る。さらに、ユーザの年齢に基づいてメッセージの内容を変えることも可能である。例えば、子供に対しては、遊びながらの食事を戒めて食事に集中させるために、食事を速くするためのメッセージが出力され、大人に対しては、ダイエットの観点から食事をゆっくりするためのメッセージが出力されてもよい。   Further, when it is determined that the food and drink received and supported by the main dish container 104a, the main dish container 104b, and the side dish container 104c are fast, a message such as "I eat too much early" is output. May be. In addition, when it is determined that the beverage container 105 is drinking many alcoholic beverages based on the decrease rate of the beverage received in the beverage container 105, a message such as “too much drinking” is output. May be. For example, the consumption of food and drink can be detected from the change in the recognition image of the food and drink support tool. Further, the content of the message can be changed based on the age of the user. For example, for children, a message to speed up the meal is output so that the meal while playing can be constrained and concentrated, and for adults, a message to slow the meal from a diet perspective May be output.

さらに、箸置き時間、箸持ち時間、食事時間、咀嚼回数に応じたメッセージ、飲食物情報に応じたメッセージに加え、食事中の着座情報、食事中の音声情報に応じたメッセージが出力され得る。例えば、食事中の着座情報からユーザが所定時間以上食卓108から離れて着座していないと判断される場合に、「席につきましょう」等のメッセージが出力され得る。   Furthermore, in addition to messages according to chopstick rest time, chopstick holding time, meal time, number of chewing times, and messages according to food and drink information, messages corresponding to seating information during meals and audio information during meals can be output. For example, when it is determined from the seating information during the meal that the user has not been seated away from the table 108 for a predetermined time or longer, a message such as “Let's sit down” can be output.

なお、ステップS2〜S4とステップS5とステップS6、およびステップS7とステップS8は、それぞれ処理順番が変更されてもよいし、同時に実行されてもよい。   Note that the processing order of steps S2 to S4, step S5 and step S6, and steps S7 and S8 may be changed, or may be executed simultaneously.

ステップS9では、制御手段2は、ユーザの食事が終了したか否かを判断する。食事の終了は、例えば、ユーザが操作パネル4を通して食生活情報の収集・処理の実行を終了させるための操作を行ったか否かによって判断される。食事が終了していないと判断された場合(ステップS9:No)、制御手段2は、ステップS2に処理を戻し、ステップS2〜S9が繰り返される。   In step S9, the control means 2 determines whether or not the user's meal has ended. The end of the meal is determined based on, for example, whether or not the user has performed an operation for ending the collection and processing of eating habits information through the operation panel 4. When it is determined that the meal has not ended (step S9: No), the control unit 2 returns the process to step S2, and steps S2 to S9 are repeated.

食事が終了したと判断された場合(ステップS9:Yes)、食生活情報に基づく情報の保存が行われる(ステップS10;手順D)。すなわち、制御手段2は、食生活情報に基づく情報を記憶手段3に記憶させる。本実施形態では、食事中の咀嚼回数合計、一食の食事時間合計、食事中の箸置き時間合計、食事中の箸持ち時間合計、および飲食物情報に基づく情報が記憶手段3に記憶される。また、ユーザ登録情報も記憶手段3に記憶される。なお、食事時刻等の他の情報が記憶されてもよい。記憶手段3内の食生活情報に基づく情報は、履歴情報として、所定期間(例えば2週間)保存される。さらに、履歴情報として、例えば、夕食時刻が不規則である、夕食にあまり野菜を食べない、等の情報が導かれて保存されてもよい。   When it is determined that the meal has ended (step S9: Yes), information based on the eating habit information is stored (step S10; procedure D). That is, the control means 2 stores information based on dietary information in the storage means 3. In the present embodiment, information based on the total number of chewing times during a meal, the total meal time for a meal, the total chopstick rest time during a meal, the total chopstick holding time during a meal, and food and drink information is stored in the storage means 3. User registration information is also stored in the storage means 3. Note that other information such as meal time may be stored. Information based on dietary information in the storage means 3 is stored as history information for a predetermined period (for example, two weeks). Further, as history information, for example, information such as irregular dinner times or not eating much vegetables for dinner may be guided and stored.

このようにすれば、ユーザは、記憶手段3に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。   In this way, the user can contact history information about information based on dietary information stored in the storage unit 3.

ステップS11(手順D)では、制御手段2は、食事終了後における食生活情報に基づく情報を操作パネル4に表示させる。表示される食生活情報に基づく情報は、食事中の咀嚼回数合計、一食の食事時間合計、食事中の箸置き時間合計、食事中の箸持ち時間合計、飲食物情報に基づく情報等である。例えば、図8に示すように、操作パネル4に、一食の食事時間合計、および食事中の咀嚼回数合計が表示される。したがって、ユーザは、食事終了後において、自らの食生活を迅速かつ容易に確認することが可能となる。   In step S11 (procedure D), the control means 2 causes the operation panel 4 to display information based on the eating habits information after the meal ends. The information based on the displayed dietary information includes the total number of chewing times during a meal, the total meal time for one meal, the total chopstick rest time during a meal, the total chopstick holding time during a meal, information based on food and beverage information, and the like. For example, as shown in FIG. 8, the total meal time for one meal and the total number of chewing times during the meal are displayed on the operation panel 4. Therefore, the user can quickly and easily confirm his / her eating habits after the meal is finished.

ステップS12では、制御手段2は、図6に示す処理が終了したか否かを判断する。処理の終了は、例えば、ユーザが操作パネル4を通して所定の終了操作を行ったか否かによって判断される。処理が終了していないと判断された場合(ステップS12:No)、制御手段2は、ステップS11に処理を戻し、表示モードに移行して、ステップS11、S12が繰り返される。   In step S12, the control means 2 determines whether or not the processing shown in FIG. The end of the process is determined based on, for example, whether or not the user has performed a predetermined end operation through the operation panel 4. When it is determined that the process has not ended (step S12: No), the control unit 2 returns the process to step S11, shifts to the display mode, and repeats steps S11 and S12.

このとき、ユーザは、操作パネル4を操作することにより、操作パネル4に表示される表示内容を変更させることができる。例えば図9に示すように、操作パネル4に、目標咀嚼回数達成度(%)、および目標箸置き時間達成度(%)が表示されてもよく、例えば図10に示すように、食生活情報に基づく情報、例えば食事中の咀嚼回数合計がグラフで表示されてもよい。なお、図10では、朝食、昼食、夕食における咀嚼回数合計が最近の複数日に亘って時系列的に表示されている。このように操作パネル4に表示される表示内容を複数種類の中から選択可能とされており、ユーザは、自らの食生活をより容易に確認できる。   At this time, the user can change the display content displayed on the operation panel 4 by operating the operation panel 4. For example, as shown in FIG. 9, the target mastication frequency achievement degree (%) and the target chopstick rest time achievement degree (%) may be displayed on the operation panel 4. For example, as shown in FIG. Information based, for example, the total number of chewing times during a meal may be displayed in a graph. In FIG. 10, the total number of chewing times for breakfast, lunch, and dinner is displayed in a time series over recent days. Thus, the display content displayed on the operation panel 4 can be selected from a plurality of types, and the user can more easily confirm his / her diet.

一方、ステップS12において処理が終了したと判断された場合(ステップS12:Yes)、制御手段2は、図6に示す処理を終了する。   On the other hand, when it is determined in step S12 that the process has ended (step S12: Yes), the control unit 2 ends the process shown in FIG.

前記したように、本実施形態に係る食生活管理プログラムは、カメラ部7に画像データを取得させる手順A(ステップS2)と、取得された画像データから、飲食用具の画像を画像認識処理によって認識する手順B(ステップS3)と、認識された飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順C(ステップS4)と、検知された食生活情報を収集して処理する手順D(ステップS7,S8,S10,S11)と、を有する食生活管理処理を、カメラ部7を備えるコンピュータである情報通信端末1に実行させるものである。   As described above, the eating habit management program according to the present embodiment recognizes the image of the eating and drinking utensil by the image recognition process from the procedure A (step S2) in which the camera unit 7 acquires the image data and the acquired image data. Procedure B (Step S3) to be performed, Procedure C (Step S4) for detecting eating habits information that is information related to the user's eating habits, and the detected eating habits information are collected from the recognized eating and drinking utensil images. The information communication terminal 1, which is a computer including the camera unit 7, performs a dietary life management process having the procedure D (steps S 7, S 8, S 10, S 11) to be processed.

したがって本実施形態によれば、食事の際に必要となる飲食用具である箸置き102等が画像認識処理によって認識されて、ユーザの食生活情報が検知されるとともに、ユーザの食生活情報が収集されて処理される。したがって、ユーザは、自らの食生活に関して収集されて処理された情報を容易に取得することが可能となり、食生活改善のモチベーションを高めることができる。すなわち、ユーザが自らの食生活を容易に確認でき、食生活の改善に繋げることができる。
また、本実施形態は、カメラ部7を備えるスマートフォンやタブレット型コンピュータに食生活管理プログラム(アプリケーション)をインストールするだけで簡単かつ安価に実施できる。
Therefore, according to the present embodiment, the chopstick rest 102 and the like that are necessary for eating are recognized by the image recognition process, the user's eating habits information is detected, and the user's eating habits information is collected. Processed. Therefore, the user can easily acquire information collected and processed regarding his / her eating habits, and can increase motivation for improving eating habits. That is, the user can easily confirm his / her eating habits, which can lead to an improvement in eating habits.
Moreover, this embodiment can be implemented simply and inexpensively by simply installing a dietary management program (application) on a smartphone or tablet computer provided with the camera unit 7.

また、本実施形態では、食生活情報に基づく情報が、ユーザが認識可能な態様で操作パネル4およびスピーカ部6の少なくとも一方を通して出力される。これにより、食生活情報に基づく情報を例えば表示出力したり音声出力したりすることができる。したがって、ユーザは、自らの食生活を迅速かつ容易に確認することが可能となる。   Moreover, in this embodiment, the information based on eating habits information is output through at least one of the operation panel 4 and the speaker part 6 in the aspect which a user can recognize. Thereby, information based on eating habits information can be displayed and output, for example, by voice. Therefore, the user can confirm his / her diet quickly and easily.

また、本実施形態では、過去所定期間内に処理された食生活情報に基づく情報が、履歴情報として記憶手段3に記憶される。これにより、ユーザは、記憶手段3に記憶されている食生活情報に基づく情報についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去所定期間に亘って確認でき、食生活をより改善することが可能となる。   Moreover, in this embodiment, the information based on the dietary information processed in the past predetermined period is memorize | stored in the memory | storage means 3 as historical information. Thereby, the user can contact history information about information based on the eating habit information stored in the storage unit 3. Therefore, the user can confirm his / her eating habits over a predetermined period in the past, and can further improve the eating habits.

また、本実施形態では、食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報がユーザに提供される。このようにすれば、ユーザは、ナビゲーション情報を得ることにより、例えば食事中に迅速に食生活を矯正することが可能となり、食生活をより改善することができる。   In the present embodiment, navigation information including advice on eating habits is provided to the user in accordance with information based on eating habits information. If it does in this way, it will become possible for a user to correct eating habits quickly, for example during a meal by obtaining navigation information, and can improve eating habits more.

また、本実施形態では、飲食物を口に運ぶ箸101の画像が認識され、食卓108上に箸101が置かれているか否かによって、箸101が食卓108上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知される。このようにすれば、ユーザは、箸101が食卓上に載置されている時間(箸置き時間)と載置されていない時間(箸持ち時間)とを容易に取得することが可能となる。したがって、箸持ち時間が、飲食物を口に運ぶことが多く飲食物をあまり噛んでいない時間に相当し、一方、箸置き時間が、飲食物を口に運ぶことを停止して飲食物を噛んでいることが多い時間に相当すると判断することができ、ユーザは、食事中において、自らの食生活を容易に確認することが可能となる。   Further, in the present embodiment, an image of the chopsticks 101 carrying food and drink to the mouth is recognized, and the time for which the chopsticks 101 are placed on the table 108 depending on whether the chopsticks 101 are placed on the table 108, And information based on at least one of the times when the information is not placed is detected. In this way, the user can easily obtain the time when the chopsticks 101 are placed on the table (chopstick placement time) and the time when the chopsticks 101 are not placed (chopstick holding time). Therefore, the chopstick holding time corresponds to the time when the food and drink are often carried into the mouth and the food and drink are not chewed much, while the chopstick rest time stops carrying the food and drink into the mouth and bites the food and drink. It is possible to determine that this time corresponds to a time that is often present, and the user can easily confirm his / her eating habits during a meal.

また、本実施形態では、情報通信端末1の外部に設けられ食事の際の咀嚼回数を測定するための咀嚼回数計測装置103から受信した咀嚼情報が検知される。このようにすれば、ユーザの咀嚼回数に応じた咀嚼情報が検知されるとともに、ユーザの咀嚼回数が収集されて処理される。したがって、ユーザは、自らの食事の際の咀嚼回数が収集されて処理された情報を容易に取得することが可能となる。   Moreover, in this embodiment, the mastication information received from the mastication number measuring device 103 provided outside the information communication terminal 1 for measuring the number of mastication times during meals is detected. If it does in this way, while the mastication information according to the number of times of a user's mastication is detected, the number of times of mastication of a user is collected and processed. Therefore, the user can easily obtain information processed by collecting the number of chewing times during his / her meal.

また、咀嚼回数計測装置103とともに、ユーザが食物を飲み込む動作を検知するマイクロフォンや歪みセンサ等の検知手段を喉の近傍に装着することも可能である。この場合、何回噛んだ後に食物を飲み込んだかという情報を検知することができ、食卓108上に箸101を置いている間の咀嚼回数をカウントする動作に代えて、食物を飲み込むまでの咀嚼回数のカウントが可能になる。したがって、当該回数を操作パネル4に表示させたり、当該回数が所定回数よりも少ない場合にその旨のメッセージをスピーカ部6を通して音声出力させたりすることができる。また、ユーザは事前に情報通信端末1において食物を飲み込むまでの咀嚼回数の目標値を設定することができ、食物をよく噛んで食べる習慣づけが可能となる。   In addition to the mastication count measuring device 103, it is also possible to attach a detection means such as a microphone or a strain sensor that detects the user's swallowing action in the vicinity of the throat. In this case, it is possible to detect information about how many times the food has been swallowed, and the number of chewing times until the food is swallowed instead of the operation of counting the number of chewing times while the chopsticks 101 are placed on the table 108. Can be counted. Therefore, the number of times can be displayed on the operation panel 4, and when the number of times is less than the predetermined number, a message to that effect can be output through the speaker unit 6. In addition, the user can set a target value for the number of times of chewing until the user swallows food in the information communication terminal 1 in advance, and the habit of eating food well can be made.

また、本実施形態では、カメラ部7によって取得された画像データから飲食物を支持する主食用容器104a、主菜用容器104b、副菜用容器104c、飲料用容器105等の飲食物支持具の画像が認識され、飲食物支持具に受容されて支持されている飲食物に関する情報である飲食物情報が検知される。このようにすれば、ユーザは、食事の際に飲食する飲食物に関する情報として、例えば飲食物の消費量等の飲食物情報が収集されて処理された情報を容易に取得することが可能となる。したがって、ユーザの飲食情報を確認でき、ユーザの食生活をより改善することが可能となる。   Moreover, in this embodiment, food / drink support tools such as the main food container 104a, the main dish container 104b, the side dish container 104c, and the beverage container 105 that support food and drink from the image data acquired by the camera unit 7 are used. An image is recognized, and food and drink information that is information related to food and drink received and supported by the food and drink support tool is detected. If it does in this way, it will become possible for a user to acquire easily information which collected foods information, such as consumption of food and drinks, and processed it as information about food and drinks eaten and eaten in the case of a meal. . Therefore, the user's eating and drinking information can be confirmed, and the user's eating habits can be further improved.

また、本実施形態では、食生活情報を含むユーザに関する情報の入力が、入力手段としての操作パネル4を通して受け付けられる。このようにすれば、ユーザは、操作パネル4を通して、飲食物の献立(原材料)情報、エネルギー(カロリー、熱量)情報、成分情報等の食生活情報や、ユーザの性別、年齢、病気歴などのユーザ登録情報を入力することができる。したがって、ユーザの食生活がより詳細に確認可能となるとともに、ユーザの食生活の改善に、より資することが可能となる。   Moreover, in this embodiment, the input of the information regarding the user containing eating habits information is received through the operation panel 4 as an input means. In this way, the user, through the operation panel 4, dietary information such as food and beverage menu (raw materials) information, energy (calorie, calorie) information, ingredient information, and the user's sex, age, disease history, etc. User registration information can be entered. Therefore, the user's eating habits can be confirmed in more detail, and the user's eating habits can be further improved.

また、本実施形態では、食事中の音声がマイク部5を通して取得され、食事中の音声の中での予め決められたキーワードの有無を示す音声情報が検知される。したがって、例えば「いただきます」や「ごちそうさま」等のキーワードの有無を確認することにより、例えば子供の食事マナーの向上や食事の際の家族の団らんを促進することができる。なお、ステップS1の食事開始の判断が、例えば「いただきます」等の食事開始を示すキーワードの発声によって判断され、ステップS12の食事終了の判断が、例えば「ごちそうさま」等の食事終了を示すキーワードの発声によって判断されるように構成されてもよい。   Moreover, in this embodiment, the audio | voice during a meal is acquired through the microphone part 5, and the audio | voice information which shows the presence or absence of the predetermined keyword in the audio | voice during a meal is detected. Therefore, for example, by confirming the presence / absence of keywords such as “I will” or “Feast”, it is possible to improve, for example, the child's manners and encourage family members to eat. It should be noted that the determination of the start of the meal in step S1 is determined by the utterance of a keyword indicating the start of the meal such as “I will receive”, for example, and the determination of the end of the meal in step S12 is the keyword indicating the end of the meal such as “the feast” It may be configured to be determined by utterance.

また、本実施形態では、カメラ部7によって取得された画像データから食事するユーザの画像がさらに認識され、食事中にユーザが着座しているか否かを示す着座情報が検知される。したがって、例えば子供がしっかり座って食事をしているか否かを確認することができ、食事中に子供が動きまわることがないようにチェックすることが可能となる。   Moreover, in this embodiment, the image of the user who eats is further recognized from the image data acquired by the camera part 7, and the seating information which shows whether the user is seated during a meal is detected. Therefore, for example, it can be confirmed whether or not the child sits firmly and eats, and it is possible to check that the child does not move around during the meal.

なお、情報通信端末1は、カメラ部を備えるコンピュータであればよく、通常の携帯電話や、タブレット型コンピュータ、ノート型PC(パーソナルコンピュータ)等のコンピュータ、通信端末、表示端末などであってもよい。例えば、ファミリーレストランなどの注文用タブレットがカメラ部を備えており、食事中の記録データ(食生活情報)を注文用タブレットの操作パネルに表示出力させることも可能である。また、その注文用タブレットからレジ端末へ通信し、レシートに食事中の記録データ(食生活情報)をプリントアウトさせることも可能である。   The information communication terminal 1 may be a computer having a camera unit, and may be a normal mobile phone, a computer such as a tablet computer or a notebook PC (personal computer), a communication terminal, a display terminal, or the like. . For example, an order tablet such as a family restaurant has a camera unit, and it is also possible to display and output recorded data (food life information) during a meal on the operation panel of the order tablet. It is also possible to communicate from the order tablet to the cash register terminal and print out the recorded data (meal life information) during the meal on the receipt.

〔第2の実施形態〕
図11は、本発明の第2の実施形態に係る食生活管理システム100aの概略構成を示す図である。図12は、本発明の第2の実施形態の変形例に係る食生活管理システム100bの概略構成を示す図である。
次に、第2の実施形態に係る食生活管理システム100aについて、前記した第1の実施形態に係る食生活管理システム100と相違する点を説明し、共通する点の説明を適宜省略する。
[Second Embodiment]
FIG. 11 is a diagram showing a schematic configuration of a dietary life management system 100a according to the second embodiment of the present invention. FIG. 12 is a diagram showing a schematic configuration of a dietary life management system 100b according to a modification of the second embodiment of the present invention.
Next, regarding the eating habit management system 100a according to the second embodiment, points that differ from the eating habit management system 100 according to the first embodiment described above will be described, and description of common points will be omitted as appropriate.

図11に示すように、本発明の第2の実施形態に係る食生活管理システム100aは、情報通信端末1がカメラ部7を上に向けて食卓108上に載置されるとともに、支持部材としてのスタンド11が食卓108上に載置されており、凸面鏡12がカメラ部7の上方に位置するようにスタンド11に支持されている点で、第1の実施形態と相違している。カメラ部7として、操作パネル4が向く側を写す自分撮り用のカメラが使用され、情報通信端末1は、操作パネル4およびカメラ部7を上に向けて食卓108上に載置される。なお、図11において、図1に示す食卓108および食卓108上に載置されている飲食用具等、および咀嚼回数計測装置103は、図示が省略されている。   As shown in FIG. 11, the dietary life management system 100a according to the second embodiment of the present invention is configured such that the information communication terminal 1 is placed on the dining table 108 with the camera unit 7 facing upward, and as a support member. Is different from the first embodiment in that the stand 11 is placed on the dining table 108 and the convex mirror 12 is supported by the stand 11 so as to be positioned above the camera unit 7. The camera unit 7 is a self-portrait camera that captures the side to which the operation panel 4 faces, and the information communication terminal 1 is placed on the dining table 108 with the operation panel 4 and the camera unit 7 facing up. In addition, in FIG. 11, illustration is abbreviate | omitted about the dining table 108 shown in FIG. 1, the food-drinks etc. which are mounted on the dining table 108, and the chewing frequency measuring device 103.

この第2の実施形態では、カメラ部7は、凸面鏡12に写った情報通信端末1の周囲の全方位の画像を読み取ることができる。したがって、第3の実施形態によれば、前記した第1の実施形態と同様の作用効果を奏することができることに加えて、複数人のユーザU1,U2(図11ではユーザは2人だが3人以上であってもよい)の動きや食生活情報を検知できるとともに、収集して処理することができる。これにより、複数人のユーザU1,U2の食生活情報に基づく情報を例えば操作パネル4に表示出力することができる。   In the second embodiment, the camera unit 7 can read an omnidirectional image around the information communication terminal 1 reflected on the convex mirror 12. Therefore, according to the third embodiment, in addition to the effects similar to those of the first embodiment described above, in addition to a plurality of users U1 and U2 (in FIG. 11, there are two users but three users). It may be possible to detect movements and eating habits information and collect and process them. Thereby, the information based on the eating habits information of a plurality of users U1 and U2 can be displayed and output on the operation panel 4, for example.

また、図12の第2の実施形態の変形例に係る食生活管理システム100bに示すように、前記支持部材として、食卓108上に載置され複数本の脚部を有する櫓13が使用され、凸面鏡12がカメラ部7の上方に位置するように櫓13の上部に支持されるように構成されてもよい。   Moreover, as shown in the eating habits management system 100b according to the modified example of the second embodiment of FIG. 12, as the support member, a bowl 13 placed on the dining table 108 and having a plurality of legs is used. You may comprise so that the convex mirror 12 may be supported by the upper part of the collar 13 so that it may be located above the camera part 7. FIG.

〔第3の実施形態〕
図13は、本発明の第3の実施形態に係る食生活管理システム100cの全体構成を示す図である。図14は、図13に示される健康情報計測装置111の構成を示すブロック図である。
次に、第3の実施形態に係る食生活管理システム100cについて、前記した第1の実施形態に係る食生活管理システム100と相違する点を説明し、共通する点の説明を適宜省略する。
[Third Embodiment]
FIG. 13 is a diagram showing an overall configuration of a dietary life management system 100c according to the third embodiment of the present invention. FIG. 14 is a block diagram showing a configuration of the health information measuring apparatus 111 shown in FIG.
Next, the eating habits management system 100c according to the third embodiment will be described with respect to differences from the eating habits management system 100 according to the first embodiment described above, and description of common points will be omitted as appropriate.

図13に示すように、本発明の第3の実施形態に係る食生活管理システム100cは、さらに、健康情報計測装置111、PC112、サーバコンピュータ113、および医療機関114を備えている点で、第1の実施形態と相違している。なお、図13において、図1に示す食卓108および食卓108上に載置されている飲食用具等は、図示が省略されている。   As shown in FIG. 13, the dietary management system 100c according to the third embodiment of the present invention is further provided with a health information measuring device 111, a PC 112, a server computer 113, and a medical institution 114. This is different from the first embodiment. In FIG. 13, the table 108 shown in FIG. 1 and the eating and drinking tools placed on the table 108 are not shown.

図14に示すように、健康情報計測装置111は、ユーザの健康状態に関する情報である健康情報を計測する装置である。健康情報計測装置111としては、例えば体重計、体組成計(体重、BMI、体脂肪率、筋肉量、内蔵脂肪、基礎代謝量、推定骨量等を計測)、歩数計、血圧計、体温計、尿糖計、アルコールセンサ、ブレスチェッカ、催眠計、生体センサ等が挙げられる。   As shown in FIG. 14, the health information measuring device 111 is a device that measures health information that is information related to a user's health status. Examples of the health information measuring device 111 include a weight scale, body composition meter (measurement of body weight, BMI, body fat percentage, muscle mass, internal fat, basal metabolism, estimated bone mass, etc.), pedometer, blood pressure monitor, thermometer, A urine sugar meter, an alcohol sensor, a breath checker, a hypnosis meter, a biological sensor and the like can be mentioned.

健康情報計測装置111は、健康情報取得部111aと、近距離通信インタフェース111bと、を有している。健康情報取得部111aは、ユーザの健康状態を検知して健康情報をする。近距離通信インタフェース111bは、近距離通信インタフェース9と同様のものである。   The health information measuring device 111 includes a health information acquisition unit 111a and a short-range communication interface 111b. The health information acquisition unit 111a detects health status of the user and provides health information. The near field communication interface 111b is the same as the near field communication interface 9.

図13に示すように、PC112は、情報通信端末1の制御手段2における食生活管理部20からの情報を保存する保存手段(図示せず)を有している。情報通信端末1とPC112とを、例えばケーブル118や近距離通信インタフェース9で接続することにより、情報通信端末1の記憶手段3に記憶されている食生活情報、健康情報、ユーザ登録情報等の情報をPC112の保存手段に保存することが可能である。また、食生活情報、健康情報、ユーザ登録情報等の情報は、PC112から、インターネット等のネットワーク115を介してサーバコンピュータ113にアップロードすることが可能となっている。   As shown in FIG. 13, the PC 112 has storage means (not shown) that stores information from the dietary life management unit 20 in the control means 2 of the information communication terminal 1. Information such as dietary information, health information, and user registration information stored in the storage means 3 of the information communication terminal 1 by connecting the information communication terminal 1 and the PC 112 with, for example, the cable 118 or the short-range communication interface 9. Can be stored in the storage means of the PC 112. Information such as dietary information, health information, and user registration information can be uploaded from the PC 112 to the server computer 113 via the network 115 such as the Internet.

なお、食生活情報、健康情報、ユーザ登録情報等の情報は、情報通信端末1から、移動通信網等のネットワーク116を介してサーバコンピュータ113にアップロードできるように構成されてもよい。   Information such as dietary information, health information, and user registration information may be configured to be uploaded from the information communication terminal 1 to the server computer 113 via the network 116 such as a mobile communication network.

サーバコンピュータ113は、情報通信端末1からの食生活情報、健康情報、ユーザ登録情報等の情報を保存するデータベース113aを有している。このデータベース113aに保存される情報は、予め登録された会員のみアクセス可能とされている。この場合、例えば会員ごとにIDとパスワードが割り当てられる。また、予め登録された会員には、予め許可された医療機関114が含まれており、医療機関114は、インターネット等のネットワーク117を介してサーバコンピュータ113のデータベース113aに保存されている情報を閲覧することができる。なお、医療機関114の代わりに、あるいはこれに加えて保健所等の公共機関が、予め登録された会員に含まれていてもよい。   The server computer 113 has a database 113a for storing information such as dietary information, health information, and user registration information from the information communication terminal 1. Information stored in the database 113a can be accessed only by members registered in advance. In this case, for example, an ID and a password are assigned to each member. The members registered in advance include a medical institution 114 that is permitted in advance, and the medical institution 114 browses information stored in the database 113a of the server computer 113 via the network 117 such as the Internet. can do. In addition to or in addition to the medical institution 114, public institutions such as health centers may be included in the members registered in advance.

図15は、第3の実施形態に係る情報通信端末1における食生活管理部20の動作の手順を示すフローチャートである。
図15のステップS1〜S6、S9、S12は、図6(第1の実施形態)のステップS1〜S6、S9、S12とそれぞれ同様であるため、その説明を省略する。
FIG. 15 is a flowchart showing the procedure of the operation of the dietary life management unit 20 in the information communication terminal 1 according to the third embodiment.
Steps S1 to S6, S9, and S12 in FIG. 15 are the same as steps S1 to S6, S9, and S12 in FIG. 6 (first embodiment), respectively, and thus description thereof is omitted.

ステップS6a(手順G)では、健康情報の検知が行われる。すなわち、制御手段2は、健康情報計測装置111から受信したユーザの健康情報を検知する。   In step S6a (procedure G), health information is detected. That is, the control unit 2 detects the user's health information received from the health information measuring device 111.

ステップS7a(手順D)では、食事中における食生活情報に基づく情報、および健康情報に基づく情報が操作パネル4に表示される。なお、食事中における食生活情報に基づく情報、および健康情報に基づく情報の少なくとも一方が表示されてもよい。   In step S7a (procedure D), information based on dietary information during meals and information based on health information are displayed on the operation panel 4. Note that at least one of information based on dietary information during meals and information based on health information may be displayed.

ステップS8a(手順D)では、ナビゲーション情報の出力が行われるが、本実施形態では、箸置き時間、箸持ち時間、食事時間、咀嚼回数に応じたメッセージ、飲食物情報に応じたメッセージ、食事中の着座情報、食事中の音声情報に応じたメッセージに加え、健康情報に応じたメッセージが出力され得る。例えば、「体脂肪に気をつけましょう」等のメッセージが出力され得る。   In step S8a (procedure D), navigation information is output. In this embodiment, the chopstick rest time, chopstick holding time, meal time, message corresponding to the number of chewing times, message corresponding to food / drink information, In addition to messages corresponding to seating information and audio information during meals, messages corresponding to health information can be output. For example, a message such as “Let's take care of body fat” may be output.

ステップS10a(手順D)では、制御手段2は、飲食物情報を含む食生活情報に基づく情報、およびユーザ登録情報に加えて、さらに他の食生活情報としての食事中の着座情報に基づく情報および食事中の音声情報に基づく情報(キーワードの有無や発生頻度の情報)、および健康情報に基づく情報を記憶手段3に記憶させる。   In step S10a (procedure D), in addition to information based on dietary information including food and drink information and user registration information, the control means 2 further includes information based on seating information during meals as other dietary information and Information based on voice information during meals (information on presence / absence of keywords and occurrence frequency) and information based on health information are stored in the storage means 3.

ステップS11a(手順D)では、制御手段2は、食事終了後における食生活情報に基づく情報、および健康情報に基づく情報を操作パネル4に表示させる。なお、食事終了後における食生活情報に基づく情報、および健康情報に基づく情報の一方が表示されてもよい。   In step S11a (procedure D), the control means 2 causes the operation panel 4 to display information based on dietary information after the end of meal and information based on health information. Note that one of information based on dietary information after the end of meal and information based on health information may be displayed.

このように第3の実施形態によれば、前記した第1の実施形態と同様の作用効果を奏することができることに加えて、以下の作用効果を奏する。   Thus, according to 3rd Embodiment, in addition to having the same effect as 1st Embodiment mentioned above, there exist the following effects.

すなわち、第3の実施形態では、食生活管理装置として機能する情報通信端末1は、情報通信端末1の外部に設置される外部装置としてのPC112やサーバコンピュータ113と、ケーブル118、近距離通信インタフェース9、移動通信インタフェース8等の通信手段を介して通信する(手順F)。このようにすれば、情報通信端末1は、PC112やサーバコンピュータ113と通信して、各種の情報を授受することが可能となる。   That is, in the third embodiment, the information communication terminal 1 that functions as a dietary life management device includes a PC 112 or a server computer 113 as an external device installed outside the information communication terminal 1, a cable 118, and a short-range communication interface. 9. Communicate via communication means such as the mobile communication interface 8 (procedure F). In this way, the information communication terminal 1 can communicate with the PC 112 and the server computer 113 to exchange various information.

また、第3の実施形態では、情報通信端末1は、ユーザの健康状態に関する情報である健康情報を計測する健康情報計測装置111から受信した健康情報が検知される。このようにすれば、例えば体重計、体組成計、歩数計等の各種の健康情報計測装置111から受信した健康情報を収集して処理することができる。したがって、例えば飲食物の摂取量、歩数計測値等のエネルギー消費量、体重、BMI、体脂肪率等を比較することが可能となり、ユーザの食生活の改善に、より資することが可能となる。   In the third embodiment, the information communication terminal 1 detects the health information received from the health information measuring device 111 that measures health information that is information related to the user's health state. In this way, for example, health information received from various health information measuring devices 111 such as a weight scale, a body composition meter, and a pedometer can be collected and processed. Therefore, for example, it is possible to compare food consumption, energy consumption such as step count measurement values, body weight, BMI, body fat percentage, and the like, which can further contribute to improving the user's diet.

また、第3の実施形態では、食生活情報に基づく情報と健康情報に基づく情報とが操作パネル4に同時に表示出力される。したがって、ユーザは、食生活情報に基づく情報と健康情報に基づく情報とを同時に容易に確認でき、ユーザの食生活の改善に、より資することが可能となる。   In the third embodiment, information based on dietary information and information based on health information are simultaneously displayed and output on the operation panel 4. Therefore, the user can easily check information based on dietary information and information based on health information at the same time, and can further contribute to improvement of the user's dietary life.

また、PC112に情報通信端末1からの情報を保存することができるため、ユーザは、PC112を用いて、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。   Further, since the information from the information communication terminal 1 can be stored in the PC 112, the user can use the PC 112 to contact history information about information based on past dietary information, for example. Therefore, the user can easily confirm his / her dietary habits in the past, and can further improve the dietary habits.

また、会員がアクセス可能なサーバコンピュータ113に情報通信端末1からの情報を保存することができるため、ユーザは、会員となることによりサーバコンピュータ113にアクセスして、例えば過去の食生活情報に基づく情報等についての履歴情報に接することが可能となる。したがって、ユーザは、サーバコンピュータ113にアクセス可能であれば何時でも何処でも自らの食生活を過去に遡って容易に確認でき、食生活をより改善することが可能となる。   Further, since the information from the information communication terminal 1 can be stored in the server computer 113 accessible to the member, the user accesses the server computer 113 by becoming a member, and is based on, for example, past dietary information. It is possible to contact history information about information and the like. Therefore, the user can easily check his / her eating habits anytime and anywhere as long as the server computer 113 can be accessed, and the eating habits can be further improved.

また、予め登録された会員には、予め許可された医療機関114や公共機関が含まれる。したがって、ユーザは、予め許可された医療機関114や公共機関に出向くことにより、医師や栄養士等の専門家から適確な指導を受けることができ、食生活をより確実に改善することが可能となる。   In addition, the members registered in advance include medical institutions 114 and public institutions that are permitted in advance. Therefore, the user can receive appropriate guidance from specialists such as doctors and dietitians by visiting a medical institution 114 or a public institution that has been permitted in advance, and can improve her diet more reliably. Become.

また、第3の実施形態においても、第2の実施形態と同様にして、複数人のユーザの食生活情報や健康情報等が検知されるとともに、収集されて処理されるように構成されてもよいことは勿論である。   Also in the third embodiment, the dietary information and health information of a plurality of users may be detected and collected and processed in the same manner as in the second embodiment. Of course it is good.

以上、本発明について実施形態に基づいて説明したが、本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to above-described embodiment, Various modifications are included. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

例えば、箸101に代えて、カトラリー(ナイフ、フォーク、スプーン)等の飲食物運搬用部材が使用されてもよく、箸置き102に代えて、カトラリーレスト(カトラリー置き)が使用されてもよい。   For example, in place of the chopsticks 101, a food transport member such as cutlery (knives, forks, spoons) may be used, and a cutlery rest (cutlery holder) may be used instead of the chopstick rest 102.

また、食生活管理装置として機能する情報通信端末1は、各家庭に設置されることを想定しているが、本発明はこのような形態での実施に限定されるものではない。例えば、食生活管理装置として機能する情報通信端末1を設置して使用するのに好適な食育レストランを開設し、ユーザが食事の記録データ(食生活情報)をレジ端末でプリントアウト(印刷出力)等してもらって取得するような形態で実施することも可能である。また、食育レストランのレジ端末でプリントアウトするレシート等の用紙に、該食育レストランでの食事の記録データ(食生活情報)に応じて、今後の食生活に関するアドバイス等が記載されるようにしてもよい。さらに、食育レストランにおいて、食事中の咀嚼回数や箸置き時間(食物を噛む時間に相当)に応じて、ポイント(商品やサービスの対価の支払いなどの際に付与される点数)がつくように処理されてもよい。したがって、ユーザは例えば他の商品等の対価の支払いのときに、たまったポイントを利用して値引きを受けることができ、食事中によく噛むことの習慣化につなげることができる。   Moreover, although the information communication terminal 1 which functions as a eating habits management apparatus is assumed to be installed in each home, the present invention is not limited to implementation in such a form. For example, a food education restaurant suitable for installing and using the information communication terminal 1 functioning as a dietary life management device is established, and the user prints out the record data (dietary information) of the meal at the cash register terminal (print output) It is also possible to carry out the information in such a manner that the data is acquired by, for example. In addition, on a paper sheet such as a receipt printed out at a cash register terminal of a food education restaurant, advice related to the future food life should be written in accordance with the record data (food life information) of the meal at the food education restaurant. May be. Furthermore, in a food education restaurant, processing is performed so that points (the points given when paying for goods and services, etc.) are earned according to the number of chewing times during the meal and the chopstick rest time (equivalent to the time for chewing food). May be. Therefore, for example, the user can receive a discount using the accumulated points when paying for the price of other products, etc., and can lead to the habit of chewing well during meals.

また、前記実施形態では、食卓108上に各種の飲食用具等が載置されている場合について説明したが、本発明はこれに限定されるものではない。例えばコンビニエンスストア等の店舗で購入した弁当が食卓108上に載置され、情報通信端末1が、食卓108上において、弁当をカメラ部7によって撮像可能な位置に載置されるようにしてもよい。この場合、弁当における主食、主菜、副菜等の配置が予め決められていて画像認識処理を実施するのに好適な例えばダイエット弁当として提供されてもよい。   Moreover, although the said embodiment demonstrated the case where various food-drinks etc. were mounted on the dining table 108, this invention is not limited to this. For example, a lunch purchased at a store such as a convenience store may be placed on the dining table 108, and the information communication terminal 1 may be placed on the dining table 108 at a position where the lunch can be captured by the camera unit 7. . In this case, the arrangement of staple foods, main dishes, side dishes, etc. in the lunch box may be determined in advance, and may be provided as, for example, a diet lunch box suitable for performing image recognition processing.

また、操作パネル4に、医師、栄養士、教授、先生等の専門家のWeb上のサイト(ホームページ)とリンクするためのボタンを表示させ、該ボタンを操作することによって、専門家の食生活に関する指導情報が得られるように構成されてもよい。指導情報には、ダイエット情報、箸の持ち方等の教育情報、食事のマナー情報等が含まれる。指導情報は操作パネル4に表示出力されてもよいし、スピーカ部6を通して音声出力されてもよい。また、例えば、ユーザが専門家の指導情報を得て、食生活管理プログラムが実行された場合、該専門家のWeb上のサイトに食生活情報に基づく情報や健康情報に基づく情報の各種情報が自動的にアップロードされ、収集および処理されて、統計データとして構築されるようにしてもよい。このような統計データは、ユーザの許可の下で、Web上で公開され得る。また、アップロードされた食生活情報に基づく情報や健康情報に基づく情報の各種情報に基づいて、採点やアドバイスの情報が、ユーザの情報通信端末1に返送される等して、ユーザに提供されてもよい。   In addition, the operation panel 4 displays buttons for linking to websites (homepages) of specialists such as doctors, nutritionists, professors, teachers, etc. You may be comprised so that instruction information may be obtained. The guidance information includes diet information, educational information such as how to hold chopsticks, manner information on meals, and the like. The guidance information may be displayed and output on the operation panel 4 or may be output as voice through the speaker unit 6. In addition, for example, when a user obtains guidance information from an expert and the dietary life management program is executed, various information such as information based on dietary information and information based on health information is displayed on the website of the expert. It may be automatically uploaded, collected and processed, and constructed as statistical data. Such statistical data can be published on the Web with the permission of the user. In addition, based on various information such as information based on uploaded dietary information and information based on health information, scoring and advice information is returned to the user's information communication terminal 1 and provided to the user. Also good.

1 情報通信端末(コンピュータ)
2 制御手段
3 記憶手段
4 操作パネル(出力部、入力手段)
5 マイク部
6 スピーカ部(出力部)
7 カメラ部
8 移動通信インタフェース
9 近距離通信インタフェース
20 食生活管理部
21 画像処理部
22 食生活情報検知部
23 食生活情報処理部
24 表示出力制御部
25 音声出力制御部
101 箸(飲食用具、飲食物運搬用部材)
103 咀嚼回数計測装置
104a 主食用容器(飲食用具、飲食物支持具)
104b 主菜用容器(飲食用具、飲食物支持具)
104c 副菜用容器(飲食用具、飲食物支持具)
105 飲料用容器(飲食用具、飲食物支持具
108 食卓
111 健康情報計測装置(外部装置)
112 PC(外部装置)
113 サーバコンピュータ(外部装置)
114 医療機関
1 Information communication terminal (computer)
2 Control means 3 Storage means 4 Operation panel (output unit, input means)
5 Microphone part 6 Speaker part (output part)
DESCRIPTION OF SYMBOLS 7 Camera part 8 Mobile communication interface 9 Near field communication interface 20 Dietary life management part 21 Image processing part 22 Dietary life information detection part 23 Dietary life information processing part 24 Display output control part 25 Audio | voice output control part 101 Chopsticks (Eating and drinking utensils, eating and drinking Material transporting materials)
103 Chewing Count Measuring Device 104a Main Food Container (Eating and Drinking Tools, Food and Drink Supporting Tools)
104b Main vegetable container (food and drink, food and beverage support)
104c Side dish container (food and drink, food and beverage support)
105 Beverage Containers (Eating and Drinking Tools, Food and Drink Supporting Tools 108 Dining Table 111 Health Information Measuring Device (External Device)
112 PC (external device)
113 Server computer (external device)
114 medical institutions

Claims (19)

カメラ部に画像データを取得させる手順Aと、
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Bにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、
前記手順Cにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されること
を特徴とする食生活管理プログラム。
Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure B, an image of a food transport member that transports food and drink to the mouth is recognized,
In the procedure C, depending on whether or not the food transport member is placed on the table, at least the time when the food transport member is placed on the table and the time when it is not placed Eating habits management program characterized in that information based on one side is detected.
カメラ部に画像データを取得させる手順Aと、
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Cにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されること
を特徴とする食生活管理プログラム。
Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure C, the voice of the user during a meal is acquired through a microphone unit, and voice information indicating presence / absence of a predetermined keyword in the voice of the user during the meal is detected. Eating habits management program.
カメラ部に画像データを取得させる手順Aと、
前記手順Aにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識する手順Bと、
前記手順Bにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知する手順Cと、
前記手順Cにおいて検知された前記食生活情報を収集して処理する手順Dと、
を有する食生活管理処理を、前記カメラ部を備えるコンピュータに実行させるための食生活管理プログラムであって、
前記手順Bにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、
前記手順Cにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されること
を特徴とする食生活管理プログラム。
Procedure A for causing the camera unit to acquire image data;
From the image data acquired in the procedure A, a procedure B for recognizing an image of a food and beverage utensil by an image recognition process;
Procedure C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensil recognized in the procedure B;
Procedure D for collecting and processing the dietary information detected in Procedure C;
A dietary life management program for causing a computer comprising the camera unit to execute a dietary life management process having:
In the procedure B, the image of the user eating from the image data is further recognized,
In the procedure C, seating information indicating whether or not the user is seated during a meal is detected.
前記手順Dにおいて、前記食生活情報に基づく情報が、前記ユーザが認識可能な態様で出力部を通して出力されること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
The dietary life according to any one of claims 1 to 3 , wherein in the procedure D, information based on the dietary life information is output through an output unit in a manner recognizable by the user. Management program.
前記手順Dにおいて、過去所定期間内に処理された前記食生活情報に基づく情報が、履歴情報として記憶手段に記憶されること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
In the procedure D, the information based on the diet information processed in the past within a predetermined period, according to any one of claims 1 to 4, characterized in that it is stored in the storage unit as history information Eating habits management program.
前記手順Dにおいて、前記食生活情報に基づく情報に応じて、食生活に関するアドバイスを含むナビゲーション情報が、前記ユーザに提供されること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
In the procedure D, depending on the information based on the diet information, navigation information including advice on diet, in any one of claims 1 to 5, characterized in that it is provided to the user The dietary management program described.
前記手順Cにおいて、前記コンピュータの外部に設けられ食事の際の咀嚼回数を測定するための咀嚼回数計測装置から受信した咀嚼情報が検知されること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
In the procedure C, any of claims 1 to 6 chewing information received from chewing frequency measurement device for measuring the chewing times during meals provided outside the computer, characterized in that it is detected The dietary management program according to any one of the above.
前記食生活管理処理は、
前記食生活情報を含む前記ユーザに関する情報の入力を、入力手段を通して受け付ける手順Eを有すること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
The dietary management process is:
The eating habit management program according to any one of claims 1 to 7 , further comprising: a procedure E for accepting input of information related to the user including the eating habit information through an input unit.
前記食生活管理処理は、
前記コンピュータの外部に設置される少なくとも一つの外部装置と通信する手順Fを有すること
を特徴とする請求項1乃至請求項のいずれか一項に記載の食生活管理プログラム。
The dietary management process is:
The dietary life management program according to any one of claims 1 to 8 , further comprising a procedure F for communicating with at least one external device installed outside the computer.
前記外部装置には、前記ユーザの健康状態に関する情報である健康情報を計測する健康情報計測装置が含まれ、
前記食生活管理処理は、前記健康情報計測装置から受信した前記健康情報を検知する手順Gを有すること
を特徴とする請求項に記載の食生活管理プログラム。
The external device includes a health information measuring device that measures health information that is information about the health status of the user,
The eating habit management program according to claim 9 , wherein the eating habit management process includes a procedure G for detecting the health information received from the health information measuring device.
前記手順Dにおいて、前記食生活情報に基づく情報と前記健康情報に基づく情報とが同時に出力部に表示出力されること
を特徴とする請求項10に記載の食生活管理プログラム。
11. The eating habit management program according to claim 10 , wherein in the procedure D, information based on the eating habit information and information based on the health information are simultaneously displayed and output on an output unit.
前記外部装置には、前記手順Dにおいて収集されて処理された情報を保存するデータベースを有するサーバコンピュータが含まれ、前記データベースに保存される情報は、予め登録された会員のみアクセス可能であること
を特徴とする請求項乃至請求項11のいずれか一項に記載の食生活管理プログラム。
The external device includes a server computer having a database for storing the information collected and processed in the procedure D, and the information stored in the database is accessible only to members registered in advance. The eating habit management program according to any one of claims 9 to 11 , wherein the eating habit management program is characterized.
前記予め登録された会員には、予め許可された医療機関または公共機関が含まれること
を特徴とする請求項12に記載の食生活管理プログラム。
The dietary life management program according to claim 12 , wherein the pre-registered member includes a medical institution or a public institution permitted in advance.
カメラ部に画像データを取得させるステップAと、
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップBにおいて、飲食物を口に運ぶ飲食物運搬用部材の画像が認識され、
前記ステップCにおいて、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報が検知されること
を特徴とする食生活管理方法。
Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step B, an image of a food transport member that transports food to the mouth is recognized,
In step C, depending on whether or not the food transport member is placed on the table, at least the time when the food transport member is placed on the table and the time when it is not placed A dietary management method characterized in that information based on one side is detected.
カメラ部に画像データを取得させるステップAと、
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップCにおいて、食事中の前記ユーザの音声がマイク部を通して取得され、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報が検知されること
を特徴とする食生活管理方法。
Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step C, voice of the user during a meal is acquired through a microphone unit, and voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal is detected. How to manage your eating habits.
カメラ部に画像データを取得させるステップAと、
前記ステップAにおいて取得された前記画像データから、飲食用具の画像を画像認識処理によって認識するステップBと、
前記ステップBにおいて認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知するステップCと、
前記ステップCにおいて検知された前記食生活情報を収集して処理するステップDと、
を有する食生活管理方法であって、
前記ステップBにおいて、前記画像データから食事する前記ユーザの画像がさらに認識され、
前記ステップCにおいて、食事中に前記ユーザが着座しているか否かを示す着座情報が検知されること
を特徴とする食生活管理方法。
Step A for causing the camera unit to acquire image data;
Step B for recognizing an image of a food and beverage utensil by image recognition processing from the image data acquired in Step A;
Step C for detecting eating habits information, which is information related to a user's eating habits, from the image of the eating and drinking utensils recognized in Step B;
Collecting and processing the dietary information detected in step C; and
A dietary management method comprising:
In step B, the image of the user eating from the image data is further recognized,
In step C, seating information indicating whether or not the user is seated during a meal is detected.
画像データを取得するカメラ部と、
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、飲食物を口に運ぶ飲食物運搬用部材の画像を認識し、食卓上に前記飲食物運搬用部材が置かれているか否かによって、前記飲食物運搬用部材が前記食卓上に載置されている時間、および載置されていない時間の少なくとも一方に基づく情報を検知すること
を特徴とする食生活管理装置。
A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means recognizes an image of a food transport member that transports food to the mouth, and the food transport member is on the table depending on whether the food transport member is placed on the table. A dietary life management device characterized by detecting information based on at least one of a time when the device is placed on the device and a time when the device is not placed.
画像データを取得するカメラ部と、
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、食事中の前記ユーザの音声をマイク部を通して取得し、前記食事中の前記ユーザの音声の中での予め決められたキーワードの有無を示す音声情報を検知すること
を特徴とする食生活管理装置。
A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means acquires the voice of the user during a meal through a microphone unit, and detects voice information indicating the presence or absence of a predetermined keyword in the voice of the user during the meal. Eating habits management device.
画像データを取得するカメラ部と、
前記カメラ部によって取得された前記画像データから、飲食用具の画像を画像認識処理によって認識し、認識された前記飲食用具の画像から、ユーザの食生活に関する情報である食生活情報を検知し、検知された前記食生活情報を収集して処理する制御を行う制御手段と、
を有する食生活管理装置であって、
前記制御手段は、前記画像データから食事する前記ユーザの画像をさらに認識し、食事中に前記ユーザが着座しているか否かを示す着座情報を検知すること
を特徴とする食生活管理装置。
A camera unit for acquiring image data;
From the image data acquired by the camera unit, the image of the eating and drinking utensil is recognized by image recognition processing, and the eating habits information that is information related to the eating habits of the user is detected and detected from the recognized image of the eating and drinking utensil. Control means for performing control to collect and process the dietary information,
A dietary life management device comprising:
The control means further recognizes an image of the user eating from the image data, and detects seating information indicating whether or not the user is seated during the meal.
JP2014019563A 2014-02-04 2014-02-04 Eating habit management program, eating habit management method, and eating habit management device Active JP6368497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014019563A JP6368497B2 (en) 2014-02-04 2014-02-04 Eating habit management program, eating habit management method, and eating habit management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014019563A JP6368497B2 (en) 2014-02-04 2014-02-04 Eating habit management program, eating habit management method, and eating habit management device

Publications (2)

Publication Number Publication Date
JP2015146168A JP2015146168A (en) 2015-08-13
JP6368497B2 true JP6368497B2 (en) 2018-08-01

Family

ID=53890358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014019563A Active JP6368497B2 (en) 2014-02-04 2014-02-04 Eating habit management program, eating habit management method, and eating habit management device

Country Status (1)

Country Link
JP (1) JP6368497B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6403825B1 (en) * 2017-03-27 2018-10-10 foo.log株式会社 Information providing apparatus and program
JP2019101811A (en) * 2017-12-04 2019-06-24 富士通株式会社 Processing program, processing method, processing apparatus, display program, display method, and display controller
EP3764364A4 (en) * 2018-03-29 2021-12-15 Tanita Corporation Component determining device, component determining method, and program
WO2021095767A1 (en) * 2019-11-15 2021-05-20 株式会社Nttドコモ Information processing device
WO2023085434A1 (en) * 2021-11-15 2023-05-19 旭化成ホームズ株式会社 Information processing system, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202251A (en) * 1995-01-30 1996-08-09 Royal Kogyo Kk Toy with uttering function and voice recognition function
JP2003173375A (en) * 2001-09-28 2003-06-20 Toshiba Corp Life management terminal device, life management method and life management system
JP3765776B2 (en) * 2002-07-03 2006-04-12 独立行政法人科学技術振興機構 Chewing function evaluation system
JP2004242902A (en) * 2003-02-14 2004-09-02 Masafumi Matsumura Mastication frequency detector and program therefor
JP2005070908A (en) * 2003-08-20 2005-03-17 Matsumoto Takashi Method and system for measuring meal intake for hospital
JP4938963B2 (en) * 2004-01-19 2012-05-23 裕美 小野 Nutritional guidance computer system
JP2010033326A (en) * 2008-07-29 2010-02-12 Nec Corp Diet-health management system, method, and program
JP2011028382A (en) * 2009-07-22 2011-02-10 Kddi Corp Nutrition management server and nutrition management method for managing nutrition component of meal for each user
JP2012113627A (en) * 2010-11-26 2012-06-14 Terumo Corp Portable terminal, calorie estimation method, and calorie estimation program
JP2012235869A (en) * 2011-05-11 2012-12-06 Sony Corp Information processing apparatus and information processing method
JP3185905U (en) * 2013-03-11 2013-09-12 賢 大久保 Chopstick rest with notification function to prevent continuous use of chopsticks

Also Published As

Publication number Publication date
JP2015146168A (en) 2015-08-13

Similar Documents

Publication Publication Date Title
US20180204638A1 (en) Dynamic scale and accurate food measuring
Shen et al. Assessing the accuracy of a wrist motion tracking method for counting bites across demographic and food variables
JP6170293B2 (en) Eating habits management device
Kalantarian et al. A survey of diet monitoring technology
US9536449B2 (en) Smart watch and food utensil for monitoring food consumption
JP6368497B2 (en) Eating habit management program, eating habit management method, and eating habit management device
US9442100B2 (en) Caloric intake measuring system using spectroscopic and 3D imaging analysis
US9254099B2 (en) Smart watch and food-imaging member for monitoring food consumption
Casperson et al. A mobile phone food record app to digitally capture dietary intake for adolescents in a free-living environment: usability study
US9529385B2 (en) Smart watch and human-to-computer interface for monitoring food consumption
KR100831036B1 (en) System for monitoring health, wellness and fitness
US9314206B2 (en) Diet and calories measurements and control
US20150126873A1 (en) Wearable Spectroscopy Sensor to Measure Food Consumption
US20020099274A1 (en) Portable self-administered health care terminal and a self-administered health support system
WO2010070645A1 (en) Method and system for monitoring eating habits
JP6343371B2 (en) Eating habits management device
CN110853735A (en) Method and device for analyzing intake of dietary component, computer device and storage medium
KR102007482B1 (en) System for mesuring and managing body informantion having personal identification function
Magrini et al. Suppl-1, M7: Wearable Devices for Caloric Intake Assessment: State of Art and Future Developments
JP2014164411A (en) Health management support system and program
JP2004113315A (en) Mastication frequency counter and health management system using the mastication frequency counter
CN110910987A (en) Diet advice generation method and apparatus, computer apparatus, and storage medium
JP2003085289A (en) Eating habit improvement supporting device
JP2016103274A (en) Eating and drinking control method
JP6403825B1 (en) Information providing apparatus and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R150 Certificate of patent or registration of utility model

Ref document number: 6368497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250