JP6654721B1 - Eating system, computer program, and information device - Google Patents

Eating system, computer program, and information device Download PDF

Info

Publication number
JP6654721B1
JP6654721B1 JP2019037562A JP2019037562A JP6654721B1 JP 6654721 B1 JP6654721 B1 JP 6654721B1 JP 2019037562 A JP2019037562 A JP 2019037562A JP 2019037562 A JP2019037562 A JP 2019037562A JP 6654721 B1 JP6654721 B1 JP 6654721B1
Authority
JP
Japan
Prior art keywords
eating
unit
user
determination
utensil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019037562A
Other languages
Japanese (ja)
Other versions
JP2020137927A (en
Inventor
じょんひょん 金
ジョンヒョン 金
将厳 倉岡
将厳 倉岡
拓 軽部
拓 軽部
大貴 西濱
大貴 西濱
周太 ▲徳▼田
周太 ▲徳▼田
一輝 櫻井
一輝 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hakuhodo Inc
Original Assignee
Hakuhodo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hakuhodo Inc filed Critical Hakuhodo Inc
Priority to JP2019037562A priority Critical patent/JP6654721B1/en
Application granted granted Critical
Publication of JP6654721B1 publication Critical patent/JP6654721B1/en
Publication of JP2020137927A publication Critical patent/JP2020137927A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの喫食を新規な手法で検出する。【解決手段】喫食判定システムは、食事用具と、加速度センサと、タッチセンサと、喫食判定部と、を備える。食事用具は、棒状の把持部と、把持部の一端に配置された先端部と、を備える。加速度センサは、食事用具の加速度を検出する。タッチセンサは、先端部に対する接触を検出する。喫食判定部は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いてユーザが喫食したか否かを判定する。【選択図】図6A user's eating is detected by a novel method. The eating determination system includes a eating utensil, an acceleration sensor, a touch sensor, and an eating determining unit. The eating utensil includes a rod-shaped grip portion and a distal end disposed at one end of the grip portion. The acceleration sensor detects the acceleration of the eating utensil. The touch sensor detects contact with the tip. The eating determination unit determines whether or not the user has eaten using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. [Selection diagram] FIG.

Description

本開示は、喫食判定システム、コンピュータプログラム及び情報機器に関する。   The present disclosure relates to a eating determination system, a computer program, and an information device.

食物の好き嫌いのある子供を持つ親にとって食事は悩みの1つである。現在、子供が食事をしたくなるような食事を促進するような食育ツールはあまり存在しない。
例えば、特許文献1には、子供が食物を口に入れることにより音声を発するスプーン、フォーク等の食事用具が開示されている。
Eating is one of the worries for parents who have children who like or dislike food. At present, there are few dietary tools that promote meals that make children want to eat.
For example, Patent Literature 1 discloses a eating utensil such as a spoon and a fork that emits a sound when a child puts food into a mouth.

この食事用具は、棒状の把持部と、把持部に埋め込まれており、把持部の表面に長手方向に沿って露出する棒状の把持電極と、把持部の一端に配置されており、把持電極と絶縁された導体製の先端部と、把持電極と先端部とを導通させた際に音を発するスピーカとを備える。子供が食事用具を手に持ち、先端部を口に含むと、子供の身体を介してスイッチが導通し、スピーカから音が発せられる。この食事用具では把持電極と先端部とが導通することで子供の喫食が検出される。   This eating utensil is a rod-shaped grip, embedded in the grip, and a rod-shaped grip electrode exposed along the longitudinal direction on the surface of the grip, and disposed at one end of the grip. It has an insulated conductor tip and a speaker that emits sound when the gripping electrode and the tip are conducted. When the child holds the eating utensil in his hand and puts the tip in his mouth, the switch conducts through the child's body and a sound is emitted from the speaker. In this eating utensil, a child's eating is detected by conducting between the gripping electrode and the tip.

特開2018−7953号公報JP 2018-7953 A

本開示の一局面は、子供等のユーザの喫食を新規な手法で検出することを目的としている。   One aspect of the present disclosure is to detect eating of a user such as a child by a novel method.

本開示の一態様は、喫食判定システムであって、食事用具と、加速度センサと、タッチセンサと、喫食判定部と、を備える。食事用具は、棒状の把持部と、把持部の一端に配置された先端部と、を備える。加速度センサは、食事用具の加速度を検出する。タッチセンサは、先端部に対する接触を検出する。喫食判定部は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いてユーザが喫食したか否かを判定する。   One embodiment of the present disclosure is a eating determination system, which includes a eating utensil, an acceleration sensor, a touch sensor, and an eating determination unit. The eating utensil includes a rod-shaped grip portion and a tip portion disposed at one end of the grip portion. The acceleration sensor detects the acceleration of the eating utensil. The touch sensor detects contact with the tip. The eating determination unit determines whether or not the user has eaten using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor.

このような構成によれば、子供等のユーザの喫食を新規な手法で検出することができる。
本開示の一態様は、喫食判定部によりユーザが喫食したと判定された場合に、コンテンツを出力可能なコンテンツ出力部にコンテンツを出力させる出力処理部を更に備えてもよい。このような構成によれば、ユーザが喫食したと判定された場合にコンテンツが出力され、その結果、ユーザが食べることを楽しくすることができる。
According to such a configuration, eating of a user such as a child can be detected by a novel method.
One embodiment of the present disclosure may further include an output processing unit that causes the content output unit that can output the content to output the content when the eating determination unit determines that the user has eaten. According to such a configuration, when it is determined that the user has eaten, the content is output, and as a result, the user can enjoy eating.

本開示の一態様では、出力処理部は、食事用具に設けられたコンテンツ出力部にコンテンツを出力させてもよい。このような構成によれば、ユーザの側にコンテンツ出力が可能な食事用具とは別の機器がなくてもユーザに対してコンテンツ出力ができる。   According to one aspect of the present disclosure, the output processing unit may cause the content output unit provided on the meal implement to output the content. According to such a configuration, the content can be output to the user even if there is no device other than the meal utensil capable of outputting the content on the user side.

本開示の一態様は、食事用具は、情報機器と通信するための通信部を更に備えてもよい。出力処理部は、情報機器に設けられたコンテンツ出力部にコンテンツを出力させてもよい。このような構成によれば、情報機器に実装されているコンテンツ出力部を介してコンテンツ出力が行われる。したがって、食事用具にコンテンツ出力部を設けなくても、ユーザに対してコンテンツを出力できる。よって、食事用具にコンテンツ出力部を設け、当該コンテンツ出力部からコンテンツを出力する構成と比較して、食事用具の製造コストを削減することができる。   In one aspect of the present disclosure, the eating utensil may further include a communication unit for communicating with the information device. The output processing unit may cause the content output unit provided in the information device to output the content. According to such a configuration, content output is performed via the content output unit mounted on the information device. Therefore, the content can be output to the user without providing the content output unit in the eating utensil. Therefore, it is possible to reduce the manufacturing cost of the meal utensil as compared with a configuration in which the content utensil is provided with the content output unit and the content output unit outputs the content.

本開示の一態様は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いたユーザの喫食回数をカウントする喫食カウント部を更に備えてもよい。出力処理部は、喫食カウント部によりカウントされた喫食回数に基づいてコンテンツ出力部にコンテンツを出力させてもよい。このような構成によれば、ユーザが食べることを楽しくすることができる。   One embodiment of the present disclosure may further include a eating count unit that counts the number of eating times of the user using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. The output processing unit may cause the content output unit to output the content based on the number of times of eating counted by the eating counting unit. According to such a configuration, the user can enjoy eating.

本開示の一態様は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いたユーザの喫食が止まったか否かを判定する停止判定部を更に備えてもよい。出力処理部は、停止判定部によりユーザの喫食が止まったと判定された場合に、コンテンツ出力部にコンテンツを出力させてもよい。   One embodiment of the present disclosure may further include a stop determination unit that determines whether or not eating of the user using the eating utensil has stopped based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. The output processing unit may cause the content output unit to output the content when the stop determination unit determines that the user has stopped eating.

このような構成によれば、例えば、ユーザがまだ食事中である場合にはユーザに対して喫食を促すコンテンツを出力することで、ユーザが最後まで食物を食べ、食べ残しを少なくすることができる。また例えば、ユーザの食事が終了した場合にはユーザが完食したことに対する褒めるコンテンツ等を出力することで、完食に対するユーザのモチベーションを向上させることができる。   According to such a configuration, for example, when the user is still eating, by outputting the content that prompts the user to eat, the user can eat food to the end and reduce leftovers. . Further, for example, when the user's meal is finished, by outputting content or the like praising the user for completing the meal, the motivation of the user for the complete meal can be improved.

本開示の一態様は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、ユーザの喫食の速さを判定する速さ判定部を更に備えてもよい。そして、出力処理部は、速さ判定部により判定された喫食の速さに基づいてコンテンツ出力部にコンテンツを出力させてもよい。このような構成によれば、ユーザに適切な喫食の速さを教えることができる。   One embodiment of the present disclosure may further include a speed determination unit that determines a user's eating speed based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. Then, the output processing unit may cause the content output unit to output the content based on the eating speed determined by the speed determining unit. According to such a configuration, it is possible to teach the user an appropriate eating speed.

本開示の一態様は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いたユーザの食べ方を判定する食べ方判定部を更に備えてもよい。出力処理部は、食べ方判定部により判定されたユーザの食べ方に基づいてコンテンツ出力部にコンテンツを出力させてもよい。このような構成によれば、ユーザに正しい食べ方を教えることができる。   One embodiment of the present disclosure may further include an eating method determination unit that determines a user's eating method using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. The output processing unit may cause the content output unit to output the content based on the user's eating style determined by the eating style determining unit. According to such a configuration, it is possible to teach the user how to eat correctly.

本開示の別の態様は、通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムである。食事用具は、前述した把持部、先端部、加速度センサ及びタッチセンサと、食事用具通信部と、測定送信処理部と、を備える。食事用具通信部は、情報機器と通信可能である。測定送信処理部は、食事用具通信部を介して加速度センサの測定結果及びタッチセンサの測定結果を情報機器に送信する。情報機器は、食事用具と通信可能な機器通信部を備える。コンピュータプログラムは、情報機器のコンピュータを、測定取得処理部と、喫食判定部と、として機能させる。測定取得処理部は、機器通信部を介して食事用具から受信した加速度センサの測定結果及びタッチセンサの測定結果を取得する。喫食判定部は、測定取得処理部により取得された加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いてユーザが喫食したか否かを判定する。   Another embodiment of the present disclosure is a computer program for an information device that communicates with eating utensils having a communication function. The eating utensil includes the above-described grip, tip, acceleration sensor, and touch sensor, an eating utensil communication unit, and a measurement transmission processing unit. The dining utensil communication unit can communicate with the information device. The measurement transmission processing unit transmits the measurement result of the acceleration sensor and the measurement result of the touch sensor to the information device via the meal communication unit. The information device includes a device communication unit that can communicate with the meal. The computer program causes a computer of the information device to function as a measurement acquisition processing unit and an eating determination unit. The measurement acquisition processing unit acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor received from the eating utensil via the device communication unit. The eating determination unit determines whether or not the user has eaten using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit.

このような構成によれば、上記の喫食判定システムと同様の効果を奏する。
本開示の別の態様は、通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムであって、食事用具は、前記把持部、先端部、加速度センサ及びタッチセンサと、喫食判定部と、食事用具通信部と、判定送信処理部と、を備える。喫食判定部は、加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いてユーザが喫食したか否かを判定する。判定送信処理部は、食事用具通信部を介して喫食判定部による判定結果を情報機器に送信する。情報機器は、機器通信部と、コンテンツ出力部と、を備える。機器通信部は、食事用具と通信可能である。コンテンツ出力部は、コンテンツを出力可能である。コンピュータプログラムは、情報機器のコンピュータを、判定取得処理部と、出力処理部と、として機能させる。判定取得処理部は、機器通信部を介して食事用具から受信した喫食判定部による判定結果を取得する。出力処理部は、判定取得処理部により取得された喫食判定部による判定結果に基づき、コンテンツ出力部にコンテンツを出力させる。
According to such a configuration, an effect similar to that of the above-described eating determination system is obtained.
Another embodiment of the present disclosure is a computer program for an information device that communicates with a meal having a communication function, wherein the meal has a grip, a tip, an acceleration sensor, a touch sensor, and a eating determination unit. , A dining utensil communication unit, and a determination transmission processing unit. The eating determination unit determines whether or not the user has eaten using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor. The determination transmission processing unit transmits the determination result by the eating determination unit to the information device via the meal utensil communication unit. The information device includes a device communication unit and a content output unit. The device communication unit is capable of communicating with meals. The content output unit can output the content. The computer program causes a computer of the information device to function as a determination acquisition processing unit and an output processing unit. The determination acquisition processing unit acquires the determination result by the eating determination unit received from the eating utensil via the device communication unit. The output processing unit causes the content output unit to output the content based on the determination result by the eating determination unit acquired by the determination acquisition processing unit.

このような構成によれば、上記の喫食判定システムと同様の効果を奏する。
本開示の別の態様は、通信機能を有する食事用具と通信を行う情報機器であって、食事用具は、前述した把持部、先端部、加速度センサ、タッチセンサ、食事用具通信部及び測定送信処理部を備える。情報機器は、前述した機器通信部と、測定取得処理部と、喫食判定部と、を備える。測定取得処理部は、機器通信部を介して受信した食事用具からの加速度センサの測定結果及びタッチセンサの測定結果を取得する。喫食判定部は、測定取得処理部により取得された加速度センサの測定結果及びタッチセンサの測定結果に基づき、食事用具を用いてユーザが喫食したか否かを判定する。
According to such a configuration, an effect similar to that of the above-described eating determination system is obtained.
Another embodiment of the present disclosure is an information device that communicates with a meal device having a communication function, wherein the meal device includes the above-described grip, a tip, an acceleration sensor, a touch sensor, a meal communication unit, and a measurement transmission process. It has a unit. The information device includes the device communication unit described above, the measurement acquisition processing unit, and the eating determination unit. The measurement acquisition processing unit acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor from the eating utensils received via the device communication unit. The eating determination unit determines whether or not the user has eaten using the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit.

このような構成によれば、上記の喫食判定システムと同様の効果を奏する。
本開示の別の態様は、通信機能を有する食事用具と通信を行う情報機器であって、食事用具は、前述した把持部、先端部、加速度センサ、タッチセンサ、喫食判定部、食事用具通信部及び判定送信処理部を備える。情報機器は、前述した機器通信部、コンテンツ出力部、判定取得処理部及び出力処理部を備える。
According to such a configuration, an effect similar to that of the above-described eating determination system is obtained.
Another embodiment of the present disclosure is an information device that communicates with a meal device having a communication function, wherein the meal device includes the grip, the tip, the acceleration sensor, the touch sensor, the eating determination unit, and the meal communication unit described above. And a determination transmission processing unit. The information device includes the above-described device communication unit, content output unit, determination acquisition processing unit, and output processing unit.

このような構成によれば、上記の喫食判定システムと同様の効果を奏する。   According to such a configuration, an effect similar to that of the above-described eating determination system is obtained.

図1は食育システムの全体図である。FIG. 1 is an overall view of the dietary education system. 図2は食事用具の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the eating utensil. 図3は情報機器の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the information device. 図4はサーバの構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the server. 図5は第1実施形態のデータ送信処理のフローチャートである。FIG. 5 is a flowchart of the data transmission process according to the first embodiment. 図6は第1実施形態のコンテンツ出力処理のフローチャートである。FIG. 6 is a flowchart of the content output process according to the first embodiment. 図7はユーザの食事ログを示すコンテンツの一例を示す図である。FIG. 7 is a diagram illustrating an example of content indicating a user's meal log. 図8は喫食回数に基づくコンテンツの一例を示す図である。FIG. 8 is a diagram illustrating an example of content based on the number of times of eating. 図9は第2実施形態のデータ送信処理のフローチャートである。FIG. 9 is a flowchart of a data transmission process according to the second embodiment. 図10は第2実施形態のコンテンツ出力処理のフローチャートである。FIG. 10 is a flowchart of the content output process according to the second embodiment.

以下、図面を参照しながら、本開示を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す食育システム1は、食事用具2と、情報機器3と、サーバ4と、を備える。食育システム1は、食事用具2を用いたユーザの喫食を判定し、ユーザが喫食したと判定した場合に、情報機器3により音や画面表示でコンテンツ出力を行うシステムである。食育システム1は、好き嫌いのある子供等に対して食事中にコンテンツ出力を行うことで子供が楽しく食事できるようにするためのシステムである。本実施形態では、食事用具2を用いるユーザとして子供が想定される。また、本実施形態でいう喫食とは、ユーザが食事用具2を使って食物を保持し、食物を口に入れるまでの1回の喫食を意味する。
<食事用具2>
図1に示す本実施形態の食事用具2は、子供用のフォークである。食事用具2は、棒状の把持部21と、把持部21の一端に配置されたフォーク型の先端部22と、を備える。
Hereinafter, embodiments for implementing the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The food education system 1 illustrated in FIG. 1 includes a meal utensil 2, an information device 3, and a server 4. The food education system 1 is a system that determines the user's eating using the eating utensil 2 and, when it is determined that the user has eaten, outputs the content by sound or screen display using the information device 3. The food education system 1 is a system for outputting contents to a child or the like who likes and dislikes during a meal so that the child can enjoy the meal. In the present embodiment, a child is assumed as a user using the meal utensil 2. In addition, the eating in the present embodiment means one eating until the user holds the food using the eating utensil 2 and puts the food into the mouth.
<Eating utensil 2>
The eating utensil 2 of the present embodiment shown in FIG. 1 is a fork for a child. The eating utensil 2 includes a rod-shaped grip 21 and a fork-shaped tip 22 arranged at one end of the grip 21.

食事用具2は、図2に示すように、加速度センサ23、タッチセンサ24、通信部25、電源26、電源スイッチ27及び制御部28を備える。
加速度センサ23は、x軸、y軸及びz軸の3軸方向の食事用具2の加速度を検出する。加速度センサ23は、測定結果を制御部28に出力する。
As shown in FIG. 2, the eating utensil 2 includes an acceleration sensor 23, a touch sensor 24, a communication unit 25, a power supply 26, a power switch 27, and a control unit 28.
The acceleration sensor 23 detects the acceleration of the eating utensil 2 in three directions of the x-axis, the y-axis, and the z-axis. The acceleration sensor 23 outputs the measurement result to the control unit 28.

タッチセンサ24は、先端部22に設けられ、先端部22に対する接触を検出する。本実施形態のタッチセンサ24は、静電容量の変化に基づいて、先端部22に対する接触(タッチ)を検出する。具体的には、タッチセンサ24は、静電容量の変化量が所定の変化量以上である場合に先端部22に対して接触があったと判定する。タッチセンサ24は、測定結果(接触の有無の判定結果)を制御部28に出力する。   The touch sensor 24 is provided on the distal end portion 22 and detects contact with the distal end portion 22. The touch sensor 24 of the present embodiment detects a contact (touch) with the tip 22 based on a change in capacitance. Specifically, the touch sensor 24 determines that the tip 22 has been contacted when the amount of change in capacitance is equal to or greater than a predetermined amount of change. The touch sensor 24 outputs the measurement result (the determination result of the presence or absence of the contact) to the control unit 28.

通信部25は、外部の装置と有線又は無線で通信を行うための通信インタフェースである。本実施形態では、食事用具2は、通信部25を介して情報機器3と無線通信を行う。
電源26は、食事用具2の各部に電力を供給する。
The communication unit 25 is a communication interface for performing wired or wireless communication with an external device. In the present embodiment, the eating utensil 2 performs wireless communication with the information device 3 via the communication unit 25.
The power supply 26 supplies electric power to each part of the eating utensil 2.

電源スイッチ27は、食事用具2の電源26のオンオフを切り替えるためのスイッチである。電源スイッチ27は、図1に示すように、把持部21における先端部22とは反対側の端部近傍に設けられている。   The power switch 27 is a switch for turning on and off the power supply 26 of the eating utensil 2. As shown in FIG. 1, the power switch 27 is provided near an end of the grip 21 opposite to the end 22.

制御部28は、CPU281と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ282)と、を有する周知のマイクロコンピュータを中心に構成される。制御部28の各種機能は、CPU281が非遷移的実体的記憶媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ282が、プログラムを格納した非遷移的実体的記憶媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、制御部28を構成するマイクロコンピュータの数は1つでも複数でもよい。制御部28は、CPU281がプログラムを実行することで、後述する図5に示すデータ送信処理を実行する。データ送信処理が実行されることで、加速度センサ23及びタッチセンサ24の測定結果等が通信部25を介して情報機器3に送信される。
<情報機器3>
情報機器3は、例えばスマートフォン、タブレット端末、パーソナルコンピュータなどの各種の情報機器である。本実施形態では、情報機器3として、ユーザが携帯して使用可能な情報機器(携帯情報端末)の一例としてのスマートフォンが想定される。情報機器3は、図1及び図3に示すように、表示部31、入力部32、スピーカ33、記憶部34、カメラ部35、通信部36及び制御部37を備える。
The control unit 28 is mainly configured by a known microcomputer including a CPU 281 and a semiconductor memory (hereinafter, a memory 282) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 28 are realized by the CPU 281 executing a program stored in a non-transitional substantial storage medium. In this example, the memory 282 corresponds to a non-transitional substantial storage medium storing a program. In addition, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 28 may be one or more. The control unit 28 executes a data transmission process shown in FIG. 5 described later by the CPU 281 executing the program. By executing the data transmission process, the measurement results and the like of the acceleration sensor 23 and the touch sensor 24 are transmitted to the information device 3 via the communication unit 25.
<Information equipment 3>
The information devices 3 are various information devices such as a smartphone, a tablet terminal, and a personal computer. In the present embodiment, a smartphone is assumed as the information device 3 as an example of an information device (portable information terminal) that can be carried and used by a user. The information device 3 includes a display unit 31, an input unit 32, a speaker 33, a storage unit 34, a camera unit 35, a communication unit 36, and a control unit 37, as shown in FIGS.

表示部31は、例えば液晶ディスプレイや有機ELディスプレイなど、画像を表示可能な表示デバイスを有する。
入力部32は、各種入力操作を受け付けるための入力用デバイスを有する。入力部32が備える入力用デバイスには、例えば、ボタン、スイッチ、タッチパネルなどが含まれる。
The display unit 31 has a display device capable of displaying an image, such as a liquid crystal display or an organic EL display.
The input unit 32 has an input device for receiving various input operations. The input devices included in the input unit 32 include, for example, buttons, switches, and touch panels.

スピーカ33は、音を出力可能に構成されている。
記憶部34は、各種データを記憶する。
カメラ部35は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて電子撮像するデジタルカメラである。
The speaker 33 is configured to output a sound.
The storage unit 34 stores various data.
The camera unit 35 is a digital camera that performs electronic imaging using an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

通信部36は、外部の装置と有線又は無線で通信を行うための通信インタフェースである。本実施形態では、情報機器3は、通信部36を介して食事用具2と無線通信を行う。また、情報機器3は、通信部36を介して図1に示すインターネット網5にアクセスし、サーバ4とデータ通信を行う。   The communication unit 36 is a communication interface for performing wired or wireless communication with an external device. In the present embodiment, the information device 3 performs wireless communication with the eating utensil 2 via the communication unit 36. The information device 3 accesses the Internet network 5 shown in FIG. 1 via the communication unit 36 and performs data communication with the server 4.

制御部37は、CPU371と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ372)と、を有する周知のマイクロコンピュータを中心に構成される。制御部37の各種機能は、CPU371が非遷移的実体的記憶媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ372が、プログラムを格納した非遷移的実体的記憶媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、制御部37を構成するマイクロコンピュータの数は1つでも複数でもよい。   The control unit 37 is mainly configured by a well-known microcomputer including a CPU 371 and a semiconductor memory (hereinafter, memory 372) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 37 are realized by the CPU 371 executing a program stored in a non-transitional substantial storage medium. In this example, the memory 372 corresponds to a non-transitional substantial storage medium storing a program. In addition, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 37 may be one or more.

ここで、本実施形態の食育システム1では、食事用具2から送信された加速度センサ23及びタッチセンサ24の測定結果に基づき情報機器3においてユーザが食事用具2を用いて喫食したか否かの判定(以下、喫食判定)が行われる。そして、ユーザが喫食したと判定された場合に、情報機器3において音や画像のコンテンツが出力される。本実施形態では、情報機器3のメモリ372には、喫食判定及び喫食判定に伴うコンテンツ出力を行うための専用のアプリケーションソフトウェア(以下、喫食判定アプリ)がインストールされて記憶されている。この喫食判定アプリを情報機器3において起動することで、後述する図6に示すコンテンツ出力処理が実行される。コンテンツ出力処理が実行されることで喫食判定及びコンテンツ出力が行われる。   Here, in the dietary education system 1 of the present embodiment, it is determined whether or not the user has eaten using the eating tool 2 in the information device 3 based on the measurement results of the acceleration sensor 23 and the touch sensor 24 transmitted from the eating tool 2. A determination (hereinafter, eating determination) is performed. When it is determined that the user has eaten, the information device 3 outputs sound or image content. In this embodiment, the memory 372 of the information device 3 stores and installs dedicated application software (hereinafter, eating determination application) for performing eating determination and content output accompanying the eating determination. By starting the eating determination application in the information device 3, content output processing shown in FIG. 6 described below is executed. By performing the content output process, eating determination and content output are performed.

また、本実施形態では、メモリ372には、喫食判定アプリにより情報機器3から出力される複数パターンのコンテンツ(音や画像)が記憶されている。また、メモリ372には、食事用具2を使用するユーザのユーザ情報が記憶されている。ユーザ情報は、例えば、子供の性別、年齢、苦手な食物等である。これらのユーザ情報は、ユーザの親が入力部32を介して入力することが想定される。   In the present embodiment, the memory 372 stores a plurality of patterns of content (sounds and images) output from the information device 3 by the eating determination application. Further, the memory 372 stores user information of a user who uses the meal utensil 2. The user information is, for example, the child's sex, age, poor food, and the like. It is assumed that the user information is input by the user's parent via the input unit 32.

また、後述する図6に示すコンテンツ出力処理が実行されることで、喫食判定に係る判定結果等を示すデータ(以下、喫食データ)やユーザ情報などが情報機器3からサーバ4に送信される。ここでいう喫食データには、ユーザが喫食したか否かの判定結果を示す情報に加え、ユーザが喫食した時刻を示す情報や、ユーザが食べた又は食べなかった食物又は食材の情報(以下、食物情報)などが含まれる。この食物情報は、食事用具2を使用する子供の親によって入力部32を介して情報機器3に入力されることが想定される。なお、喫食判定アプリには、食事中の子供をカメラ部35により撮像して、撮像した動画又は静止画を記憶する、又は、サーバ4に送信する機能がある。撮像された動画又は静止画は後でユーザの親によって見られることが想定される。
<サーバ4>
サーバ4は、図4に示すように、通信部41、記憶部42及び制御部43を備える。
In addition, by executing content output processing shown in FIG. 6 described later, data (hereinafter, eating data) indicating a determination result related to eating determination and user information are transmitted from the information device 3 to the server 4. The eating data referred to here includes, in addition to the information indicating the determination result as to whether or not the user has eaten, information indicating the time at which the user has eaten, and information on the foods or ingredients that the user has or did not eat (hereinafter, referred to as the following) Food information). It is assumed that the food information is input to the information device 3 via the input unit 32 by the parent of the child using the meal utensil 2. In addition, the eating determination application has a function of capturing an image of a child during a meal with the camera unit 35 and storing the captured moving image or still image, or transmitting the captured image to the server 4. It is assumed that the captured moving image or still image is later viewed by the parent of the user.
<Server 4>
The server 4 includes a communication unit 41, a storage unit 42, and a control unit 43, as shown in FIG.

通信部41は、外部の装置と通信を行うための通信インタフェースである。本実施形態では、サーバ4は、通信部41を介して情報機器3とデータ通信を行う。
記憶部42は、各種データを記憶する。記憶部42には、情報機器3から送信された喫食データとユーザ情報とが互いに関連付けられて記憶されている。記憶部42には、各ユーザの過去の喫食データが食事ログとして記憶される。すなわち、ユーザである子供がどの食物又は食材をいつ食べたか又は食べなかったかという食事ログが記憶されている。
The communication unit 41 is a communication interface for communicating with an external device. In the present embodiment, the server 4 performs data communication with the information device 3 via the communication unit 41.
The storage unit 42 stores various data. In the storage unit 42, the eating data and the user information transmitted from the information device 3 are stored in association with each other. The storage unit 42 stores past eating data of each user as a meal log. That is, a meal log indicating which food or food the child as the user ate or did not eat is stored.

また、記憶部42には、その他にも様々な子供の食育に関するコンテンツ(以下、食育コンテンツ)が記憶されている。例えば、食育コンテンツとしては、子供の苦手な食材を使用した料理のレシピデータやユーザが最近食べていない食物又は食材を示すコンテンツ等が挙げられる。   The storage unit 42 also stores various other contents related to child food education (hereinafter, food education contents). For example, the food education contents include recipe data of dishes using ingredients that children are not good at, and contents indicating foods or ingredients that the user has not eaten recently.

制御部43は、CPU431と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ432)と、を有する周知のマイクロコンピュータを中心に構成される。制御部43の各種機能は、CPU431が非遷移的実体的記憶媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ432が、プログラムを格納した非遷移的実体的記憶媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、制御部43を構成するマイクロコンピュータの数は1つでも複数でもよい。   The control unit 43 is mainly configured by a known microcomputer including a CPU 431 and a semiconductor memory (hereinafter, memory 432) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 43 are realized by the CPU 431 executing a program stored in a non-transitional substantial storage medium. In this example, the memory 432 corresponds to a non-transitional substantial storage medium storing a program. In addition, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 43 may be one or more.

制御部43は、情報機器3からの要求を受け、記憶部42に記憶されている食事ログやその他食育コンテンツなどを情報機器3に送信する。サーバ4から情報を受信した情報機器3の表示部31には様々な画像が表示される。例えば、サーバ4から食事ログを受信した情報機器3の表示部31には図7に示すような画像が表示される。図7に示す例では、食事ログとして、一定期間ごとの或る食材を食べた回数が表示されている。   The control unit 43 receives a request from the information device 3 and transmits a meal log and other dietary education contents stored in the storage unit 42 to the information device 3. Various images are displayed on the display unit 31 of the information device 3 that has received the information from the server 4. For example, an image as shown in FIG. 7 is displayed on the display unit 31 of the information device 3 that has received the meal log from the server 4. In the example illustrated in FIG. 7, the number of times a certain food item has been eaten every certain period is displayed as a meal log.

また、本実施形態では、サーバ4は、ユーザ情報に合わせてユーザに適した情報を適宜のタイミングで情報機器3に送信する。送信される情報としては、例えば、子供が近日食べていない食物又は食材を示す情報や、ユーザが苦手な食材に関する料理のレシピ情報、子供の苦手な食物又は食材に関する食育絵本の紹介情報、他のユーザの食事ログ等が挙げられる。なお、他のユーザの食事ログはランキング形式で送信されてもよい。これらの情報は、主に、食事用具2を使用する子供の親のための情報である。子供の親は例えば他のユーザの食事ログを参考できる。   In the present embodiment, the server 4 transmits information suitable for the user to the information device 3 at appropriate timing in accordance with the user information. Examples of the transmitted information include information indicating foods or ingredients that the child has not eaten in the near future, recipe information of dishes related to ingredients that the user is not good at, introduction information of food education picture books on foods or ingredients that the child is not good at, and other information. And the user's meal log. The meal log of another user may be transmitted in a ranking format. These pieces of information are mainly information for a parent of a child who uses the meal utensil 2. Parents of children can refer to, for example, meal logs of other users.

このように、本実施形態のサーバ4は、情報機器3から受信した喫食データに基づく食事ログ管理、ユーザ情報管理、他のユーザとの食事ログの連携、食育コンテンツの管理及び配信などを行う。   As described above, the server 4 of the present embodiment performs meal log management based on eating data received from the information device 3, user information management, cooperation of meal logs with other users, management and distribution of dietary education contents, and the like. .

[1−2.処理]
[1−2−1.データ送信処理]
次に、食事用具2の制御部28が実行するデータ送信処理について、図5のフローチャートを用いて説明する。なお、データ送信処理は、食事用具2の電源がオンである間において周期的に実行される。
[1-2. processing]
[1-2-1. Data transmission processing]
Next, a data transmission process executed by the control unit 28 of the eating utensil 2 will be described with reference to the flowchart of FIG. The data transmission process is periodically executed while the power of the eating utensil 2 is on.

まず、S101で、制御部28は、加速度センサ23及びタッチセンサ24からセンサ情報を取得する。ここでいうセンサ情報は、センサ23,24の測定結果及び測定時刻を含む情報である。   First, in S101, the control unit 28 acquires sensor information from the acceleration sensor 23 and the touch sensor 24. The sensor information referred to here is information including the measurement results of the sensors 23 and 24 and the measurement time.

続いて、S102で、制御部28は、S101で取得されたセンサ情報を通信部25を介して情報機器3に送信する。なお、食事用具2から送信され、情報機器3により受信されたセンサ情報は、情報機器3の記憶部34に記憶される。制御部28は、S102を実行すると図5のデータ送信処理を終了する。   Subsequently, in S102, the control unit 28 transmits the sensor information acquired in S101 to the information device 3 via the communication unit 25. The sensor information transmitted from the eating utensil 2 and received by the information device 3 is stored in the storage unit 34 of the information device 3. After executing S102, the control unit 28 ends the data transmission process of FIG.

[1−2−2.コンテンツ出力処理]
次に、情報機器3の制御部37が実行するコンテンツ出力処理について、図6のフローチャートを用いて説明する。コンテンツ出力処理は、喫食判定アプリが起動されている状態において周期的に実行される。なお、情報機器3は、コンテンツ出力処理の実行中は、食事用具2を使って食事しているユーザの側(少なくとも情報機器3から出力される音や画像などのコンテンツがユーザに届く又はユーザが確認できる範囲)に存在していることが想定される。
[1-2-2. Content output processing]
Next, content output processing executed by the control unit 37 of the information device 3 will be described with reference to the flowchart of FIG. The content output process is periodically executed while the eating determination application is running. During the execution of the content output process, the information device 3 is on the side of the user who is eating with the meal utensil 2 (at least the content such as sound or image output from the information device 3 reaches the user or It is assumed that it exists within the range that can be confirmed.

まず、S201で、制御部37は、食事用具2から受信して記憶されたセンサ情報を記憶部34から取得する。ここで、制御部37は、過去一定時間に亘るセンサ情報を記憶部34から取得する。ここでいう過去一定時間は、ユーザが食事用具2を使って食物を保持し、食物を口に入れるまでの時間を目安に設定される。   First, in S201, the control unit 37 acquires from the storage unit 34 the sensor information received and stored from the eating utensil 2. Here, the control unit 37 acquires the sensor information over the past fixed time from the storage unit 34. The certain time period in the past is set based on the time from when the user holds the food using the eating utensil 2 until the user puts the food in the mouth.

続いて、S202で、制御部37は、S201で取得されたセンサ情報に基づき、ユーザが食事用具2を用いて喫食したか否かを判定する。ここで、制御部37は、取得されたセンサ情報を基に、食事用具2の状態が、鉛直方向(すなわち重力方向)の下方に加速度が作用している状態(以下、下降状態)から鉛直方向の上方に加速度が作用している状態(以下、上昇状態)に切り替わり、かつ、この下降状態から上昇状態への切替りが検出されてから所定時間以内にタッチセンサ24により食事用具2の先端部22に対する接触が検出された場合に、ユーザが食事用具2を用いて喫食したと判定する。   Subsequently, in S202, the control unit 37 determines whether or not the user has eaten using the eating utensil 2 based on the sensor information acquired in S201. Here, based on the acquired sensor information, the control unit 37 changes the state of the eating utensil 2 from a state in which acceleration acts downward in the vertical direction (that is, the direction of gravity) (hereinafter, a downward state). The tip of the eating utensil 2 is switched by the touch sensor 24 within a predetermined time after switching to a state in which acceleration is acting above (hereinafter, ascending state) and detecting switching from the descending state to the ascending state. When the contact with the user 22 is detected, it is determined that the user has eaten using the eating utensil 2.

判定基準がこのように設定される理由は以下のとおりである。ユーザが喫食する場合、まずユーザは食事用具2で食物を保持するため食事用具2を食物に対して上方から接近させる(つまり食事用具2に鉛直方向の下方に向かう加速度が加わる。)。そして、ユーザは、食事用具2で食物を保持すると食物をユーザの口に運ぶ(つまり食事用具2が上昇し、食事用具2に鉛直方向の上方に向かう加速度が加わる。)。つまり、この行為が行われると、食事用具2の状態が下降状態から上昇状態に切り替わる。そして、ユーザが食物を口に含むと、食事用具2の先端部22に対する接触が検出される。このような理由から本実施形態ではユーザが食事用具2を使って喫食したか否かの判定基準として上記判定基準が設定される。   The reason why the criterion is set in this way is as follows. When the user eats, first, the user brings the food utensil 2 close to the food from above in order to hold the food with the food utensil 2 (that is, the vertical acceleration is applied to the food utensil 2). When the user holds the food with the food utensil 2, the user carries the food to the user's mouth (that is, the food utensil 2 rises, and the vertical acceleration is applied to the food utensil 2). That is, when this action is performed, the state of the eating utensil 2 switches from the descending state to the ascending state. When the user includes food in his / her mouth, contact with the tip 22 of the eating utensil 2 is detected. For this reason, in the present embodiment, the above-described determination criterion is set as a criterion for determining whether or not the user ate with the meal utensil 2.

なお、食事用具2の先端部22がユーザの口に含まれると、タッチセンサ24に口内の液体(唾液)が付着し、タッチセンサ24により検出される静電容量が変化する。タッチセンサ24は、この静電容量の変化を検出することで先端部22に対する接触を検出する。   When the distal end portion 22 of the eating utensil 2 is included in the user's mouth, liquid (saliva) in the mouth adheres to the touch sensor 24, and the capacitance detected by the touch sensor 24 changes. The touch sensor 24 detects contact with the tip 22 by detecting the change in the capacitance.

なお、タッチセンサ24が接触ありと判定するときのしきい値となる静電容量の所定の変化量は、野菜などの食物に先端部22を接触させたときにタッチセンサ24に付着する水分による静電容量の標準的な変化量よりも大きく設定される。また、前記所定の変化量は、先端部22がユーザの口内に含まれたときにタッチセンサ24に付着する水分による静電容量の標準的な変化量よりも小さく設定される。これは、野菜などの食物に先端部22を接触させたときにタッチセンサ24により接触ありと判定され、その時点で喫食(ユーザが食物を口に含む行為)があったと誤判定されることを抑制するためである。   The predetermined amount of change in the capacitance, which is the threshold value when the touch sensor 24 determines that there is a contact, depends on the moisture attached to the touch sensor 24 when the tip portion 22 comes into contact with food such as vegetables. The capacitance is set to be larger than the standard change amount. Further, the predetermined amount of change is set to be smaller than a standard amount of change in capacitance due to moisture adhering to the touch sensor 24 when the tip 22 is included in the mouth of the user. This means that when the tip portion 22 is brought into contact with food such as vegetables, it is determined by the touch sensor 24 that there is a contact, and at that point, it is erroneously determined that there was eating (the act of the user including food in the mouth). This is for suppressing.

制御部37は、S202でユーザが喫食したと判定した場合(S202:YES)には、S203へ移行し、スピーカ33を介してコンテンツを出力する。
具体的には、本実施形態では、ユーザの喫食が検出された場合、ユーザの喫食行為に合わせて、あらかじめ選択された音が再生される。ここで再生される音としては、例えば、ユーザが食べている食物や食材に関する音やユーザを飽きさせない効果音などが挙げられる。このような音としては、例えば、食物や食材の名前をオノマトペ化した音(例えば食物が人参である場合は「にんにんにん」等)や、食物や食材に対するクイズをリズミカルにした音(例えば「今食べているのは何色?緑?オレンジ?」との音声等)が挙げられる。また例えば、食べる行為と関連するオノマトペ(例えば「パクパク」との音声等)や、その他面白い効果音などが挙げられる。
When it is determined that the user has eaten in S202 (S202: YES), the control unit 37 shifts to S203 and outputs the content via the speaker 33.
Specifically, in the present embodiment, when the user's eating is detected, a sound selected in advance is reproduced in accordance with the user's eating behavior. The sounds reproduced here include, for example, sounds related to foods and ingredients eaten by the user, sound effects that do not make the user tired, and the like. Such sounds include, for example, sounds of onomatopoeia of food or food ingredients (for example, “garlic” if food is carrot), and rhythmical sounds of quizzes on food or food ingredients. (For example, "What color are you eating? Green? Orange?"). Further, for example, onomatopoeia (for example, a sound such as "Pakupaku") related to eating behavior, and other interesting sound effects may be mentioned.

再生したい音の種類は、喫食判定アプリで選択できる。例えば、食材の名前をオノマトペ化した音を再生する際は、ユーザの親が食材を喫食判定アプリにおいてあらかじめ選択しておき、ユーザの喫食が検出された場合に選択された音が出力される。   The type of sound to be reproduced can be selected with the eating judgment application. For example, when playing a sound in which the name of an ingredient is converted to onomatopoeia, the parent of the user selects the ingredient in advance in the eating determination application, and the selected sound is output when the eating of the user is detected.

具体的には、本実施形態では喫食判定アプリを起動して表示部31に表示される所定のソフトウェアボタンを選択すると食材リストが表示部31に表示される。そして、ユーザの親がユーザが食べる食材を1又は複数個選択すると、選択された食材に対応する音が出力される。なお、複数の食材が選択された場合、選択された食材に対応する音がランダムに出力される。また、本実施形態では、音色及び/又は声質が異なる複数パターンの音を選択可能であり、ユーザの親が複数パターンの音の中から再生したい音を選択する。   Specifically, in this embodiment, when the eating determination application is activated and a predetermined software button displayed on the display unit 31 is selected, a food list is displayed on the display unit 31. Then, when the parent of the user selects one or a plurality of ingredients that the user eats, a sound corresponding to the selected ingredients is output. When a plurality of ingredients are selected, sounds corresponding to the selected ingredients are output at random. In the present embodiment, a plurality of patterns of sounds having different timbres and / or voice qualities can be selected, and the parent of the user selects a sound to be reproduced from the plurality of patterns of sounds.

続いて、S204で、制御部37は、記憶部34に記憶されている喫食回数を1だけ増加する。ここで、記憶部34には、ユーザの食事が開始されてからの喫食回数が記憶されており、制御部37は当該喫食回数を1だけ増加する。なお、ユーザの食事が開始されたか否かの判定については種々の判定方法が想定される。例えば、喫食判定アプリが起動されたことをもってユーザの食事が開始されと簡易的に判定されてもよい。   Subsequently, in S204, the control unit 37 increases the number of times of eating stored in the storage unit 34 by one. Here, the storage unit 34 stores the number of eating times since the user's meal started, and the control unit 37 increases the number of eating times by one. It should be noted that various determination methods are conceivable for determining whether or not the user's meal has started. For example, it may be simply determined that the user's meal is started when the eating determination application is activated.

制御部37は、S204を実行すると後述するS205へ移行する。
一方、制御部37は、前述したS202でユーザが食事用具2を用いて喫食していないと判定した場合(S202:NO)には、前述したS203及びS204を飛ばしてS205へ移行する。
After executing S204, the control unit 37 proceeds to S205 described later.
On the other hand, when it is determined in S202 that the user is not eating with the eating utensil 2 (S202: NO), the control unit 37 skips S203 and S204 and proceeds to S205.

S205で、制御部37は、記憶部34から食事が開始されてからの喫食回数を取得する。
続いて、S206で、制御部37は、S205で取得された喫食回数に基づくコンテンツ出力を表示部31を介して行う。具体的には、制御部37は、ユーザの喫食回数に合わせて、表示部31に表示されたコンテンツをリアルタイムに変化させる。例えば、制御部37は、図8に示すように、喫食回数を表示部31に表示させ、ユーザの喫食に合わせてリアルタイムに喫食回数を変化させる。また例えば、制御部37は、ユーザの喫食回数に合わせて草などの植物が増える、パンダなどの動物が喫食回数の変化に合わせて食べるといったコンテンツを表示部31に出力させる。
In S205, the control unit 37 acquires the number of times of eating since the start of the meal from the storage unit 34.
Subsequently, in S206, the control unit 37 outputs the content based on the number of times of eating acquired in S205 via the display unit 31. Specifically, the control unit 37 changes the content displayed on the display unit 31 in real time according to the number of times of eating by the user. For example, as shown in FIG. 8, the control unit 37 causes the display unit 31 to display the number of times of eating, and changes the number of times of eating in real time according to the user's eating. Further, for example, the control unit 37 causes the display unit 31 to output contents such that plants such as grass increase in accordance with the number of times of eating by the user, and animals such as panda eat in accordance with the change in the number of times of eating.

続いて、S207で、制御部37は、S205で取得された喫食回数が一定回数以上であるか否かを判定する。
制御部37は、S207で喫食回数が一定回数以上であると判定した場合(S207:YES)には、S208へ移行し、表示部31及びスピーカ33を介してコンテンツを出力させる。例えば、制御部37は、ユーザのモチベーションが上がるようなコンテンツを出力させる。このようなコンテンツとしては、例えば、「5回食べたよ、すごい!」などの音や画像の出力が挙げられる。制御部37は、S208を実行すると後述するS209へ移行する。
Subsequently, in S207, the control unit 37 determines whether or not the number of times of eating acquired in S205 is a certain number or more.
When the control unit 37 determines in S207 that the number of times of eating is equal to or more than the predetermined number (S207: YES), the process proceeds to S208, and causes the content to be output via the display unit 31 and the speaker 33. For example, the control unit 37 outputs content that motivates the user. Such content includes, for example, sound or image output such as “I ate five times, amazing!”. After executing S208, the control unit 37 proceeds to S209 described below.

一方、制御部37は、S207で喫食回数が一定回数以上でない(つまり一定回数未満である)と判定した場合(S207:NO)には、前述したS208を飛ばしてS209へ移行する。   On the other hand, if it is determined in S207 that the number of times of eating is not equal to or more than the certain number of times (that is, less than the certain number of times) (S207: NO), the control unit 37 skips S208 described above and proceeds to S209.

S209で、制御部37は、S201で取得されたセンサ情報に基づきユーザの食べ方を判定する。
具体的には、制御部37は、S209で、ユーザが食事用具2を正しく使って食物又は食材を食べているか否かを判定する。制御部37は、この判定を行うに当たり次の2つの判定(判定A及び判定B)を行う。
(判定A)制御部37は、加速度センサ23の測定結果に基づいて、ユーザが食事用具2を使って食物を保持してから口に運ぶまでの間に食事用具2が水平に保たれているか否かを判定する。具体的には、制御部37は、食事用具2の状態が下降状態から上昇状態に切り替わってからタッチセンサ24により接触が検出されるまでの間の加速度センサ23の測定結果に基づいて鉛直方向(すなわち重力方向)に対する食事用具2の傾斜角度を判定する。そして、制御部37は、判定された当該傾斜角度に基づいて食事用具2が水平に保たれているか否かを判定する。
(判定B)制御部37は、加速度センサ23の測定結果に基づいて、ユーザが食事用具2を振り回したり投げたりしているかを判定する。例えば、制御部37は、鉛直上方又は鉛直下方への不規則な加速度(例えば短時間で下降状態及び上昇状態が複数回切り替わる等)が検出されたり急激な水平方向の加速度が検出されたりした場合に、ユーザが食事用具2を投げたり振り回したりしていると判定する。一方、制御部37は、そのような不規則な加速度等が検出されない場合に、ユーザが食事用具2を投げたり振り回したりしていないと判定する。
In S209, the control unit 37 determines how to eat by the user based on the sensor information acquired in S201.
Specifically, in S209, the control unit 37 determines whether or not the user is eating food or food using the eating tool 2 correctly. When performing this determination, the control unit 37 performs the following two determinations (determination A and determination B).
(Determination A) Based on the measurement result of the acceleration sensor 23, the control unit 37 determines whether the eating utensil 2 is kept horizontal between the time when the user holds the food using the eating utensil 2 and brings the food to the mouth. Determine whether or not. Specifically, the control unit 37 determines the vertical direction (based on the measurement result of the acceleration sensor 23 from when the state of the eating utensil 2 is switched from the down state to the up state until the contact is detected by the touch sensor 24). That is, the inclination angle of the eating utensil 2 with respect to the direction of gravity is determined. Then, the control unit 37 determines whether or not the eating utensil 2 is kept horizontal based on the determined inclination angle.
(Determination B) The controller 37 determines whether the user is swinging or throwing the eating utensil 2 based on the measurement result of the acceleration sensor 23. For example, when the controller 37 detects an irregular acceleration vertically upward or vertically downward (for example, the descending state and the ascending state are switched a plurality of times in a short period of time) or a sudden horizontal acceleration is detected. Then, it is determined that the user is throwing or swinging the eating utensil 2. On the other hand, when such irregular acceleration or the like is not detected, the control unit 37 determines that the user has not thrown or swung the eating utensil 2.

制御部37は、判定Aにおいてユーザが食事用具2を使って食物を保持してから口に運ぶまでの間に食事用具2が水平に保たれていると判定し(判定A:YES)、かつ、判定Bにおいてユーザが食事用具2を振り回したり投げたりしていないと判定した場合(判定B:NO)に、ユーザが食事用具2を正しく使って食物を食べていると判定する。一方、制御部37は、判定Aにおいてユーザが食事用具2で食物を保持してから口に運ぶまでの間に食事用具2が水平に保たれていないと判定した場合(判定A:NO)、又は、ユーザが食事用具2を振り回したり投げたりしていると判定した場合(判定B:YES)に、ユーザが食事用具2を正しく使って食物を食べていないと判定する。   The control unit 37 determines that the eating utensil 2 is kept horizontal between the time when the user holds the food using the eating utensil 2 and carries it to the mouth in the determination A (determination A: YES), and If it is determined in determination B that the user is not swinging or throwing the eating utensil 2 (determination B: NO), it is determined that the user is properly using the eating utensil 2 and eating food. On the other hand, when the control unit 37 determines that the eating utensil 2 is not kept horizontal between the time when the user holds the food with the eating utensil 2 and brings it to the mouth in the determination A (determination A: NO), Alternatively, when it is determined that the user is swinging or throwing the eating utensil 2 (determination B: YES), it is determined that the user does not use the eating utensil 2 correctly and eats food.

続いて、S210で、制御部37は、S209の判定結果に基づくコンテンツ出力をスピーカ33を介して行う。具体的には、制御部37は、S209でユーザが食事用具2を正しく使って食物を食べていると判定した場合にはスピーカ33を介して褒め言葉(「良い食べ方で食べられたね、すごい」との音声等)を出力する。一方、制御部37は、S209で食事用具2を正しく使って食物を食べていないと判定した場合にはスピーカ33を介してユーザの食べ方に合わせたフィードバック(「だめ!ちゃんと扱いましょう」との音声等)を出力する。   Subsequently, in S210, the control unit 37 outputs the content via the speaker 33 based on the determination result in S209. Specifically, if the control unit 37 determines in S209 that the user is eating food with the correct use of the eating utensil 2, the control unit 37 uses the speaker 33 to give a compliment (“I was able to eat good food. Etc.). On the other hand, if it is determined in step S209 that the user does not eat the food by using the meal utensil 2 correctly, the control unit 37 uses the speaker 33 to provide feedback according to the user's eating style ("No, let's handle it properly"). Etc.) is output.

続いて、S211で、制御部37は、S201で取得されたセンサ情報に基づきユーザの喫食の速さを判定する。具体的には、制御部37は、ユーザが食事用具2を使って食物を保持してから食物を口に含むまで(食事用具2の状態が下降状態から上昇状態に切り替わってからタッチセンサ24により接触を検出するまで)の時間が所定時間未満である場合にユーザの喫食の速さが早いと判定する。一方、制御部37は、ユーザが食事用具2を使って食物を保持してから食物を口に含むまで時間が所定時間以上である場合にユーザの喫食の速さが早くないと判定する。   Subsequently, in S211, the control unit 37 determines the eating speed of the user based on the sensor information acquired in S201. More specifically, the control unit 37 controls the touch sensor 24 from when the user holds the food using the eating utensil 2 until the user includes the food in the mouth (after the state of the eating utensil 2 switches from the down state to the ascending state). If the time (until contact is detected) is less than the predetermined time, it is determined that the user's eating speed is fast. On the other hand, the control unit 37 determines that the eating speed of the user is not fast when the time from when the user holds the food using the meal utensil 2 to when the user includes the food in the mouth is a predetermined time or more.

続いて、S212で、制御部37は、S211の判定結果に基づくコンテンツ出力をスピーカ33を介して行う。具体的には、制御部37は、S211でユーザの喫食の速さが早いと判定した場合にはスピーカ33を介してユーザにゆっくり食べることを促す音(「ゆっくり〜」との音声等)を出力する。   Subsequently, in S212, the control unit 37 outputs the content based on the determination result in S211 via the speaker 33. Specifically, when it is determined in S211 that the user's eating speed is fast, the control unit 37 outputs a sound (such as a sound “slowly”) prompting the user to eat slowly through the speaker 33. Output.

続いて、S213で、制御部37は、ユーザの喫食が止まったか否かを判定する。ここで、制御部37は、直近でS202でユーザが喫食したと判定されてから所定時間以上ユーザの喫食が検出されない場合にユーザの喫食が止まったと判定する。   Subsequently, in S213, the control unit 37 determines whether or not the user has stopped eating. Here, the control unit 37 determines that the user's eating has stopped if the user's eating is not detected for a predetermined time or more after the determination in S202 that the user has eaten most recently.

制御部37は、S213でユーザの喫食が止まったと判定した場合(S213:YES)には、S214へ移行し、ユーザがまだ食事中であるか否かを判定する。本実施形態では、食事が開始されてからのユーザの喫食回数が所定回数未満である場合にユーザがまだ食事中であると判定する。一方、制御部37は、食事が開始されてからのユーザの喫食回数が所定回数以上である場合にユーザが食事中でない(つまり食事が終了した)と判定する。   When it is determined in S213 that the user has stopped eating (S213: YES), the control unit 37 proceeds to S214 and determines whether or not the user is still eating. In the present embodiment, it is determined that the user is still eating when the number of eating times of the user since the start of the meal is less than the predetermined number. On the other hand, when the number of eating times of the user since the start of the meal is equal to or more than the predetermined number, the control unit 37 determines that the user is not eating (that is, the meal is finished).

制御部37は、S214でユーザがまだ食事中であると判定した場合(S214:YES)には、S215へ移行し、喫食を促すコンテンツをスピーカ33を介して出力する。例えば、制御部37は、喫食を促すコンテンツとして「もう少しで完食だよ」などの音声を出力する。制御部37は、S215を実行すると、後述するS217へ移行する。   When it is determined in S214 that the user is still eating (S214: YES), the control unit 37 shifts to S215 and outputs a content prompting eating via the speaker 33. For example, the control unit 37 outputs a sound such as "I'm almost eating out" as content that encourages eating. After executing S215, the control unit 37 proceeds to S217 described later.

一方、制御部37は、前述したS214でユーザが食事中でない(つまり食事が終了した)と判定した場合(S214:NO)には、S216へ移行し、スピーカ33を介して喫食終了後のコンテンツを出力する。具体的には、制御部37は、食事内容をフィードバックし、食べたことを褒めるコンテンツ(「お野菜沢山食べましたね!すごいね!」との音声等)を出力する。制御部37は、S216を実行すると、S217へ移行する。   On the other hand, when it is determined in S214 that the user is not eating (that is, the meal is finished) (S214: NO), the control unit 37 shifts to S216, and the content after eating is completed via the speaker 33. Is output. Specifically, the control unit 37 feeds back the content of the meal and outputs a content praising the eating (such as a voice saying “I ate a lot of vegetables! Amazing!”). After executing S216, the control unit 37 proceeds to S217.

S217で、制御部37は、サーバ4にS202、S207、S209、S211、S213及びS214の各種判定データや喫食時刻、食材情報等を含む喫食データと、ユーザ情報と、を送信した後、図6のコンテンツ出力処理を終了する。   In S217, the control unit 37 transmits to the server 4 the various types of determination data in S202, S207, S209, S211, S213, and S214, eating data including the eating time, food information, and the like, and the user information, as shown in FIG. Ends the content output process.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1)本実施形態では、情報機器3の制御部37は、食事用具2から送信されたセンサ情報に基づき、食事用具2を用いてユーザが喫食したか否かを判定する。したがって、子供等のユーザの喫食を新規な手法で検出することができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1) In the present embodiment, the control unit 37 of the information device 3 determines whether or not the user has eaten using the eating utensil 2 based on the sensor information transmitted from the eating utensil 2. Therefore, the eating of the user such as a child can be detected by a novel method.

また、本実施形態によれば、前述した特許文献1に記載の食事用具と比較して、ユーザの喫食の誤検出が発生することを抑制でき得る。すなわち、特許文献1に記載の食事用具では、ユーザが食事用具を手に持ち、食事用具の先端部を口に含むと、ユーザの身体を介してスイッチが導通し、スピーカから音が発せられる。つまり、この構成では、食事用具を使って食物を保持し、食物を口に運び、口に含むという一連の喫食動作のうち食物を口に含むという一部の行為のみに着目して喫食判定を行う。したがって、例えば、食事用具で食物を保持していない状態でユーザが食事用具の先端部を口に含んでもユーザが喫食したと誤検出される。これに対して、本実施形態によれば、前述した一連の喫食動作全体を検出することでユーザの喫食を判定する。よって、特許文献1に記載の食事用具のように一連の喫食動作のうち一部の動作のみに着目して喫食判定を行う構成と比較して、ユーザの喫食の誤検出が発生することを抑制でき得る。   Further, according to the present embodiment, it is possible to suppress occurrence of erroneous detection of the user's eating as compared with the eating utensils described in Patent Document 1 described above. That is, in the eating utensil described in Patent Literature 1, when the user holds the eating utensil in his hand and includes the tip of the eating utensil in his mouth, the switch conducts through the user's body, and a sound is emitted from the speaker. In other words, in this configuration, the eating judgment is performed by focusing on only a part of the action of holding the food using the eating utensils, carrying the food to the mouth, and including the food in the mouth in a series of eating actions of including the food. Do. Therefore, for example, it is erroneously detected that the user ate even if the user includes the tip of the eating tool in his / her mouth in a state where the eating tool does not hold food. On the other hand, according to the present embodiment, the user's eating is determined by detecting the entire series of eating operations described above. Therefore, it is possible to suppress occurrence of erroneous detection of the user's eating as compared with a configuration in which the eating judgment described in Patent Document 1 focuses on only a part of the series of eating operations and performs the eating determination. I can do it.

加えて、本実施形態によれば、前記一連の喫食動作を検出することで、ユーザの食べ方を含むユーザの食事フォームを検出し、その結果に基づきコンテンツ出力を行うことで食育を促進することができる。   In addition, according to the present embodiment, by detecting the series of eating operations, the user's meal form including the user's eating style is detected, and the content is output based on the result, thereby promoting dietary education. be able to.

(2)本実施形態では、制御部37は、ユーザが喫食したと判定した場合に、コンテンツとしての画像を出力可能な表示部31及びコンテンツとしての音を出力可能なスピーカ33にコンテンツを出力させる。したがって、ユーザが喫食したと判定された場合にコンテンツが出力され、その結果、子供が食べることを楽しくすることができる。ひいては、子供の苦手な食物や食材であっても子供の喫食を自発的に促すことができる。   (2) In the present embodiment, when the control unit 37 determines that the user has eaten, the control unit 37 outputs the content to the display unit 31 that can output the image as the content and the speaker 33 that can output the sound as the content. . Therefore, when it is determined that the user has eaten, the content is output, and as a result, children can enjoy eating. As a result, it is possible to spontaneously encourage children to eat even foods and ingredients that they are not good at.

(3)本実施形態では、ユーザが喫食したと判定された場合に、情報機器3の表示部31及びスピーカ33からコンテンツが出力される。つまり、情報機器3に通常実装されている表示部31及びスピーカ33を介してコンテンツ出力が行われる。したがって、食事用具2にコンテンツを出力可能なスピーカ等を設けなくても、ユーザに対してコンテンツを出力できる。よって、食事用具2にスピーカ等を設け、当該スピーカ等からコンテンツを出力する構成と比較して、食事用具2の製造コストを削減することができる。   (3) In the present embodiment, when it is determined that the user has eaten, the content is output from the display unit 31 and the speaker 33 of the information device 3. That is, the content is output via the display unit 31 and the speaker 33 which are usually mounted on the information device 3. Therefore, the content can be output to the user without providing the dining utensil 2 with a speaker or the like capable of outputting the content. Therefore, the manufacturing cost of the meal utensil 2 can be reduced as compared with a configuration in which a speaker or the like is provided on the meal utensil 2 and content is output from the speaker or the like.

(4)本実施形態では、制御部37は、ユーザの喫食回数をカウントし、カウントした喫食回数に基づいて表示部31及びスピーカ33にコンテンツを出力させる。
具体的には、制御部37は、ユーザの喫食回数に合わせて、表示部31に表示されたコンテンツ(画像)をリアルタイムに変化させる。子供は、食事する際に表示部31を見て食事することが考えられる。喫食回数に合わせて表示部31に表示される画像がリアルタイムに変化することで、子供が食べることを楽しくすることができる。ひいては、子供の喫食を促進することができる。また、制御部37は、ユーザの喫食回数が一定回数以上であると判定した場合には、スピーカ33を介してコンテンツを出力する。したがって、子供の喫食に対するモチベーションを向上させることができる。
(4) In the present embodiment, the control unit 37 counts the number of eating times of the user, and causes the display unit 31 and the speaker 33 to output the content based on the counted number of eating times.
Specifically, the control unit 37 changes the content (image) displayed on the display unit 31 in real time according to the number of times of eating by the user. It is conceivable that the child eats while watching the display unit 31 when eating. The image displayed on the display unit 31 changes in real time in accordance with the number of times of eating, so that the child can enjoy eating. As a result, eating of the child can be promoted. In addition, when the control unit 37 determines that the number of times of eating by the user is equal to or more than the certain number, the control unit 37 outputs the content via the speaker 33. Therefore, it is possible to improve a child's motivation to eat.

(5)本実施形態では、制御部37は、ユーザの喫食が止まったと判定した場合に、スピーカ33にコンテンツを出力させる。具体的には、制御部37は、ユーザの喫食が止まったと判定した場合においてユーザがまだ食事中であると判定したときには、ユーザに対して喫食を促すコンテンツを出力する。よって、ユーザが最後まで食物を食べ、食べ残しを少なくすることができる。また、制御部37は、ユーザの喫食が止まったと判定した場合において食事が終了したと判定したときには、ユーザが完食したことに対する褒めるコンテンツを出力する。よって、完食に対するユーザのモチベーションを向上させることができる。   (5) In the present embodiment, when it is determined that the user has stopped eating, the control unit 37 causes the speaker 33 to output the content. Specifically, when it is determined that the user has stopped eating and the user determines that the user is still eating, the control unit 37 outputs a content that prompts the user to eat. Therefore, the user can eat food to the end and reduce the amount of leftover. In addition, when it is determined that the meal has been finished when it is determined that the user has stopped eating, the control unit 37 outputs a content complimenting that the user has finished eating. Therefore, the user's motivation for a complete meal can be improved.

(6)本実施形態では、制御部37は、ユーザの喫食の速さを判定し、判定した喫食の速さに基づいてスピーカ33にコンテンツを出力させる。したがって、例えば喫食の速さが速い場合にゆっくり食べることを促すコンテンツを出力することで、ユーザに適切な喫食の速さを教えることができる。   (6) In the present embodiment, the control unit 37 determines the user's eating speed, and causes the speaker 33 to output the content based on the determined eating speed. Therefore, for example, by outputting a content that prompts the user to eat slowly when the eating speed is high, it is possible to teach the user an appropriate eating speed.

(7)本実施形態では、制御部37は、食事用具2を用いたユーザの食べ方を判定し、判定したユーザの食べ方に基づいてスピーカ33にコンテンツを出力させる。したがって、例えば、ユーザが正しい食べ方をしていない場合において正しい食べ方をフィードバックするコンテンツを出力することで、ユーザに正しい食べ方を教えることができる。   (7) In the present embodiment, the control unit 37 determines the user's eating style using the meal utensil 2 and causes the speaker 33 to output the content based on the determined user's eating style. Therefore, for example, by outputting content that feeds back the correct way to eat when the user is not eating correctly, it is possible to teach the user how to eat correctly.

なお、本実施形態では、通信部25が食事用具通信部に相当し、表示部31及びスピーカ33がコンテンツ出力部に相当し、通信部36が機器通信部に相当する。また、S102が測定送信処理部としての処理に相当し、S201が測定取得処理部としての処理に相当し、S202が喫食判定部としての処理に相当し、S203、S206、S208、S210、S212、S215及びS216が出力処理部としての処理に相当する。また、S204が喫食カウント部としての処理に相当し、S209が食べ方判定部としての処理に相当し、S211が速さ判定部としての処理に相当し、S214が停止判定部としての処理に相当する。   In the present embodiment, the communication unit 25 corresponds to a meal communication unit, the display unit 31 and the speaker 33 correspond to a content output unit, and the communication unit 36 corresponds to a device communication unit. In addition, S102 corresponds to processing as a measurement transmission processing unit, S201 corresponds to processing as a measurement acquisition processing unit, S202 corresponds to processing as a eating determination unit, and S203, S206, S208, S210, S212, S215 and S216 correspond to the processing as the output processing unit. Also, S204 corresponds to processing as a eating count unit, S209 corresponds to processing as a eating style determination unit, S211 corresponds to processing as a speed determination unit, and S214 corresponds to processing as a stop determination unit. I do.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Differences from First Embodiment]
In the second embodiment, the basic configuration is the same as that of the first embodiment. Therefore, the description of the common configuration will be omitted, and the description will focus on the differences. The same reference numerals as in the first embodiment denote the same components, and refer to the preceding description.

前述した第1実施形態では、食事用具2は加速度センサ23及びタッチセンサ24に係るセンサ情報を情報機器3に送信し、情報機器3は受信したセンサ情報に基づいて喫食判定等やコンテンツ出力を行う。つまり、喫食判定等の判定処理は情報機器3側で行われる。これに対して、第2実施形態では、食事用具2はセンサ情報に基づき喫食判定等を行い、その判定結果を表す情報を情報機器3に送信し、情報機器3は受信した判定結果を表す情報に基づいてコンテンツ出力を行う。つまり、第2実施形態では、喫食判定等の判定処理も食事用具2側で行われる点で、第1実施形態と相違する。   In the first embodiment described above, the eating utensil 2 transmits sensor information related to the acceleration sensor 23 and the touch sensor 24 to the information device 3, and the information device 3 performs eating determination and the like and content output based on the received sensor information. . That is, determination processing such as eating determination is performed on the information device 3 side. On the other hand, in the second embodiment, the eating utensil 2 performs eating determination or the like based on the sensor information, transmits information indicating the determination result to the information device 3, and the information device 3 receives the information indicating the received determination result. The content is output based on. That is, the second embodiment is different from the first embodiment in that determination processing such as eating determination is also performed on the meal implement 2 side.

第2実施形態は、第1実施形態とハードウェア構成は同一である。しかし、食事用具2が実行するデータ送信処理及び情報機器3が実行するコンテンツ出力処理が第1実施形態と相違する。   The second embodiment has the same hardware configuration as the first embodiment. However, the data transmission process executed by the meal implement 2 and the content output process executed by the information device 3 are different from those of the first embodiment.

[2−2.処理]
[2−2−1.データ送信処理]
次に、第2実施形態の食事用具2の制御部28が、第1実施形態のデータ送信処理(図5)に代えて実行するデータ送信処理について、図9のフローチャートを用いて説明する。なお、データ送信処理は、食事用具2の電源がオンである間において周期的に実行される。
[2-2. processing]
[2-2-1. Data transmission processing]
Next, a data transmission process executed by the control unit 28 of the eating utensil 2 of the second embodiment in place of the data transmission process (FIG. 5) of the first embodiment will be described with reference to the flowchart of FIG. The data transmission process is periodically executed while the power of the eating utensil 2 is on.

図9のS301は、前述した図5のS101と同様の処理であるため、説明を省略する。
続いて、S302で、制御部28は、S301で取得されたセンサ情報に基づき、ユーザが当該食事用具2を用いて喫食したか否かを判定し、判定結果を示すデータである喫食判定データを生成する。なお、ユーザが喫食したか否かの判定方法は、前述した図6のS202と同様であるため、説明を省略する。
Step S301 in FIG. 9 is the same as step S101 in FIG. 5 described above, and a description thereof will not be repeated.
Subsequently, in S302, the control unit 28 determines whether or not the user has eaten using the eating utensil 2 based on the sensor information obtained in S301, and determines whether or not the user has eaten the eating determination data that is the data indicating the determination result. Generate. Note that the method of determining whether or not the user has eaten is the same as in S202 of FIG. 6 described above, and a description thereof will be omitted.

続いて、S303で、制御部28は、S301で取得されたセンサ情報に基づきユーザの食べ方を判定し、判定結果を示すデータである食べ方判定データを生成する。なお、ユーザの食べ方の判定方法は、前述した図6のS209と同様であるため、説明を省略する。   Subsequently, in S303, the control unit 28 determines a user's eating style based on the sensor information acquired in S301, and generates eating style determination data that is data indicating a determination result. Note that the method of determining how to eat by the user is the same as that in S209 of FIG. 6 described above, and a description thereof will be omitted.

続いて、S304で、制御部28は、S301で取得されたセンサ情報に基づきユーザの喫食の速さを判定し、判定結果を示すデータである速さ判定データを生成する。なお、ユーザの喫食の速さの判定方法は、前述した図6のS211と同様であるため、説明を省略する。   Subsequently, in S304, the control unit 28 determines the user's eating speed based on the sensor information acquired in S301, and generates speed determination data that is data indicating the determination result. Note that the method of determining the user's eating speed is the same as that in S211 in FIG.

続いて、S305で、制御部28は、S301で取得されたセンサ情報に基づきユーザの喫食が止まったか否かを判定し、判定結果を示すデータである停止判定データを生成する。なお、ユーザの喫食が止まったか否かの判定方法は、前述した図6のS213と同様であるため、説明を省略する。   Subsequently, in S305, the control unit 28 determines whether or not the user has stopped eating based on the sensor information acquired in S301, and generates stop determination data that is data indicating the determination result. Note that the method of determining whether or not the user has stopped eating is the same as that in S213 of FIG. 6 described above, and a description thereof will not be repeated.

続いて、S306で、制御部28は、S301で取得されたセンサ情報に基づきユーザがまだ食事中であるか否かを判定し、判定結果を示すデータである食事中判定データを生成する。なお、ユーザがまだ食事中であるかの判定方法は、前述した図6のS214と同様であるため、説明を省略する。   Subsequently, in S306, the control unit 28 determines whether or not the user is still eating based on the sensor information acquired in S301, and generates eating determination data that is data indicating the determination result. Note that the method of determining whether the user is still eating is the same as that of S214 in FIG. 6 described above, and a description thereof will be omitted.

続いて、S307で、制御部28は、S302〜S306で生成された各種判定データを通信部25を介して情報機器3に送信する。制御部28は、S307を実行した後、図9のデータ送信処理を終了する。   Subsequently, in S307, the control unit 28 transmits the various determination data generated in S302 to S306 to the information device 3 via the communication unit 25. After executing S307, the control unit 28 ends the data transmission process of FIG.

[2−2−2.コンテンツ出力処理]
次に、第2実施形態の情報機器3の制御部37が、第1実施形態のコンテンツ出力処理(図6)に代えて実行するコンテンツ出力処理について、図10のフローチャートを用いて説明する。
[2-2-2. Content output processing]
Next, a content output process executed by the control unit 37 of the information device 3 of the second embodiment in place of the content output process (FIG. 6) of the first embodiment will be described using a flowchart of FIG.

まず、S401で、制御部37は、通信部36を介して食事用具2から各種判定データを受信することで当該各種判定データを取得する。
続いて、S402で、制御部37は、S401で取得された各種判定データのうち、前述した図9のS302で生成された喫食判定データに基づき、ユーザが食事用具2を用いて喫食したか否かを判定する。ここで、制御部37は、喫食判定データがユーザが食事用具2を用いて喫食したことを示す場合には、ユーザが食事用具2を用いて喫食したと判定する。一方、制御部37は、喫食判定データがユーザが食事用具2を用いて喫食していないことを示す場合には、ユーザが食事用具2を用いて喫食していないと判定する。なお、後述するS409、S411、S413及びS414の判定処理も同様に受信した判定データが示す判定結果に従う形で制御部37は各種判定を行う。
First, in S401, the control unit 37 obtains the various determination data by receiving the various determination data from the eating utensil 2 via the communication unit 36.
Subsequently, in S402, the control unit 37 determines whether or not the user ate using the eating utensil 2 based on the eating determination data generated in S302 in FIG. 9 among the various determination data obtained in S401. Is determined. Here, when the eating determination data indicates that the user has eaten using the eating utensil 2, the control unit 37 determines that the user has eaten using the eating utensil 2. On the other hand, when the eating determination data indicates that the user is not eating using the eating utensil 2, the control unit 37 determines that the user is not eating using the eating utensil 2. The control unit 37 also performs various determinations in the determination processing of S409, S411, S413, and S414, which will be described later, in a manner similar to the determination result indicated by the received determination data.

図10のS403〜S408は、前述した図6のS203〜S208と同様の処理であるため、説明を省略する。
続いて、S409で、制御部37は、S401で取得された各種判定データのうち、前述した図9のS303で生成された食べ方判定データに基づき、ユーザの食べ方を判定する。
Steps S403 to S408 in FIG. 10 are the same as steps S203 to S208 in FIG. 6 described above, and a description thereof will be omitted.
Subsequently, in S409, the control unit 37 determines the user's eating style based on the eating style determination data generated in S303 in FIG. 9 among the various determination data acquired in S401.

図10のS410は、前述した図6のS210と同様の処理であるため、説明を省略する。
続いて、S411で、制御部37は、S401で取得された各種判定データのうち、前述した図9のS304で生成された速さ判定データに基づき、ユーザの喫食の速さを判定する。
Step S410 in FIG. 10 is the same as step S210 in FIG. 6 described above, and a description thereof will be omitted.
Subsequently, in S411, the control unit 37 determines the eating speed of the user based on the speed determination data generated in S304 of FIG. 9 among the various determination data acquired in S401.

図10のS412は、前述した図6のS212と同様の処理であるため、説明を省略する。
続いて、S413で、制御部37は、S401で取得された各種判定データのうち、前述した図9のS305で生成された停止判定データに基づき、ユーザの喫食が止まったか否かを判定する。
Step S412 in FIG. 10 is the same as step S212 in FIG. 6 described above, and a description thereof will be omitted.
Subsequently, in S413, the control unit 37 determines whether or not the user has stopped eating based on the stop determination data generated in S305 in FIG. 9 among the various determination data acquired in S401.

制御部37は、S413でユーザの喫食が止まったと判定した場合(S413:YES)には、S414へ移行する。
S414で、制御部37は、S401で取得された各種判定データのうち、前述した図9のS306で生成された食事中判定データに基づき、ユーザがまだ食事中であるか否かを判定する。
When the control unit 37 determines in S413 that the user has stopped eating (S413: YES), the process proceeds to S414.
In S414, the control unit 37 determines whether or not the user is still eating, based on the eating determination data generated in S306 in FIG. 9 among the various determination data acquired in S401.

図10のS415〜S417は、前述した図6のS215〜S217と同様の処理であるため、説明を省略する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1)〜(7)と同様の効果が得られる。
Steps S415 to S417 in FIG. 10 are the same as steps S215 to S217 in FIG. 6 described above, and a description thereof will be omitted.
[2-3. effect]
According to the second embodiment described in detail above, effects similar to the effects (1) to (7) of the first embodiment described above can be obtained.

なお、本実施形態では、S302が喫食判定部としての処理に相当し、S303が食べ方判定部としての処理に相当し、S304が速さ判定部としての処理に相当し、S305が停止判定部としての処理に相当し、S307が判定送信処理部としての処理に相当する。また、S401が判定取得処理部としての処理に相当し、S403、S406、S408、S410、S412、S415及びS416が出力処理部としての処理に相当し、S404が喫食カウント部としての処理に相当する。   In the present embodiment, S302 corresponds to processing as an eating determination unit, S303 corresponds to processing as an eating style determination unit, S304 corresponds to processing as a speed determination unit, and S305 corresponds to a stop determination unit. , And S307 corresponds to processing as a determination transmission processing unit. In addition, S401 corresponds to processing as a determination acquisition processing unit, S403, S406, S408, S410, S412, S415, and S416 correspond to processing as an output processing unit, and S404 corresponds to processing as a eating count unit. .

[3.他の実施形態]
以上、本開示を実施するための形態について説明したが、本開示は前述の実施形態に限定されることなく、種々変形して実施することができる。
[3. Other Embodiments]
The embodiments for carrying out the present disclosure have been described above. However, the present disclosure is not limited to the above-described embodiments, and can be implemented with various modifications.

(1)上記各実施形態では、情報機器3がコンテンツを出力するが、コンテンツを出力する装置はこれに限られない。例えば、食事用具2にスピーカ等のコンテンツ出力部を設け、当該コンテンツ出力部を介してコンテンツ出力が行われてもよい。この構成では、上記第2実施形態のように食事用具2自身が喫食判定などの判定処理を行い、その判定結果に基づいてコンテンツ出力を行うことが考えられる。つまり、前述した図9のS301〜S306に加え、図10のS402〜S417に相当する処理を食事用具2が行ってもよい。この場合、食事用具2において実行されるS403、S406、S408、S410、S412、S415及びS416に相当する処理が出力処理部としての処理に相当する。また、食事用具2において実行されるS404に相当する処理が喫食カウント部としての処理に相当し、食事用具2において実行されるS409に相当する処理が食べ方判定部としての処理に相当し、食事用具2において実行されるS411に相当する処理が速さ判定部としての処理に相当し、食事用具2において実行されるS413に相当する処理が停止判定部としての処理に相当する。なお、この場合において、食事用具2は情報機器3と通信を行わなくてもよい。また、食事用具2はサーバ4と直接通信を行ってもよい。   (1) In each of the above embodiments, the information device 3 outputs the content, but the device that outputs the content is not limited to this. For example, the dining utensil 2 may be provided with a content output unit such as a speaker, and the content output may be performed via the content output unit. In this configuration, it is conceivable that the eating utensil 2 itself performs a determination process such as eating determination as in the second embodiment, and outputs content based on the determination result. That is, the eating utensil 2 may perform processing corresponding to S402 to S417 in FIG. 10 in addition to S301 to S306 in FIG. 9 described above. In this case, the processing corresponding to S403, S406, S408, S410, S412, S415, and S416 executed in the meal utensil 2 corresponds to the processing as the output processing unit. Further, the processing corresponding to S404 executed in the eating utensil 2 corresponds to processing as a eating count unit, the processing corresponding to S409 executed in the eating utensil 2 corresponds to processing as an eating style determination unit, and The processing corresponding to S411 performed in the utensil 2 corresponds to processing as a speed determination unit, and the processing corresponding to S413 performed in the eating utensil 2 corresponds to processing as a stop determination unit. In this case, the eating utensil 2 need not communicate with the information device 3. Further, the eating utensil 2 may directly communicate with the server 4.

(2)上記各実施形態では、喫食判定は食事用具2又は情報機器3で行われるが、喫食判定を行う装置はこれに限られない。例えば、サーバ4が喫食判定を行ってもよい。そして、サーバ4から判定結果を示す情報又はコンテンツ出力を行わせる旨の情報等が食事用具2又は情報機器3に送信され、送信された情報に基づいて食事用具2又は情報機器3でコンテンツ出力が行われてもよい。   (2) In each of the above embodiments, the eating determination is performed by the eating utensil 2 or the information device 3, but the device that performs the eating determination is not limited to this. For example, the server 4 may perform eating determination. Then, information indicating the determination result, information indicating that the content is to be output, or the like is transmitted from the server 4 to the eating utensil 2 or the information device 3, and the content output is performed by the eating utensil 2 or the information device 3 based on the transmitted information. May be performed.

(3)上記実施形態では、食事用具2としてフォークを例示したが、食事用具はこれに限られない。食事用具は、例えば、スプーンであってもよい。食事用具がスプーンである場合、子供が食べた食物や食材の量を測定することができる。例えば、食事用具を使って1回喫食した場合に所定重量(例えば5グラム)食べたなど、1回の喫食当たりの食物や食材の重量をあらかじめ規定しておき、喫食回数と規定された前記重量とを乗じることで子供が食べた食物や食材の量が測定されてもよい。   (3) In the above embodiment, a fork is exemplified as the meal utensil 2, but the meal utensil is not limited to this. The eating utensil may be, for example, a spoon. If the eating utensil is a spoon, the amount of food and ingredients eaten by the child can be measured. For example, the weight of food and ingredients per meal is defined in advance, such as eating a predetermined weight (for example, 5 grams) when eating once with a meal utensil, and the weight defined as the number of eating times. And the amount of food and ingredients eaten by the child may be measured.

(4)上記各実施形態において表示部31及びスピーカ33から出力されるコンテンツの内容はあくまで一例であり、他の内容のコンテンツが出力されてもよい。また、スピーカ33でコンテンツ出力するところを、スピーカ33に代えて又は加えて表示部31でコンテンツ出力を行ってもよい。また逆も然りである。また、表示部31及びスピーカ33以外のコンテンツ出力部を介してコンテンツ出力が行われてもよい。このようなコンテンツ出力部としては例えば発光するLEDなどの発光部等が挙げられる。   (4) The content of the content output from the display unit 31 and the speaker 33 in each of the above embodiments is merely an example, and content having another content may be output. The content output by the speaker 33 may be performed by the display unit 31 instead of or in addition to the speaker 33. The reverse is also true. Further, the content output may be performed via a content output unit other than the display unit 31 and the speaker 33. Examples of such a content output unit include a light-emitting unit such as an LED that emits light.

(5)上記実施形態では、食事用具2は、3軸方向の加速度を検出する加速度センサ23を備えているが、食事用具が備えるセンサはこれに限られない。例えば、食事用具は、3軸加速度センサと3軸ジャイロセンサとを有する6軸センサ等を備えていてもよい。このような構成によれば、ジャイロセンサの測定結果を用いて所定軸方向に対する回転(捻れ)を検出することが可能になる。ひいては、食事用具がジャイロセンサを備えていない構成と比較して、ユーザが食事用具を用いて食物をどのように食べているかの食べ方の判定精度を向上させることができる。   (5) In the above embodiment, the eating utensil 2 includes the acceleration sensor 23 that detects acceleration in three axial directions, but the sensor provided in the eating utensil is not limited thereto. For example, the eating utensil may include a six-axis sensor having a three-axis acceleration sensor and a three-axis gyro sensor. According to such a configuration, it is possible to detect rotation (twist) in a predetermined axial direction using the measurement result of the gyro sensor. As a result, as compared with a configuration in which the eating utensil does not include the gyro sensor, it is possible to improve the determination accuracy of how the user eats food using the eating utensil.

(6)上記実施形態では、タッチセンサとして、静電容量方式のタッチセンサ24を例示したが、タッチセンサはこれに限られない。例えば、タッチセンサは、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、荷重検出方式等のタッチセンサであってもよい。   (6) In the above embodiment, the capacitance type touch sensor 24 is exemplified as the touch sensor, but the touch sensor is not limited to this. For example, the touch sensor may be a touch sensor of a resistance film type, a surface acoustic wave type (or an ultrasonic type), an infrared type, an electromagnetic induction type, a load detection type, or the like.

(7)上記実施形態において、情報機器3は、サーバ4に格納された情報以外にも、インターネット上の各種ウェブサイトの情報を参照してもよい。この場合において例えば、情報機器3は、ユーザの苦手な食材のレシピ情報等をインターネットを用いて検索し、検索して取得したレシピ情報等を表示部31に表示するなどしてもよい。   (7) In the above embodiment, the information device 3 may refer to information of various websites on the Internet other than the information stored in the server 4. In this case, for example, the information device 3 may search for recipe information and the like of ingredients that the user is not good at using the Internet, and may display the searched and acquired recipe information and the like on the display unit 31.

(8)上記実施形態では、食事用具2のユーザとして子供が想定されるが、食事用具のユーザは大人であってもよい。例えば、食事用具のユーザは、シニアやダイエッターなどであってもよい。   (8) In the above embodiment, a child is assumed as a user of the meal utensil 2, but the user of the meal utensil may be an adult. For example, the user of the eating utensil may be a senior or a dieter.

(9)上記実施形態で、食事用具2の制御部28や情報機器3の制御部37が実行する機能の一部又は全部を、1つあるいは複数のIC等によりハードウェア的に構成してもよい。   (9) In the above embodiment, some or all of the functions executed by the control unit 28 of the eating utensil 2 and the control unit 37 of the information device 3 may be configured by one or a plurality of ICs in hardware. Good.

(10)前述した食育システム1の他、食事用具2の制御部28や情報機器3の制御部37、当該制御部28,37としてコンピュータを機能させるためのコンピュータプログラム、このプログラムを記憶した半導体メモリ等の非遷移的実体的記憶媒体、ユーザの喫食を判定する方法など、種々の形態で本開示を実現することもできる。   (10) In addition to the dietary education system 1 described above, the control unit 28 of the eating utensil 2 and the control unit 37 of the information device 3, a computer program for causing a computer to function as the control units 28 and 37, and a semiconductor storing the program The present disclosure can be realized in various forms, such as a non-transitional substantial storage medium such as a memory and a method of determining a user's eating.

(11)上記各実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記各実施形態の構成の一部を省略してもよい。また、上記各実施形態の構成の少なくとも一部を、他の上記各実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言によって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (11) Even if a plurality of functions of one component in each of the above embodiments are realized by a plurality of components, or a single function of one component is realized by a plurality of components. Good. Also, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of each of the above embodiments may be omitted. Further, at least a part of the configuration of each of the above embodiments may be added to or replaced with the configuration of each of the other above embodiments. All aspects included in the technical idea specified by the language described in the claims are embodiments of the present disclosure.

1…食育システム、2…食事用具、3…情報機器、4…サーバ、21…把持部、
22…先端部、23…加速度センサ、24…タッチセンサ。
DESCRIPTION OF SYMBOLS 1 ... Food education system, 2 ... Equipment, 3 ... Information equipment, 4 ... Server, 21 ... Grip
22: tip, 23: acceleration sensor, 24: touch sensor.

Claims (17)

棒状の把持部と、前記把持部の一端に配置された先端部と、を備える食事用具と、
前記食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部であって、前記加速度センサの測定結果を基に、前記食事用具の状態が、鉛直方向の下方に加速度が作用している状態から鉛直方向の上方に加速度が作用している状態に切り替わり、かつ、当該切替りが検出されてから所定時間以内に前記タッチセンサにより前記食事用具の先端部に対する接触が検出されることを条件として、ユーザが前記食事用具を用いて喫食したと判定する喫食判定部と、
を備える喫食判定システム。
A bar-shaped grip, and a eating utensil including a tip disposed at one end of the grip,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, the eating determination unit that determines whether the user ate using the eating utensil, based on the measurement result of the acceleration sensor, The state of the eating utensil switches from a state in which acceleration is acting vertically downward to a state in which acceleration is acting upward in the vertical direction, and the touch is performed within a predetermined time after the switching is detected. On the condition that contact with the tip of the eating utensil is detected by a sensor, a eating determination unit that determines that the user has eaten using the eating utensil,
Eating judgment system provided with.
請求項1に記載の喫食判定システムであって、
前記喫食判定部によりユーザが喫食したと判定された場合に、コンテンツを出力可能なコンテンツ出力部にコンテンツを出力させる出力処理部を更に備える喫食判定システム。
The eating determination system according to claim 1,
A eating determination system further comprising an output processing unit configured to output the content to a content output unit capable of outputting the content when the eating determination unit determines that the user has eaten.
棒状の把持部と、前記把持部の一端に配置された先端部と、を備える食事用具と、
前記食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部と、
ユーザ情報を取得するユーザ情報取得部と、
ユーザがどの食物又は食材を食べたか又は食べなかったかを示す食事ログ情報を取得する食事ログ情報取得部と、
前記ユーザ情報及び前記食事ログ情報を所定のサーバに送信する送信処理部と、
前記サーバから他のユーザに係る前記食事ログ情報を受信し、受信した他のユーザに係る前記食事ログ情報を、コンテンツを出力可能なコンテンツ出力部に出力させる出力処理部と、
を備える喫食判定システム。
A bar-shaped grip, and a eating utensil including a tip disposed at one end of the grip,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, an eating determination unit that determines whether the user has eaten using the eating utensil,
A user information acquisition unit for acquiring user information;
A meal log information acquisition unit that acquires meal log information indicating which food or ingredient the user has or has not eaten,
A transmission processing unit that transmits the user information and the meal log information to a predetermined server,
An output processing unit that receives the meal log information about another user from the server, and outputs the received meal log information about the other user to a content output unit that can output content,
Eating judgment system provided with.
請求項2又は請求項3に記載の喫食判定システムであって、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、ユーザの喫食の速さを判定する速さ判定部を更に備え、
前記出力処理部は、前記速さ判定部により判定された喫食の速さに基づいて前記コンテンツ出力部にコンテンツを出力させる、喫食判定システム。
The eating determination system according to claim 2 or claim 3,
A speed determination unit configured to determine a user's eating speed based on the measurement result of the acceleration sensor and the measurement result of the touch sensor,
The eating determination system, wherein the output processing unit causes the content output unit to output the content based on the eating speed determined by the speed determining unit.
請求項2から請求項までのいずれか1項に記載の喫食判定システムであって、
前記出力処理部は、前記食事用具に設けられた前記コンテンツ出力部にコンテンツを出力させる、喫食判定システム。
The eating determination system according to any one of claims 2 to 4 , wherein:
The eating determination system, wherein the output processing unit causes the content output unit provided on the eating utensil to output content.
請求項2から請求項までのいずれか1項に記載の喫食判定システムであって、
前記食事用具は、情報機器と通信するための通信部を更に備え、
前記出力処理部は、前記情報機器に設けられた前記コンテンツ出力部にコンテンツを出力させる、喫食判定システム。
The eating determination system according to any one of claims 2 to 5 ,
The eating utensil further includes a communication unit for communicating with the information device,
The eating determination system, wherein the output processing unit causes the content output unit provided in the information device to output content.
請求項2から請求項までのいずれか1項に記載の喫食判定システムであって、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いたユーザの喫食回数をカウントする喫食カウント部を更に備え、
前記出力処理部は、前記喫食カウント部によりカウントされた前記喫食回数に基づいて前記コンテンツ出力部にコンテンツを出力させる、喫食判定システム。
The eating determination system according to any one of claims 2 to 6 , wherein:
Further, based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, further includes a eating count unit that counts the number of times the user uses the eating utensil,
The eating determination system, wherein the output processing unit causes the content output unit to output content based on the number of times of eating counted by the eating counting unit.
請求項2から請求項までのいずれか1項に記載の喫食判定システムであって、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いたユーザの喫食が止まったか否かを判定する停止判定部を更に備え、
前記出力処理部は、前記停止判定部によりユーザの喫食が止まったと判定された場合に、前記コンテンツ出力部にコンテンツを出力させる、喫食判定システム。
The eating determination system according to any one of claims 2 to 7 , wherein:
A stop determination unit that determines whether or not eating of the user using the eating utensil has stopped based on the measurement result of the acceleration sensor and the measurement result of the touch sensor,
The eating determination system, wherein the output processing unit causes the content output unit to output the content when the stop determination unit determines that the user has stopped eating.
請求項2から請求項までのいずれか1項に記載の喫食判定システムであって、
前記加速度センサの測定結果に基づき、前記食事用具を用いたユーザの食べ方を判定する食べ方判定部を更に備え、
前記出力処理部は、前記食べ方判定部により判定されたユーザの食べ方に基づいて前記コンテンツ出力部にコンテンツを出力させる喫食判定システム。
The eating determination system according to any one of claims 2 to 8 , wherein:
An eating method determination unit that determines a method of eating by the user using the eating utensil based on the measurement result of the acceleration sensor,
The eating determination system, wherein the output processing unit causes the content output unit to output content based on the user's eating style determined by the eating style determination unit.
通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムであって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記加速度センサの測定結果及び前記タッチセンサの測定結果を前記情報機器に送信する測定送信処理部と、
を備え、
前記情報機器は、前記食事用具と通信可能な機器通信部を備え、
前記情報機器のコンピュータを、
前記機器通信部を介して前記食事用具から受信した前記加速度センサの測定結果及び前記タッチセンサの測定結果を取得する測定取得処理部と、
前記測定取得処理部により取得された前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部であって、前記加速度センサの測定結果を基に、前記食事用具の状態が、鉛直方向の下方に加速度が作用している状態から鉛直方向の上方に加速度が作用している状態に切り替わり、かつ、当該切替りが検出されてから所定時間以内に前記タッチセンサにより前記食事用具の先端部に対する接触が検出されることを条件として、ユーザが前記食事用具を用いて喫食したと判定する喫食判定部と、
として機能させるコンピュータプログラム。
A computer program for an information device that communicates with a meal having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
A meal communication unit that can communicate with the information device;
A measurement transmission processing unit that transmits the measurement result of the acceleration sensor and the measurement result of the touch sensor to the information device via the eating utensil communication unit,
With
The information device includes a device communication unit that can communicate with the eating utensil,
The information device computer,
A measurement acquisition processing unit that acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor received from the eating utensil via the device communication unit,
A eating determination unit that determines whether or not the user has eaten with the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit; Based on the measurement result of the sensor, the state of the eating utensil switches from a state in which acceleration is acting vertically downward to a state in which acceleration is acting upward in the vertical direction, and the switching is detected. On the condition that contact with the tip of the eating utensil is detected by the touch sensor within a predetermined time after being performed, a eating determination unit that determines that the user has eaten using the eating utensil,
A computer program to function as.
通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムであって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記加速度センサの測定結果及び前記タッチセンサの測定結果を前記情報機器に送信する測定送信処理部と、
を備え、
前記情報機器は、前記食事用具と通信可能な機器通信部を備え、
前記情報機器のコンピュータを、
前記機器通信部を介して前記食事用具から受信した前記加速度センサの測定結果及び前記タッチセンサの測定結果を取得する測定取得処理部と、
前記測定取得処理部により取得された前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部と、
ユーザ情報を取得するユーザ情報取得部と、
ユーザがどの食物又は食材を食べたか又は食べなかったかを示す食事ログ情報を取得する食事ログ情報取得部と、
前記ユーザ情報及び前記食事ログ情報を所定のサーバに送信する送信処理部と、
前記サーバから他のユーザに係る前記食事ログ情報を受信し、受信した他のユーザに係る前記食事ログ情報を、コンテンツを出力可能なコンテンツ出力部に出力させる出力処理部と、
として機能させるコンピュータプログラム。
A computer program for an information device that communicates with a meal having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
A meal communication unit that can communicate with the information device;
A measurement transmission processing unit that transmits the measurement result of the acceleration sensor and the measurement result of the touch sensor to the information device via the eating utensil communication unit,
With
The information device includes a device communication unit that can communicate with the eating utensil,
The information device computer,
A measurement acquisition processing unit that acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor received from the eating utensil via the device communication unit,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit, based on the measurement result of the touch sensor, a eating determination unit that determines whether the user ate using the eating utensil,
A user information acquisition unit for acquiring user information;
A meal log information acquisition unit that acquires meal log information indicating which food or ingredient the user has or has not eaten,
A transmission processing unit that transmits the user information and the meal log information to a predetermined server,
An output processing unit that receives the meal log information about another user from the server, and outputs the received meal log information about the other user to a content output unit that can output content,
A computer program to function as.
通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムであって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部であって、前記加速度センサの測定結果を基に、前記食事用具の状態が、鉛直方向の下方に加速度が作用している状態から鉛直方向の上方に加速度が作用している状態に切り替わり、かつ、当該切替りが検出されてから所定時間以内に前記タッチセンサにより前記食事用具の先端部に対する接触が検出されることを条件として、ユーザが前記食事用具を用いて喫食したと判定する喫食判定部と、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記喫食判定部による判定結果を前記情報機器に送信する判定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
コンテンツを出力可能なコンテンツ出力部と、
を備え、
前記情報機器のコンピュータを、
前記機器通信部を介して前記食事用具から受信した前記喫食判定部による判定結果を取得する判定取得処理部と、
前記判定取得処理部により取得された前記喫食判定部による判定結果に基づき、前記コンテンツ出力部にコンテンツを出力させる出力処理部と、
として機能させるコンピュータプログラム。
A computer program for an information device that communicates with a meal having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, the eating determination unit that determines whether the user ate using the eating utensil, based on the measurement result of the acceleration sensor, The state of the eating utensil switches from a state in which acceleration is acting vertically downward to a state in which acceleration is acting upward in the vertical direction, and the touch is performed within a predetermined time after the switching is detected. On the condition that contact with the tip of the eating utensil is detected by a sensor, a eating determination unit that determines that the user has eaten using the eating utensil,
A meal communication unit that can communicate with the information device;
A determination transmission processing unit that transmits a determination result by the eating determination unit to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A content output unit capable of outputting content,
With
The information device computer,
A determination acquisition processing unit that obtains a determination result by the eating determination unit received from the eating utensil via the device communication unit,
An output processing unit that outputs a content to the content output unit based on a determination result by the eating determination unit acquired by the determination acquisition processing unit;
A computer program to function as.
通信機能を有する食事用具と通信を行う情報機器のためのコンピュータプログラムであって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部と、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記喫食判定部による判定結果を前記情報機器に送信する判定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
コンテンツを出力可能なコンテンツ出力部と、
を備え、
前記情報機器のコンピュータを、
前記機器通信部を介して前記食事用具から受信した前記喫食判定部による判定結果を取得する判定取得処理部と、
ユーザ情報を取得するユーザ情報取得部と、
ユーザがどの食物又は食材を食べたか又は食べなかったかを示す食事ログ情報を取得する食事ログ情報取得部と、
前記ユーザ情報及び前記食事ログ情報を所定のサーバに送信する送信処理部と、
前記判定取得処理部により取得された前記喫食判定部による判定結果に基づき、前記コンテンツ出力部にコンテンツを出力させるとともに、前記サーバから他のユーザに係る前記食事ログ情報を受信し、受信した他のユーザに係る前記食事ログ情報を、前記コンテンツ出力部に出力させる出力処理部と、
として機能させるコンピュータプログラム。
A computer program for an information device that communicates with a meal having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, an eating determination unit that determines whether the user has eaten using the eating utensil,
A meal communication unit that can communicate with the information device;
A determination transmission processing unit that transmits a determination result by the eating determination unit to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A content output unit capable of outputting content,
With
The information device computer,
A determination acquisition processing unit that obtains a determination result by the eating determination unit received from the eating utensil via the device communication unit,
A user information acquisition unit for acquiring user information;
A meal log information acquisition unit that acquires meal log information indicating which food or food the user ate or did not eat;
A transmission processing unit that transmits the user information and the meal log information to a predetermined server,
Based on the determination result by the eating determination unit acquired by the determination acquisition processing unit, and to output the content to the content output unit, received the meal log information related to other users from the server, the other received An output processing unit configured to output the meal log information relating to a user to the content output unit;
A computer program to function as.
通信機能を有する食事用具と通信を行う情報機器であって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記加速度センサの測定結果及び前記タッチセンサの測定結果を前記情報機器に送信する測定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
前記機器通信部を介して受信した前記食事用具からの前記加速度センサの測定結果及び前記タッチセンサの測定結果を取得する測定取得処理部と、
前記測定取得処理部により取得された前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部であって、前記加速度センサの測定結果を基に、前記食事用具の状態が、鉛直方向の下方に加速度が作用している状態から鉛直方向の上方に加速度が作用している状態に切り替わり、かつ、当該切替りが検出されてから所定時間以内に前記タッチセンサにより前記食事用具の先端部に対する接触が検出されることを条件として、ユーザが前記食事用具を用いて喫食したと判定する喫食判定部と、
を備える情報機器。
An information device that communicates with a dining utensil having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
A meal communication unit that can communicate with the information device;
A measurement transmission processing unit that transmits the measurement result of the acceleration sensor and the measurement result of the touch sensor to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A measurement acquisition processing unit that acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor from the eating utensil received via the device communication unit,
A eating determination unit that determines whether or not the user has eaten with the eating utensil based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit; Based on the measurement result of the sensor, the state of the eating utensil switches from a state in which acceleration is acting vertically downward to a state in which acceleration is acting upward in the vertical direction, and the switching is detected. On the condition that contact with the tip of the eating utensil is detected by the touch sensor within a predetermined time after being performed, a eating determination unit that determines that the user has eaten using the eating utensil,
Information equipment provided with.
通信機能を有する食事用具と通信を行う情報機器であって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記加速度センサの測定結果及び前記タッチセンサの測定結果を前記情報機器に送信する測定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
前記機器通信部を介して受信した前記食事用具からの前記加速度センサの測定結果及び前記タッチセンサの測定結果を取得する測定取得処理部と、
前記測定取得処理部により取得された前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部と、
ユーザ情報を取得するユーザ情報取得部と、
ユーザがどの食物又は食材を食べたか又は食べなかったかを示す食事ログ情報を取得する食事ログ情報取得部と、
前記ユーザ情報及び前記食事ログ情報を所定のサーバに送信する送信処理部と、
前記サーバから他のユーザに係る前記食事ログ情報を受信し、受信した他のユーザに係る前記食事ログ情報を、コンテンツを出力可能なコンテンツ出力部に出力させる出力処理部と、
を備える情報機器。
An information device that communicates with a dining utensil having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
A meal communication unit that can communicate with the information device;
A measurement transmission processing unit that transmits the measurement result of the acceleration sensor and the measurement result of the touch sensor to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A measurement acquisition processing unit that acquires the measurement result of the acceleration sensor and the measurement result of the touch sensor from the eating utensil received via the device communication unit,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor acquired by the measurement acquisition processing unit, based on the measurement result of the touch sensor, a eating determination unit that determines whether the user ate using the eating utensil,
A user information acquisition unit for acquiring user information;
A meal log information acquisition unit that acquires meal log information indicating which food or ingredient the user has or has not eaten,
A transmission processing unit that transmits the user information and the meal log information to a predetermined server,
An output processing unit that receives the meal log information about another user from the server, and outputs the received meal log information about the other user to a content output unit that can output content,
Information equipment provided with.
通信機能を有する食事用具と通信を行う情報機器であって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部であって、前記加速度センサの測定結果を基に、前記食事用具の状態が、鉛直方向の下方に加速度が作用している状態から鉛直方向の上方に加速度が作用している状態に切り替わり、かつ、当該切替りが検出されてから所定時間以内に前記タッチセンサにより前記食事用具の先端部に対する接触が検出されることを条件として、ユーザが前記食事用具を用いて喫食したと判定する喫食判定部と、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記喫食判定部による判定結果を前記情報機器に送信する判定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
コンテンツを出力可能なコンテンツ出力部と、
前記機器通信部を介して前記食事用具から受信した前記喫食判定部による判定結果を取得する判定取得処理部と、
前記判定取得処理部により取得された前記喫食判定部による判定結果に基づき、前記コンテンツ出力部にコンテンツを出力させる出力処理部と、
を備える情報機器。
An information device that communicates with a dining utensil having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, the eating determination unit that determines whether the user ate using the eating utensil, based on the measurement result of the acceleration sensor, The state of the eating utensil switches from a state in which acceleration is acting vertically downward to a state in which acceleration is acting upward in the vertical direction, and the touch is performed within a predetermined time after the switching is detected. On the condition that contact with the tip of the eating utensil is detected by a sensor, a eating determination unit that determines that the user has eaten using the eating utensil,
A meal communication unit that can communicate with the information device;
A determination transmission processing unit that transmits a determination result by the eating determination unit to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A content output unit capable of outputting content,
A determination acquisition processing unit that obtains a determination result by the eating determination unit received from the eating utensil via the device communication unit,
An output processing unit that outputs a content to the content output unit based on a determination result by the eating determination unit acquired by the determination acquisition processing unit;
Information equipment provided with.
通信機能を有する食事用具と通信を行う情報機器であって、
前記食事用具は、
棒状の把持部と、
前記把持部の一端に配置された先端部と、
当該食事用具の加速度を検出する加速度センサと、
前記先端部に対する接触を検出するタッチセンサと、
前記加速度センサの測定結果及び前記タッチセンサの測定結果に基づき、前記食事用具を用いてユーザが喫食したか否かを判定する喫食判定部と、
前記情報機器と通信可能な食事用具通信部と、
前記食事用具通信部を介して前記喫食判定部による判定結果を前記情報機器に送信する判定送信処理部と、
を備え、
前記情報機器は、
前記食事用具と通信可能な機器通信部と、
コンテンツを出力可能なコンテンツ出力部と、
前記機器通信部を介して前記食事用具から受信した前記喫食判定部による判定結果を取得する判定取得処理部と、
ユーザ情報を取得するユーザ情報取得部と、
ユーザがどの食物又は食材を食べたか又は食べなかったかを示す食事ログ情報を取得する食事ログ情報取得部と、
前記ユーザ情報及び前記食事ログ情報を所定のサーバに送信する送信処理部と、
前記判定取得処理部により取得された前記喫食判定部による判定結果に基づき、前記コンテンツ出力部にコンテンツを出力させるとともに、前記サーバから他のユーザに係る前記食事ログ情報を受信し、受信した他のユーザに係る前記食事ログ情報を、前記コンテンツ出力部に出力させる出力処理部と、
を備える情報機器。
An information device that communicates with a dining utensil having a communication function,
The eating utensils are:
A rod-like gripper,
A tip portion disposed at one end of the grip portion,
An acceleration sensor for detecting the acceleration of the eating utensil,
A touch sensor that detects contact with the tip,
Based on the measurement result of the acceleration sensor and the measurement result of the touch sensor, an eating determination unit that determines whether the user has eaten using the eating utensil,
A meal communication unit that can communicate with the information device;
A determination transmission processing unit that transmits a determination result by the eating determination unit to the information device via the eating utensil communication unit,
With
The information device,
A device communication unit capable of communicating with the meal implement,
A content output unit capable of outputting content,
A determination acquisition processing unit that obtains a determination result by the eating determination unit received from the eating utensil via the device communication unit,
A user information acquisition unit for acquiring user information;
A meal log information acquisition unit that acquires meal log information indicating which food or ingredient the user has or has not eaten,
A transmission processing unit that transmits the user information and the meal log information to a predetermined server,
Based on the determination result by the eating determination unit acquired by the determination acquisition processing unit, and to output the content to the content output unit, received the meal log information related to other users from the server, the other received An output processing unit configured to output the meal log information relating to a user to the content output unit;
Information equipment provided with.
JP2019037562A 2019-03-01 2019-03-01 Eating system, computer program, and information device Active JP6654721B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019037562A JP6654721B1 (en) 2019-03-01 2019-03-01 Eating system, computer program, and information device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019037562A JP6654721B1 (en) 2019-03-01 2019-03-01 Eating system, computer program, and information device

Publications (2)

Publication Number Publication Date
JP6654721B1 true JP6654721B1 (en) 2020-02-26
JP2020137927A JP2020137927A (en) 2020-09-03

Family

ID=69624587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019037562A Active JP6654721B1 (en) 2019-03-01 2019-03-01 Eating system, computer program, and information device

Country Status (1)

Country Link
JP (1) JP6654721B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058205A1 (en) 2021-10-07 2023-04-13 株式会社Fuji Eating utensil, meal monitoring system, and meal monitoring method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6163134B2 (en) * 2014-05-29 2017-07-12 日本電信電話株式会社 Chopstick operation feature determination device, chopstick operation feature determination system, operation method of chopstick operation feature determination device, and computer program
WO2016139854A1 (en) * 2015-03-02 2016-09-09 ソニー株式会社 Information processing system and control method
JP2018007953A (en) * 2016-07-15 2018-01-18 フィールズ株式会社 Feeding utensil
JP6343371B2 (en) * 2017-06-06 2018-06-13 株式会社吉田製作所 Eating habits management device

Also Published As

Publication number Publication date
JP2020137927A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
Kadomura et al. Sensing fork: Eating behavior detection utensil and mobile persuasive game
CN105308634B (en) For the equipment, method and graphic user interface from corresponding application programs sharing contents
US8612247B2 (en) Biological information management system
CN108809806B (en) Instant messaging method and mobile terminal
JP6791120B2 (en) Information processing equipment, information processing methods, and programs
CN108009288B (en) Recipe pushing method and device
JP6514376B1 (en) Game program, method, and information processing apparatus
Kadomura et al. Sensing fork and persuasive game for improving eating behavior
JPWO2017064891A1 (en) Information processing system, information processing method, and storage medium
CN110061900A (en) Message display method, device, terminal and computer readable storage medium
JP6654721B1 (en) Eating system, computer program, and information device
WO2018090531A1 (en) Early warning analysis method and apparatus for height data of user
CN103945161B (en) A kind of information processing method and electronic equipment
JP2015225460A (en) Meal management method, meal management system, and meal management terminal
CN109300526A (en) A kind of recommended method and mobile terminal
TW200910165A (en) Method for adjusting sensing range and sensitivity and inertia interactive aparatus and system using thereof
JP2018014078A (en) Information processing device, information processing method, and program
CN108108690B (en) Method, device, equipment and storage medium for monitoring diet
US20110275040A1 (en) Multifunctional educational and entertainment apparatus
JP2023054302A (en) Support method
CN108712321A (en) A kind of reminding method and mobile terminal of message
CN110917612A (en) Game interaction method and device, electronic equipment and storage medium
EP3893086A1 (en) Information processing device and information processing method
KR20180055392A (en) Mobile apparatus for improving of children&#39;s vegetable-eating and efficacy educating of vegetable-eating and control method thereof
CN110049698A (en) Monitor the method and intelligence eating utensil of eating utensil

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190301

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200130

R150 Certificate of patent or registration of utility model

Ref document number: 6654721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250