JP2021049337A - Meal system and analysis system - Google Patents
Meal system and analysis system Download PDFInfo
- Publication number
- JP2021049337A JP2021049337A JP2020156268A JP2020156268A JP2021049337A JP 2021049337 A JP2021049337 A JP 2021049337A JP 2020156268 A JP2020156268 A JP 2020156268A JP 2020156268 A JP2020156268 A JP 2020156268A JP 2021049337 A JP2021049337 A JP 2021049337A
- Authority
- JP
- Japan
- Prior art keywords
- meal
- container
- image
- tableware
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Table Devices Or Equipment (AREA)
- Tables And Desks Characterized By Structural Shape (AREA)
- Table Equipment (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明の実施形態は、食事者の視覚などを刺激することにより、食事者に食事の楽しみを体感させることができる食事システムおよび分析システムに関する。 An embodiment of the present invention relates to a meal system and an analysis system capable of allowing a mealr to experience the enjoyment of a meal by stimulating the eyesight of the mealer.
特許文献1には、エンターテインメント性を高くし、楽しみながら行儀よく食事を行わせるための食事用載置具が開示されている。この食事用載置具は、食品が置かれる筐体に生じる事象を検知し、この検知状態に基づいて外部に情報(光、音声、画像)を出力している。ここで、筐体に生じる事象とは、食品の重量の減少や、筐体に肘をついたときの圧力である。 Patent Document 1 discloses a dining jig for enhancing entertainment and allowing a person to eat in a well-behaved manner while having fun. This eating jig detects an event that occurs in a housing in which food is placed, and outputs information (light, sound, image) to the outside based on this detection state. Here, the events that occur in the housing are a decrease in the weight of food and pressure when the elbow is attached to the housing.
本実施形態の目的は、特許文献1に記載の発明とは異なる手段によって、食事者に食事の楽しみを体感させることにある。 An object of the present embodiment is to allow a mealr to experience the enjoyment of eating by means different from the invention described in Patent Document 1.
本実施形態である食事システムは、食器又は食事者に関する食事状態を検出するセンサ部と、食器を載せるための載置面を備えた食卓と、センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、載置面に映像を表示させる制御部と、を有する。 In the meal system of the present embodiment, the meal state changes based on the detection result of the sensor unit for detecting the meal state of the tableware or the eater, the dining table provided with the mounting surface for placing the tableware, and the sensor unit. It has a control unit for displaying an image on the mounting surface when it is determined that the result has been achieved.
食卓には、音を出力するスピーカを設けることができる。ここで、制御部は、センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、スピーカを駆動することができる。また、制御部は、所定時間の間、載置面に映像を表示させることができる。 The dining table may be provided with a speaker that outputs sound. Here, the control unit can drive the speaker when it is determined that the eating state has changed based on the detection result of the sensor unit. In addition, the control unit can display an image on the mounting surface for a predetermined time.
食卓の内部には、映像を投射するプロジェクタを設けることができる。ここで、食卓の載置面は、透光性を有し、プロジェクタからの映像が投射されるスクリーンで構成することができる。一方、載置面は、映像を表示するとともに、食事状態として、載置面に対する接触状態を検出するタッチパネルディスプレイで構成することもできる。 A projector that projects an image can be provided inside the dining table. Here, the mounting surface of the dining table has translucency and can be configured by a screen on which an image from the projector is projected. On the other hand, the mounting surface may be configured by a touch panel display that displays an image and detects a contact state with the mounting surface as a meal state.
食器は、飲食物を収容する容器と、容器の開口を塞ぐ蓋とで構成することができる。ここで、センサ部は、容器又は蓋に設けられた無線通信タグと、無線通信タグと通信を行う無線通信リーダと、を含むことができる。 The tableware can be composed of a container for accommodating food and drink and a lid for closing the opening of the container. Here, the sensor unit can include a wireless communication tag provided on the container or a lid, and a wireless communication reader that communicates with the wireless communication tag.
センサ部は、食事者の咀嚼音を検出することができる。そして、制御部は、咀嚼音に応じて映像を表示させることができる。 The sensor unit can detect the chewing sound of the eater. Then, the control unit can display an image according to the chewing sound.
食器は、飲食物を収容する容器と、容器の開口を塞ぐ蓋とで構成することができる。ここで、容器には、音を出力するスピーカと、容器内の光状態を検出する光センサと、光センサの検出結果に基づいて、容器から蓋が取り外されたことを判別したとき、スピーカを駆動する制御部とを設けることができる。 The tableware can be composed of a container for accommodating food and drink and a lid for closing the opening of the container. Here, the container includes a speaker that outputs sound, an optical sensor that detects the light state inside the container, and a speaker when it is determined that the lid has been removed from the container based on the detection result of the optical sensor. A control unit for driving can be provided.
食器には、飲食物を食事者の口に運ぶための食事器具を含めることができる。ここで、センサ部は、食事器具が食卓に載せられていることを検出することができる。 Tableware can include eating utensils for bringing food and drink to the mouth of the eater. Here, the sensor unit can detect that the meal utensil is placed on the table.
(第1実施形態)
本実施形態である食事システムについて、図1を用いて説明する。本実施形態の食事システムは、食事者が食事のために食器の蓋を移動させること(食事状態の変化)に応じて、食卓上のスクリーンに映像を表示する。これにより、食事者の視覚を通じて、食事者に食事の楽しみを与えることができる。ここで、食卓とは、一般的なテーブルのみならず、食事の際に利用する器などを載せるものの全てを含む総称である。例えば、食卓には、トレイが含まれる。
(First Embodiment)
The meal system according to this embodiment will be described with reference to FIG. The meal system of the present embodiment displays an image on a screen on the table in response to the meal moving the lid of the tableware for meals (change in meal condition). This makes it possible to give the eater the enjoyment of eating through the eyes of the eater. Here, the dining table is a general term that includes not only a general table but also a table on which a vessel or the like used for meals is placed. For example, the dining table includes a tray.
食卓10の上面10aには、食卓10の内部(後述するプロジェクタ21)からの映像が投射されるスクリーン11が配置されている。スクリーン11の上面は、平坦な面で構成することができる。スクリーン11は透光性を有しており、例えば、半透明の材料で形成することができる。スクリーン11は、食卓10の外部から食卓10の内部を確認しにくい程度の透明性を有することが好ましい。これにより、食事者などに食卓10の内部構造が見えてしまうことを抑制できる。スクリーン11は、プロジェクタ21からの映像を透過させることにより、食卓10の外部に向けて映像を表示させることができる。これにより、食事者は、スクリーン11に投射された映像を視認することができる。
On the
食卓10の内部には、プロジェクタ21が配置されている。プロジェクタ21は、スクリーン11の下面(食卓10の内部を向く面)に対して所定の映像を投射する。プロジェクタ21は、スクリーン11に映像を投射することができればよく、食卓10の内部においてプロジェクタ21を配置する位置は、適宜決めることができる。図1では、プロジェクタ21からスクリーン11に映像を直接、投射しているが、これに限るものではない。具体的には、プロジェクタ21から投射された映像を、不図示の光学系(反射ミラーなどを含む)を介してスクリーン11に投射することができる。
A
プロジェクタ21は、食卓10の外部に設置される外部装置30と有線又は無線を介して接続されている。外部装置30は、プロジェクタ21の駆動を制御したり、プロジェクタ21に送信する映像データを決定したりする。外部装置30は、映像データを決定する映像判断部31を有しており、映像判断部31は、後述する分析部32の分析結果に基づいて映像データを決定する。具体的には、メモリ33に複数の映像データを記憶させておくことにより、映像判断部31は、複数の映像データのなかから、プロジェクタ21に送信する映像データを決定する。なお、メモリ33は必ずしも外部装置30に含まれなくてもよく、ネットワーク上のファイルサーバー等を利用してもよい。それらとの通信には、無線通信や近距離無線通信あるいは光通信などを用いることができる。映像データの配信サービスと組み合わせることも可能である。
The
食卓10の内部には、RFID(Radio Frequency Identifier)リーダ(無線通信リー)22が配置されており、RFIDリーダ22は、後述する食器40の蓋42に設けられたRFIDタグ(無線通信タグ)43との間で通信を行う。この通信の方式としては、電磁誘導方式や電波方式が挙げられる。RFIDリーダ22は詳しくはRFIDリーダ本体とRFIDアンテナや電源等から構成される。また、RFIDタグ43としては、パッシブ型タグやアクティブ型タグが挙げられる。RFIDリーダ22は、有線又は無線を介して外部装置30と接続されており、RFIDリーダ22の読取情報が外部装置30に送信される。外部装置30の分析部32は、RFIDリーダ22からの読取情報に基づいて、食器40の容器41から蓋42が取り外されたか否かを判別する。分析部32の詳細な処理については、後述する。
An RFID (Radio Frequency Identifier) reader (wireless communication Lee) 22 is arranged inside the dining table 10, and the
次に、食器40の構造について、図1及び図2を用いて説明する。食器40は、スクリーン11の上面に置かれる。食器40は防水、食器洗い機対応など、実用上の故障防止対策の取られていることが望ましい。
Next, the structure of the
食器40は、飲食物が収容される容器41と、容器41の開口を閉じるための蓋42とを有する。図2に示すように、蓋42にはRFIDタグ43が設けられている。RFIDタグ43は、蓋42の外面に取り付けることもできるし、蓋42の内部に埋め込むこともできる。
The
蓋42が容器41の開口を閉じているときには、RFIDリーダ22及びRFIDタグ43との間の通信が遮断される。例えば、容器41に電磁シールドを設けることにより、RFIDリーダ22及びRFIDタグ43の間の通信を遮断することができる。容器41に電磁シールドを設ける方法としては、例えば、容器41を金属で形成したり、容器41の表面に電磁シールド層を形成したりすることができる。電磁シールド層の材料としては、公知の材料を用いることができる。一方、容器41に飲食物が収容されているときには、飲食物によって、RFIDリーダ22及びRFIDタグ43の間の通信を遮断することができる。
When the
容器41の開口から蓋42を取り外すと、RFIDリーダ22及びRFIDタグ43の間の通信経路上に電磁シールドや飲食物が位置しなくなるため、RFIDリーダ22及びRFIDタグ43の間の通信が許容される。そして、RFIDタグ43の情報がRFIDリーダ22によって読み取られ、RFIDリーダ22の読取情報が外部装置30の分析部32に送信される。これにより、分析部32は、容器41の開口から蓋42が取り外されたことを判別することができる。
When the
ここで、食器40毎の識別子である食器IDをRFIDタグ43に記憶させておくことにより、分析部32は、蓋42が取り外された食器40を特定することができる。また、RFIDリーダ22は、蓋42の取り外しを判別するために、RFIDタグ43と通信を行うことができればよく、例えば、RFIDリーダ22を設ける位置としては、食卓10の裏面や側面、食卓10が置かれた床や床下、更には食卓10が置かれた上方の天井など、食器40に取り付けられたRFIDタグ43と通信できる位置(上下方向、横方向等)に設置されていれば良い。また、RFIDの強度としては、スクリーン11の上面の近傍で強度が変化する程度で良い。尚、RFIDリーダ22を設ける位置や、RFIDリーダ22の特性(指向性や強度)は、上記に限らず適宜決めることができる。
Here, by storing the tableware ID, which is an identifier for each
また、RFIDタグ43の情報(RFIDタグナンバー)は、例えば図3のRFIDタグ情報管理テーブルに示すように、食器ID及びRFIDタグ43からRFIDリーダ22に送信される読取電波の強度に対応付けて管理することができる。図3のRFIDタグ情報管理テーブルによれば、分析部32は、RFIDリーダ22の読取情報(RFIDタグナンバー)に基づき、このRFIDタグナンバーに対応する食器ID及び読取電波強度を特定する。
Further, the information of the RFID tag 43 (RFID tag number) is associated with the tableware ID and the intensity of the read radio wave transmitted from the
上述のRFIDリーダ22から外部装置30に読取情報が送信されることにより、外部装置30のメモリ33には、例えば、図4の取得データ管理テーブル(蓋42にRFIDタグ43を設置の場合)に示すように、RFIDタグ43毎に割り振られたRFIDタグナンバー、食器40毎の識別子である食器ID、蓋42が容器41の開口から取り外された時刻を示す蓋開口時刻、蓋42が容器41の開口を閉じた時刻を示す蓋閉口時刻等を蓄積することができる。なお、図4に示す取得データ管理テーブルの例では、蓋閉口時刻が特定されているが、蓋42が容器41の開口から取り外されたままの場合には、蓋閉口時刻は特定されない。
By transmitting the read information from the
分析部32は、蓋開口時刻及び蓋閉口時刻を取得することにより、各食器40について、食事者の食事時間を算出することができる。通常、食事を開始するときに蓋42が容器41の開口から取り外され、食事を終了したときに容器41の開口が蓋42によって閉じられるため、蓋開口時刻から蓋閉口時刻までの時間が食事時間となる。あるいは、読取電波強度の増加するタイミングの時刻と、読取電波強度の減少するタイミングの時刻との間の時間を食事時間とすることもできる。
By acquiring the lid opening time and the lid closing time, the
上述したように食事時間を算出すれば、分析部32において、食事時間に基づく評価を行うことができる。食事時間の評価においては、例えば、食事時間の目標値を設定し、この目標値と、実際の食事時間とを比較することができる。食事時間の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者や食事者以外の者が所有する携帯端末から食事時間の目標値を入力し、この入力情報を外部装置30に送信することもできる。
If the meal time is calculated as described above, the
実際の食事時間及び目標値の比較としては、例えば、実際の食事時間が、目標値を含む許容範囲内(上限時間から下限時間までの範囲内)であるか、許容範囲の上限時間よりも長い、または、許容範囲の下限時間よりも短いかを判断することができる。実際の食事時間が許容範囲内であるときには、目標とする食事時間に到達していることになる。実際の食事時間が上限時間よりも長いときには、目標とする食事時間よりも長く食事をしていることになる。実際の食事時間が下限時間よりも短いときには、目標とする食事時間よりも早く食事をしていることになる。 As a comparison between the actual meal time and the target value, for example, the actual meal time is within the permissible range including the target value (within the range from the upper limit time to the lower limit time) or longer than the upper limit time of the permissible range. , Or it can be determined whether it is shorter than the lower limit time of the allowable range. When the actual meal time is within the permissible range, the target meal time has been reached. When the actual meal time is longer than the upper limit time, it means that the person is eating longer than the target meal time. When the actual meal time is shorter than the lower limit time, it means that the meal is eaten earlier than the target meal time.
食事時間の評価結果は、食卓10に設けられたディスプレイ(不図示)に表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 The evaluation result of the meal time may be displayed on a display (not shown) provided on the dining table 10, or may be transmitted to a eater or a mobile terminal owned by a person other than the eater to be displayed on the display of the mobile terminal. You may.
また、分析部32は、複数の食器40について、各食器40における蓋開口時刻及び蓋閉口時刻を取得することにより、複数の食器40の飲食物について、食事者の食べ方を評価することもできる。ここでは、食事者が、1つの食器40において、飲食物を飲食するたびに、蓋42を開閉することを前提としている。この前提に基づけば、各食器40における蓋開口時刻及び蓋閉口時刻に基づいて、偏った食べ方をしているのか、まんべんなく食べているのかを評価することができる。ここで、蓋開口時刻から蓋閉口時刻までの時間が長いほど、偏った食べ方をしていることになる。一方、蓋開口時刻から蓋閉口時刻までの時間が短いほど、まんべんなく食べていることになる。
In addition, the
食べ方の評価結果は、食卓10に設けられたディスプレイに表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。ここで、食事者が食べ方の目標を設定したときには、実際の食べ方と、目標とする食べ方とのずれを示す情報を評価結果に含めることもできる。 The evaluation result of how to eat may be displayed on the display provided on the dining table 10, or may be transmitted to the eater or a mobile terminal owned by a person other than the eater and displayed on the display of the mobile terminal. Here, when the eater sets a goal of how to eat, information indicating the difference between the actual way of eating and the target way of eating can be included in the evaluation result.
次に、外部装置30の処理について、図5に示すフローチャートを用いて説明する。
Next, the processing of the
ステップS101において、分析部32は、図4の取得データ管理テーブル(蓋42にRFIDタグ43を設置の場合)に示すRFIDリーダ22の読取情報(食器IDに対応付けて管理されている蓋開口時刻)に基づいて、容器41から蓋42が取り外されたか否かを判別する。上述したように、RFIDリーダ22及びRFIDタグ43の間の通信が許容されたとき、RFIDリーダ22は、RFIDタグ43に記録された情報を読み取り、この読取情報を外部装置30に送信する。そして、分析部32は、容器41から蓋42が取り外されたことを判別し、ステップS102の処理に進む。
In step S101, the
ステップS102において、映像判断部31は、蓋42が取り外されたことの分析部32の判別結果を受けて、後述するようにプロジェクタ21に送信する映像データを決定する。上述したように、映像判断部31は、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、適宜決めることができる。
In step S102, the
例えば、複数の映像データを順番に決定することもできるし、ランダムに映像データを決定することもできる。また、上述したように、食器40毎の食器IDをRFIDタグ43に記憶させておけば、食器40毎の判別が可能となるため、食器40に応じて映像データを異ならせることもできる。この場合には、各食器40の食器IDと映像データとを紐づけた状態において、複数の映像データをメモリ33に記憶しておくことができる。RFIDタグ43との通信によってRFIDリーダ22が食器40の食器IDを取得したとき、映像判断部31は、メモリ33に記憶された複数の映像データのなかから、取得した食器IDに対応する映像データを特定することができる。
For example, a plurality of video data can be determined in order, or the video data can be randomly determined. Further, as described above, if the tableware ID for each
図6には、映像データを決定するために用いられる映像データテーブル(RFID対応)の一例を示す。図6の映像データテーブル(RFID対応)に示す例では、食器IDと、映像のコンテンツ名と、コンテンツ名毎の識別子であるコンテンツIDと、映像を表示させる時間である映像表示時間とが紐づけられている。また、図6の映像データテーブル(RFID対応)に示す例では、食器IDに紐づいた映像と、食器IDに紐づいていない映像とが混在している。食器IDに紐づいていない映像は、例えば、任意のタイミングにおいて、スクリーン11に表示させることができる。当該情報に基づき、映像判断部31は、分析部32で判別した蓋42が取り外された食器IDに対応付けられた映像データを特定する。
FIG. 6 shows an example of a video data table (corresponding to RFID) used for determining video data. In the example shown in the video data table (RFID compatible) of FIG. 6, the tableware ID, the content name of the video, the content ID which is an identifier for each content name, and the video display time which is the time to display the video are linked. Has been done. Further, in the example shown in the video data table (corresponding to RFID) of FIG. 6, the video associated with the tableware ID and the video not associated with the tableware ID are mixed. The image not associated with the tableware ID can be displayed on the
ステップS103において、映像判断部31は、決定した映像データをプロジェクタ21に送信し、プロジェクタ21を駆動する。これにより、プロジェクタ21からスクリーン11に対して映像が投射され、食事者は、スクリーン11に投射された映像を確認することができる。スクリーン11における映像の投射領域は、適宜決めることができる。例えば、スクリーン11の全面に対して映像を投射することもできるし、スクリーン11の一部の領域に対して映像を投射することもできる。
In step S103, the
映像判断部31は、プロジェクタ21に映像データの送信を開始したときに、経過時間tpのカウントを開始する。経過時間tpのカウントは、タイマを用いることができる。
The
ステップS104において、映像判断部31は、プロジェクタ21に映像データを送信してから所定時間t_thが経過したか否かを判別する。具体的には、映像判断部31は、上述した経過時間tpが所定時間t_th以上であるか否かを判別する。所定時間t_thは、適宜決めることができる。ここで、所定時間t_thを長くしすぎると、スクリーン11における映像の表示時間が長くなりすぎることにより、食事者が映像だけに注目してしまい、食事が進まないおそれがある。この点を考慮して、所定時間t_thを決めることができる。所定時間t_thは、図6の映像データテーブル(RFID対応)に示す映像表示時間に相当する。
In step S104, the
映像判断部31は、所定時間t_thが経過するまでの間、映像データをプロジェクタ21に送信し続ける。そして、所定時間t_thが経過したとき、言い換えれば、経過時間tpが所定時間t_th以上であるとき、ステップS105の処理に進む。映像データをプロジェクタ21に送信し続ける時間(すなわち、所定時間t_th)は、例えば図6の映像データテーブル(RFID対応)に示す映像表示時間に基づき制御する。
The
ステップS105において、映像判断部31は、プロジェクタ21に対する映像データの送信を終了する。これにより、プロジェクタ21からスクリーン11への映像の投射が終了する。なお、図5に示すフローチャートでは、経過時間tpをカウントし、経過時間tpが所定時間t_th以上であるときに映像データの送信を終了しているが、これに限るものではない。例えば、表示時間が決められた複数の映像を予め用意しておき、映像の表示を開始した後は、この映像が終了するまで映像を表示させることができる。
In step S105, the
本実施形態によれば、食事者が食事をするために、食器40の蓋42を容器41から取り外したとき、スクリーン11に映像が表示される。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。
According to the present embodiment, when the
本実施形態では、スクリーン11に映像を表示させているが、映像の表示に加えて、音を発生させることができる。具体的には、食卓10にスピーカ(不図示)を設けておき、プロジェクタ21から映像を投射するときに、スピーカから音を発生させることができる。スピーカの駆動は、外部装置30によって行うことができる。ここで、プロジェクタ21から投射された映像に応じて、スピーカから音を発生させることができる。
In the present embodiment, the image is displayed on the
例えば、スピーカから出力する音声は、図7の音声データテーブル(RFID対応)に示すように、プロジェクタ21から投射する映像コンテンツ(図6の映像データテーブルで説明したコンテンツID)と対応付けて管理されている。図7に示す音声データテーブル(RFID対応)では、音声ファイルを特定するための音声ID、音声ファイル名、コンテンツID、スピーカから音声を出力する時間を示す音声再生時間が管理されている。上述の通り、外部装置30は、プロジェクタ21から投射する映像のコンテンツIDに対応付けられた音声IDを特定し、特定した音声IDに対応する音声ファイル及び音声再生時間に基づいて、音声ファイルからの音声を所定の音声再生時間の間、スピーカから発生させる。
For example, the sound output from the speaker is managed in association with the video content (content ID described in the video data table of FIG. 6) projected from the
本実施形態では、蓋42にRFIDタグ43を設けているが、図8に示すように、容器41にRFIDタグ43を設けることもできる。この場合には、RFIDタグ43及びRFIDリーダ22の間の通信を遮断しない位置にRFIDタグ43を取り付けたり、この通信を遮断しない材料で形成された容器41内にRFIDタグ43を埋め込んだりすることができる。
In the present embodiment, the
容器41をスクリーン11上に載せているときには、RFIDタグ43及びRFIDリーダ22の間の通信が許容される。一方、食事者が容器41を手で持つと、容器41を持つ手によって、RFIDタグ43及びRFIDリーダ22の間の通信を遮断させることができる。また、RFIDタグ43及びRFIDリーダ22の間の通信距離及びRFIDリーダ22から出力される電波の強度分布によっては、容器41をRFIDリーダ22から離れた位置まで移動させることにより、RFIDタグ43及びRFIDリーダ22の間の通信を遮断することができる。なお、前記電波の強度分布を調整して食事状態の変化を正確に検知するためには、食卓10の内部に電磁シールドを施したり、RFIDリーダ22のアンテナの位置を調整したりすることが有効である。
When the
上述したように、通信が許容される状態と、通信が遮断される状態とを発生させることにより、食事者が容器41を持っているか否か、言い換えれば、食事者が食事をしているか否かを判別することができる。すなわち、通信が許容される状態では、容器41がスクリーン11上に載せられており、食事者が容器41を持っていないことを判別することができる。一方、通信が遮断されている状態では、容器41が手で持たれていたり、容器41がRFIDリーダ22から離れて読取電波強度が減少していたりしているため、食事者が容器41を持っていることを判別することができる。この判別は、RFIDリーダ22の読取情報に基づいて、分析部32が行うことができる。
As described above, by generating a state in which communication is permitted and a state in which communication is interrupted, whether or not the eater has the
食事者が容器41を持っていること(すなわち、食事状態の変化)を分析部32が判別したとき、映像判断部31は、映像データを決定した後、この映像データをプロジェクタ21に送信する。これにより、プロジェクタ21からスクリーン11に対して映像が投射される。ここでの処理は、図5に示すステップS102からステップS105までの処理と同じである。なお、図5に示すステップS101の代わりに、食事者が容器41を持っているか否かの判別が行われ、食事者が容器41を持っていると判別したとき、ステップS102以降の処理が行われる。
When the
ここで、容器41毎のID情報をRFIDタグ43に記憶させておくことにより、分析部32は、容器41を特定することができる。この場合には、容器41に応じて、プロジェクタ21に送信する映像データを異ならせることができる。メモリ33には、各容器41のID情報と映像データとを紐づけた状態において、複数の映像データを記憶しておけばよい。
Here, by storing the ID information for each
容器41にRFIDタグ43を設けた場合、食事者が容器41を持つたびに、スクリーン11に映像を表示させることができ、食事者の視覚を通じて、食事の楽しさを向上させることができる。ここで、上述した所定時間t_thが長すぎると、食事者が容器41をスクリーン11に載せた後も、スクリーン11に映像が表示され続けてしまい、食事者が容器41を持つたびに、スクリーン11に映像を表示させることができなくなるおそれがある。この点を考慮して、所定時間t_thを決めることが好ましい。
When the
一方、食事者が容器41を持った後、容器41をスクリーン11の上面に載せたとき(すなわち、食事状態が変化したとき)に、スクリーン11に映像を表示させることもできる。この場合には、RFIDタグ43及びRFIDリーダ22の間の通信状態が、通信が遮断される状態から、通信が許容される状態に変化するため、この変化に基づいて、スクリーン11に映像を表示させることができる。
On the other hand, when the eater holds the
RFIDタグ43を蓋42ではなく、容器41に設置した場合において、RFIDタグ43と容器41の対応関係、容器41を手に持った場合に投射する映像や音声の管理や制御は、上述のRFIDタグ43を蓋42に設定した場合と同様に、図3,6,7に示すデータテーブルに基づき実行される。
When the
RFIDタグ43を食器40の蓋42又は容器41に設置することで、食器40は、食卓10(スクリーン11)上の所定の位置に置く必要はなく、食器40をどの位置に置いた場合でも、RFIDタグ43及びRFIDリーダ22の通信ができるため、食事状態の変化を判別できる。
By installing the
本実施形態では、食卓10の外部に外部装置30を設けているが、これに限るものではない。具体的には、外部装置30の構成を食卓10の内部に設けることもできる。
In the present embodiment, the
また、RFIDタグ43を食器40の容器41又は蓋42に設置した例を説明したが、食事者が手にするスプーン、フォークなどのカトラリーにRFIDタグ43を設置するようにしても良い。この場合、食事者がカトラリーを手にした場合には、例えば、RFIDタグ43を含むカトラリーがRFIDリーダ22から遠くなったり、カトラリーのRFIDタグ43が食事者の手で覆われたりすることにより、RFIDリーダ22とRFIDタグ43との通信が遮断される。この通信遮断を判別することにより、食事をしている状態を判別することができる。
Further, although the example in which the
また、本実施形態では、食事状態の変化を判別するための仕組みとして、食器40にRFIDタグ43を設置し、食卓10にRFIDリーダ22を設置する例で説明したが、これに限らず、例えば、食器40にRFIDリーダ22を設置し、食卓10にRFIDタグ43を設置しても良い。
Further, in the present embodiment, as a mechanism for discriminating the change in the eating condition, an example in which the
本実施形態では、RFIDタグ43を用いることにより、複数の食器40を個別に特定することができる。ここで、各食器40と、各食器40内の飲食物の内容(種類やカロリーなど)とを対応付けて管理すれば、分析部32は、食器40を特定することにより、食事者が飲食した飲食物の内容を特定することができる。食器40及び飲食物の内容の対応関係を示す情報は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)から入力することもできるし、携帯端末に上記情報を入力し、この入力情報を外部装置30に送信することもできる。
In the present embodiment, the plurality of
RFIDタグ43を食器40の容器41に設置した場合、図9の取得データ管理テーブルに示すように、食器40毎に、RFIDタグ43及びRFIDリーダ22の間の通信が遮断された時刻(通信遮断時刻)を取得することができる。そして、通信遮断時刻を取得するたびに通信遮断の回数をカウントし、1回の食事における通信遮断の総回数に基づいて、食事者の食べ方を評価することができる。例えば、特定の食器40を持ち続けている場合には、通信遮断の総回数が少なくなり、偏った食べ方をしていることを評価することができる。また、通信遮断の総回数が多くなるほど、複数の食器40の飲食物について、まんべんなく食べていることを評価することができる。
When the
(第2実施形態)
本実施形態では、第1実施形態におけるスクリーン11に代えて、図10に示すようにタッチパネルディスプレイ12(以下、単にディスプレイ12という)を用いている。図10に示す食事システムの構成において、第1実施形態で説明した部材と同じ部材については同一の符号を付しており、詳細な説明は省略する。
(Second Embodiment)
In this embodiment, instead of the
ディスプレイ12は、食卓10の上面10aに設けられている。ディスプレイ12では、例えば、超音波表面弾性波方式、抵抗膜方式、赤外線走査方式、静電容量方式といった公知の方式を適宜採用することができる。
The
食卓10には、制御部30Aが設けられており、制御部30Aは、映像判断部31、分析部32及びメモリ33を有する。制御部30Aは、ディスプレイ12の駆動を制御する。メモリ33には、ディスプレイ12に表示させるための複数の映像データが記憶されている。
The dining table 10 is provided with a
ディスプレイ12の上面に食器40(容器41)が載せられていると、制御部30A(分析部32)は、ディスプレイ12の出力に基づいて、ディスプレイ12に容器41が載せられていることを判別する。すなわち、ディスプレイ12に対する容器41の接触の有無に応じて、ディスプレイ12の出力が変化するため、制御部30Aは、ディスプレイ12の出力に基づいて、ディスプレイ12の上面に容器41が載せられているか否かを判別することができる。ディスプレイ12上で利用する食器40の有無の判別は、例えば、容器41の糸底の底部に導電性を持たせたり、食器40の重さや容器41の糸底の形状による違いを利用したりすることで可能となる。
When the tableware 40 (container 41) is placed on the upper surface of the
制御部30Aは、ディスプレイ12の上面に容器41が載せられていることを判別したとき、ディスプレイ12に映像を表示させる。一方、ディスプレイ12の上面に容器41が載せられていなければ、制御部30Aは、ディスプレイ12に映像を表示させない。ディスプレイ12における映像の表示領域は、適宜決めることができる。例えば、ディスプレイ12の全面において映像を表示させることもできるし、ディスプレイ12の一部の領域において映像を表示させることもできる。
When the
制御部30Aは、ディスプレイ12の出力に基づいて、容器41がディスプレイ12に接触する位置、すなわち、容器41が配置されている位置を特定することができる。容器41の位置を特定することにより、制御部30Aは、ディスプレイ12の表示領域(全領域)のうち、容器41の位置に対応した表示領域(一部の領域)において、映像を表示させることができる。例えば、図11に示すように、ディスプレイ12の表示領域のうち、容器41が載せられた領域を含む所定領域において、映像IMを表示させることができる。
Based on the output of the
ディスプレイ12に容器41が接触したことを制御部30A(分析部32)が判別した際のディスプレイ12での映像表示は、第1実施形態と同様、図6の映像データテーブルに示すように、映像コンテンツを識別するためのコンテンツIDや食器40を識別するための食器IDを対応付けて管理することで実現できる。また、映像表示とともに音声を出力させる場合には、図7の音声データテーブルに示すように、音声ID、音声ファイル名、コンテンツID、音声再生時間を対応付けて管理することで実現できる。さらに、コンテンツIDに、食器40が置かれる位置情報(範囲)を対応付けておくことで、食器40が置かれた位置に基づいて映像コンテンツを決定することも可能となる。
When the
次に、ディスプレイ12の表示処理について、図12に示すフローチャートを用いて説明する。
Next, the display process of the
ステップS201において、制御部30A(分析部32)は、ディスプレイ12の出力に基づいて、ディスプレイ12に容器41が載せられているか否かを判別する。ディスプレイ12に容器41が載せられていると判別したとき、ステップS202の処理に進む。
In step S201, the
ステップS202において、制御部30A(映像判断部31)は、ディスプレイ12において、映像の表示を開始させる。これにより、食事者は、ディスプレイ12に表示された映像を視認することができる。ディスプレイ12に映像を表示させるとき、制御部30A(映像判断部31)は、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、適宜決めることができる。例えば、複数の映像データを順番に決定することもできるし、ランダムに映像データを決定することもできる。
In step S202, the
ステップS202の処理では、上述したように、容器41が載せられた位置を特定し、この位置に対応した表示領域において、映像を表示させることもできる。ここで、容器41が載せられた位置に応じて、表示させる映像を異ならせることができる。例えば、ディスプレイ12の全表示領域を複数の表示領域に区画しておき、表示領域毎に映像を異ならせることができる。また、複数の表示領域のうち、容器41が載せられた表示領域において、映像を表示させることができる。
In the process of step S202, as described above, the position where the
制御部30Aは、ディスプレイ12における映像の表示を開始させたとき、経過時間tpのカウントを開始する。経過時間tpのカウントは、タイマを用いることができる。
When the
ステップS203において、制御部30Aは、映像の表示を開始してから所定時間t_thが経過したか否かを判別する。具体的には、制御部30Aは、上述した経過時間tpが所定時間t_th以上であるか否かを判別する。所定時間t_thは、適宜決めることができる。ここで、所定時間t_thを長くしすぎると、ディスプレイ12における映像の表示時間が長くなりすぎることにより、食事者が映像だけに注目してしまい、食事が進まないおそれがある。この点を考慮して、所定時間t_thを決めることができる。所定時間t_thは、図6の映像データテーブルに示す映像表示時間に相当する。
In step S203, the
制御部30Aは、所定時間t_thが経過するまでの間、ディスプレイ12に映像を表示させ続ける。そして、所定時間t_thが経過したとき、言い換えれば、経過時間tpが所定時間t_th以上であるとき、ステップS204の処理に進む。ステップS204において、制御部30Aは、ディスプレイ12における映像の表示を終了する。なお、図12に示すフローチャートでは、経過時間tpをカウントし、経過時間tpが所定時間t_th以上であるときに映像の表示を終了しているが、これに限るものではない。例えば、表示時間が決められた複数の映像を予め用意しておき、映像の表示を開始した後は、この映像が終了するまで映像を表示させることができる。
The
本実施形態によれば、食事者が食事をするために、食器40(容器41)をディスプレイ12の上面に載せたとき(すなわち、食事状態が変化したとき)、ディスプレイ12に映像が表示される。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。
According to the present embodiment, when the tableware 40 (container 41) is placed on the upper surface of the display 12 (that is, when the eating condition changes) in order for the eater to eat, an image is displayed on the
なお、ディスプレイ12を用いることにより、容器41のうち、ディスプレイ12と接触する部分の形状を特定することができる。ここで、ディスプレイ12と接触する部分の形状が異なる複数種類の容器41を用意しておけば、ディスプレイ12によって容器41の接触部分の形状を特定することにより、容器41の種類を判別することができる。そして、容器41の種類に応じて、ディスプレイ12に表示される映像を異ならせることができる。この場合には、容器41の種類と映像データとを紐づけた状態において、複数の映像データをメモリ33に記憶しておくことができる。
By using the
本実施形態では、ディスプレイ12の上面に容器41が載せられているか否かを判別しているが、これに限るものではない。例えば、蓋42を備えた食器40を用いる場合、蓋42を容器41から取り外してディスプレイ12の上面に載せることがある。この場合には、上述した容器41と同様に、蓋42がディスプレイ12の上面に載せられているか否かを判別することができる。
In the present embodiment, it is determined whether or not the
そして、蓋42がディスプレイ12の上面に載せられていることを判別したとき(すなわち、食事状態が変化したとき)、制御部30Aは、ディスプレイ12に映像を表示させることができる。この映像を表示させる処理としては、図12に示すステップS202からステップS204までの処理を行うことができる。
Then, when it is determined that the
ここで、ディスプレイ12と接触する部分の形状が異なる複数種類の蓋42を用意しておけば、ディスプレイ12によって蓋42の接触部分の形状を特定することにより、蓋42の種類を判別することができる。そして、制御部30Aは、蓋42の種類に応じた映像を表示させることができる。一方、ディスプレイ12に対する容器41の接触部分の形状と、ディスプレイ12に対する蓋42の接触部分の形状を区別できるようにしておけば、制御部30Aは、容器41及び蓋42のいずれがディスプレイ12に載せられているかを判別することができる。
Here, if a plurality of types of
一方、本実施形態では、ディスプレイ12の上面に容器41を載せたときに、ディスプレイ12に映像を表示させているが、これに限るものではない。例えば、ディスプレイ12の上面に容器41が載っている状態から、食事者が容器41を持ったときには、ディスプレイ12の出力が変化するため、この変化(すなわち、食事状態の変化)に応じて、ディスプレイ12に映像を表示させることができる。ここで、蓋42についても同様の処理を行うことができる。
On the other hand, in the present embodiment, when the
また、第1実施形態と同様に、食卓10にスピーカ(不図示)を設けておき、ディスプレイ12に映像を表示させるときに、スピーカから音を発生させることができる。スピーカの駆動は、制御部30Aによって行うことができる。ここで、ディスプレイ12に表示された映像に応じて、スピーカから音を発生させることができる。
Further, as in the first embodiment, a speaker (not shown) is provided on the dining table 10, and sound can be generated from the speaker when displaying an image on the
さらに、ディスプレイ12を用いることにより、制御部30Aがディスプレイ12に所定情報を表示させ、この表示領域に食事者が触れることにより、所定情報を入力することができる。
Further, by using the
タッチパネルディスプレイ12を用いたり、重量センサ(不図示)を用いたりすることにより、ディスプレイ12上に載せられた食器40(飲食物を含む)の重量を測定することができる。ここで、RFIDリーダ22から外部装置30に読取情報が送信されることにより、外部装置30のメモリ33には、例えば、図13の取得データ管理テーブルに示すように、RFIDタグナンバー、食器ID、蓋開口時刻、蓋開口時刻での食器40内の飲食物の重さを示す重量、蓋閉口時刻、蓋閉口時刻での食器40内の飲食物の重さを示す重量等を蓄積することができる。
By using the
食器40内の飲食物の重さを測定することにより、食事者の食事時間を算出することができる。具体的には、飲食物が入った食器40をスクリーン11上に載せたときの時刻(言い換えれば、ディスプレイ12によって食器40の重さを検出した時刻)と、食器40内の飲食物の重さが0kgになったときの時刻とを取得すれば、これらの時刻の間の時間が食事時間となる。
By measuring the weight of food and drink in the
一方、食器40内の飲食物の重さに基づいて、食事者の食事量を算出することもできる。具体的には、食事者が食事を開始したときの食器40内の飲食物の重さと、食事者が食事を終了したときの食器40内の飲食物の重さとを取得すれば、これらの重さの差が食事量となる。ここで、蓋42が容器41の開口から取り外されてディスプレイ12の上面に載せられたときに、食事が開始されたことを判断することができる。また、ディスプレイ12の上面に載せられた蓋42が持ち上げられたときには、容器41の開口が蓋42によって閉じられたと考えることができ、食事が終了したことを判断することができる。
On the other hand, the amount of food eaten by the eater can be calculated based on the weight of the food and drink in the
上述したように食事量を算出すれば、分析部32において、食事量に基づく評価を行うことができる。食事量の評価においては、例えば、食事量の目標値を設定し、この目標値と、実際の食事量とを比較することができる。食事量の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者や食事者以外の者が所有する携帯端末から食事量の目標値を入力し、この入力情報を外部装置30に送信することもできる。
If the amount of food is calculated as described above, the
実際の食事量及び目標値の比較としては、例えば、実際の食事量が、目標値を含む許容範囲内(上限量から下限量までの範囲内)であるか、許容範囲の上限量よりも多いか、または、許容範囲の下限量よりも少ないかを判断することができる。実際の食事量が許容範囲内であるときには、目標とする食事量に到達していることになる。実際の食事量が上限量よりも多いときには、目標とする食事量よりも多くの量を食事していることになる。実際の食事量が下限量よりも少ないときには、目標とする食事量に到達していないことになる。 As a comparison between the actual amount of food and the target value, for example, the actual amount of food is within the permissible range including the target value (within the range from the upper limit to the lower limit) or is larger than the upper limit of the permissible range. Or it can be determined whether it is less than the lower limit of the allowable range. When the actual amount of food is within the permissible range, the target amount of food has been reached. When the actual amount of food is larger than the upper limit, it means that the amount of food is larger than the target amount. When the actual amount of food is less than the lower limit, it means that the target amount of food has not been reached.
食事量の評価結果は、食卓10に設けられたディスプレイに表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 The evaluation result of the amount of meal may be displayed on the display provided on the dining table 10, or may be transmitted to the eater or a mobile terminal owned by a person other than the eater and displayed on the display of the mobile terminal.
一方、分析部32は、複数の食器40について、各食器40における飲食物の重さの経時変化を取得することにより、複数の食器40の飲食物について、食事者の食べ方を評価することができる。例えば、特定の食器40だけについて、飲食物の重さが減少しているときには、偏った食べ方をしていることを評価することができる。また、すべての食器40について、飲食物の重さが断続的に減少しているときには、すべての食器40の飲食物について、まんべんなく食べていることを評価することができる。
On the other hand, the
(第3実施形態)
本実施形態は、音を発生させることができる食器40に関するものである。図14に示すように、食器40は、容器41及び蓋42を有しており、容器41は、光センサ44、スピーカ45、制御部46、メモリ47及び電源48を有する。容器41の内部は、仕切り板41aによって、飲食物を収容する空間S1と、光センサ44、スピーカ45、制御部46、メモリ47及び電源48が配置される空間S2とに分けられている。仕切り板41aの一部または全部は、透光性を有しており、空間S1からの光を空間S2に透過させる。なお、メモリ47は必ずしも容器41に含まれなくてもよく、ネットワーク上のファイルサーバー等を利用してもよい。それらとの通信には、無線通信や近距離無線通信あるいは光通信などを用いることができる。楽曲データ(スピーカ45から出力させる音データ)の配信サービスと組み合わせることも可能である。
(Third Embodiment)
The present embodiment relates to tableware 40 capable of generating sound. As shown in FIG. 14, the
電源48は、光センサ44、スピーカ45及び制御部46のそれぞれに対して電力を供給する。電源48としては、例えば、電池を用いることができ、充放電が可能な二次電池を用いることが好ましい。二次電池を充電する場合には、容器41から二次電池を取り外した後、充電器(不図示)を用いて二次電池を充電したり、二次電池を充電するためのコネクタ(不図示)を容器41に設けておき、このコネクタに対して、商用電源と接続された電力供給ラインを接続したりすることができる。また、公知のワイヤレス充電システムや太陽電池を用いて、二次電池を充電することもできる。
The
光センサ44は、空間S1からの光を受光可能な位置に設けられており、蓋42が容器41の開口を塞いでいるときの光状態と、容器41から蓋42が取り外されたときの光状態とを区別可能に検出する。ここで、蓋42が容器41の開口を塞いでいるときには、食器40の外部からの光が容器41の内部に侵入しないため、光センサ44の受光量は所定量よりも少なくなる。一方、容器41から蓋42が取り外されたときには、食器40の外部からの光が容器41の内部に侵入することになり、光センサ44の受光量が所定量よりも多くなる。
The
光センサ44の出力信号は、制御部46に入力される。制御部46は、光センサ44の検出結果に基づいて、容器41から蓋42が取り外されているか否かを判別する。すなわち、制御部46は、上述した光センサ44の受光量が予め定めた閾値よりも少ないとき、蓋42が容器41の開口を塞いでおり、蓋42が取り外されていないことを判別する。また、制御部46は、上述した光センサ44の受光量が閾値よりも多いとき、容器41から蓋42が取り外されていることを判別する。
The output signal of the
スピーカ45は、制御部46からの制御信号を受けて所定の音を発生させる。スピーカ45から発生させる音は、適宜決めることができるが、食事者に食事の楽しさを与えられるような音が好ましい。空間S2を形成する壁面に複数の開口部を形成しておけば、スピーカ45から発生した音を容器41の外部に導きやすくなる。ここで、空間S2を形成する壁面としては、仕切り板41aや容器41の壁面がある。仕切り板41aにスピーカ45用の開口部を形成する場合には、空間S1に直接、飲食物を収容することができなくなるため、飲食物を収容した補助容器(不図示)を空間S1に配置すればよい。
The
制御部46は、蓋42が取り外されたことを判別したとき、スピーカ45を駆動する。具体的には、図15のフローチャートに示すように、ステップS301において、制御部46は、光センサ44の検出結果に基づいて、蓋42が取り外されているか否かを判別する。蓋42が取り外されていると判別したとき、ステップS302において、制御部46は、スピーカ45を駆動することにより、音を発生させる。
When the
スピーカ45の駆動方法としては、例えば、以下に説明する2つの方法が挙げられる。
Examples of the driving method of the
第1の駆動方法としては、制御部46は、蓋42が取り外されたことを判別したときから所定時間が経過するまで、スピーカ45から音を発生させることができる。ここで、時間の経過をカウントするために、制御部46にタイマを設けることができる。第2の駆動方法としては、制御部46は、蓋42が取り外されている間、スピーカ45から音を発生させ続けることができる。そして、制御部46は、光センサ44の検出結果に基づいて、蓋42が容器41の開口を塞いだことを判別したとき、スピーカ45からの音の発生を停止させることができる。
As the first driving method, the
図14に示す構成では、容器41の下部に空間S2を形成しているが、これに限るものではない。光センサ44、スピーカ45、制御部46、メモリ47及び電源48は、上述した機能を発揮できる位置に配置されていればよい。例えば、容器41の内部において、容器41の側壁(一部又は全部)に沿うように仕切り板41aを配置し、容器41の側壁及び仕切り板41aの間に空間S2を形成することができる。
In the configuration shown in FIG. 14, the space S2 is formed in the lower part of the
本実施形態によれば、容器41から蓋42を取り外したときに、スピーカ45から音を発生させることにより、食事者の聴覚を通じて、食事者に食事の楽しみを与えることができる。
According to the present embodiment, when the
(第4実施形態)
本実施形態である食事システムについて、図16を用いて説明する。本実施形態の食事システムは、食事者の咀嚼音(食事状態)に応じて、食卓10上のスクリーン11に映像を表示させる。これにより、食事者の視覚を通じて、食事者に食事の楽しみを与えることができる。図16に示す構成において、第1実施形態で説明した部材と同じ部材については、同一の符号を付して詳細な説明は省略する。以下、第1実施形態と異なる点について、主に説明する。
(Fourth Embodiment)
The meal system according to this embodiment will be described with reference to FIG. In the meal system of the present embodiment, an image is displayed on the
食事者Pは、装着具50を装着しており、装着具50にはマイク51が設けられている。マイク51は、食事者Pの咀嚼音を集音するために用いられるため、食事者Pの口の近くに配置される。装着具50は、マイク51が所望の位置(咀嚼音を集音できる位置)に配置されるように、食事者Pに装着される。装着具50としては、公知の構造を適宜採用することもできるが、複数本のマイク51を離間して配置することで、環境外乱(騒音や音声)の影響を受けたとしても、少なくとも1本のマイク51を用いて咀嚼音を検知しやすくなる。
The mealr P wears the fitting 50, and the fitting 50 is provided with a microphone 51. Since the microphone 51 is used to collect the chewing sound of the meal P, it is arranged near the mouth of the meal P. The
食卓10にはマイクアンプ25が設けられており、マイクアンプ25は、マイク51によって集音された音を受信して、この音を増幅する。マイクアンプ25は、有線又は無線を介して、マイク51と接続することができる。マイクアンプ25は、有線又は無線を介して外部装置30と接続されており、マイクアンプ25によって増幅された音の情報は、外部装置30に送信される。
A
分析部32は、マイクアンプ25の出力信号に基づいて、食事者Pの咀嚼音を特定する。具体的には、分析部32は、マイクアンプ25の出力信号に対して所定のフィルタリング処理を行い、フィルタリング処理を行った信号に基づいて、咀嚼音の判別を行うことができる。咀嚼音を判別する処理は、公知の技術を利用して処理することが可能であるため、詳細な説明は省略する。一方、映像判断部31は、分析部32によって特定された咀嚼音に基づいて、プロジェクタ21に送信される映像データを決定する。
The
マイク51で収音した音(咀嚼音)に基づく映像の投射については、図17の映像データテーブル(咀嚼音対応)に示すように、投射する映像コンテンツと、咀嚼音量とを対応付けて管理しておくことで、実際にマイク51から収音した咀嚼音量に応じた映像をスクリーン11に投射することができる。また、咀嚼音量に基づき、投射する映像の表示態様を変更することも可能である。具体的には、図17の映像データテーブル(咀嚼音対応)に示すように、咀嚼音量と、映像表示態様とを対応付けて管理しておくことで、咀嚼音量に応じた表示態様で映像を表示させることができる。
Regarding the projection of the image based on the sound (chewing sound) picked up by the microphone 51, as shown in the image data table (corresponding to the chewing sound) of FIG. 17, the projected image content and the chewing volume are managed in association with each other. By doing so, it is possible to project an image corresponding to the mastication volume actually picked up from the microphone 51 onto the
図17に示す映像データテーブル(咀嚼音対応)の具体的な内容について、以下に説明する。 The specific contents of the video data table (corresponding to mastication sound) shown in FIG. 17 will be described below.
咀嚼音量が「レベル大」(第1音量以上)であるときには、食事者Pが食べ物を良く噛んでいることになるため、食事者Pの食事を褒めるために、食事者Pに喜びを与える映像(喜び映像)をスクリーン11に表示させることができる。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「大」のサイズにしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「大」のサイズにしたりすることができる。
When the mastication volume is "high level" (1st volume or higher), the meal P is chewing food well, so the image that gives joy to the meal P in order to praise the meal of the meal P. (Pleasure image) can be displayed on the
咀嚼音量が「レベル中」(第2音量以上、第1音量未満)であるときには、食事者Pの咀嚼を更に促すために、食事者Pを応援する映像(応援映像)をスクリーン11に表示させることができる。なお、第2音量は、第1音量よりも小さい。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「中」のサイズ(上述した「大」の文字サイズよりも小さいサイズ)にしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「中」のサイズ(上述した「大」の画像サイズよりも小さいサイズ)にしたりすることができる。
When the mastication volume is "medium level" (second volume or more, less than the first volume), a video (support video) supporting the meal P is displayed on the
咀嚼音量が「レベル小」(第2音量未満)であるときには、食事者Pが食べ物を良く噛んでいないため、食事者Pに悲しみを与える映像(悲しみ映像)をスクリーン11に表示させることができる。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「小」のサイズ(上述した「中」の文字サイズよりも小さいサイズ)にしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「小」のサイズ(上述した「中」の画像サイズよりも小さいサイズ)にしたりすることができる。
When the mastication volume is "low level" (less than the second volume), since the eater P does not chew the food well, an image (sadness image) that gives the eater P sadness can be displayed on the
本実施形態では、食事者Pが食べ物を咀嚼するたびに、図17に示す映像データテーブル(咀嚼音対応)に基づいて映像が表示される。ここで、映像コンテンツ毎に、1回の食事中における映像の表示回数をカウントすることができる。これにより、1回の食事において、各映像コンテンツが何回表示されたかを把握することができる。この表示回数の情報は、食卓10に設けられたディスプレイに表示させてもよいし、食事者Pや食事者P以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 In the present embodiment, every time the eater P chews the food, an image is displayed based on the image data table (corresponding to the chewing sound) shown in FIG. Here, the number of times the video is displayed during one meal can be counted for each video content. This makes it possible to grasp how many times each video content is displayed in one meal. The information on the number of times of display may be displayed on the display provided on the dining table 10, or may be transmitted to a mobile terminal owned by a person other than the meal P or the meal P and displayed on the display of the mobile terminal. Good.
次に、外部装置30の処理について、図18に示すフローチャートを用いて説明する。
Next, the processing of the
ステップS401において、分析部32は、マイクアンプ25の出力信号に基づいて、咀嚼音が発生しているか否かを判別する。咀嚼音が発生したことを判別すると、ステップS402の処理に進む。
In step S401, the
ステップS402において、映像判断部31は、咀嚼音が発生したことの分析部32の判別結果を受けて、プロジェクタ21に送信する映像データを決定する。第1実施形態と同様に、映像判断部31は、図17の映像データテーブル(咀嚼音対応)を参照し、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、図17の映像データテーブル(咀嚼音対応)に示すように、咀嚼音量(大、中、小)によって表示する映像を決定するだけでなく、例えば、予め表示する映像データの順番を決めておくなど、適宜決めることができる。
In step S402, the
ステップS403において、映像判断部31は、決定した映像データをプロジェクタ21に送信し、プロジェクタ21を駆動する。これにより、プロジェクタ21からスクリーン11に対して映像が投射され、食事者Pは、スクリーン11に投射された映像を確認することができる。スクリーン11における映像の投射領域は、適宜決めることができる。例えば、スクリーン11の全面に対して映像を投射することもできるし、スクリーン11の一部の領域に対して映像を投射することもできる。投射領域については、図17に示す映像データテーブルにおいて、投射領域を対応付けることで管理することができる。
In step S403, the
ステップS404において、分析部32は、マイクアンプ25の出力信号に基づいて、咀嚼音が停止しているか否かを判別する。咀嚼音が停止したことを判別すると、ステップS405の処理に進む。
In step S404, the
ステップS405において、映像判断部31は、プロジェクタ21に対する映像データの送信を終了する。これにより、プロジェクタ21からスクリーン11への映像の投射が終了する。
In step S405, the
本実施形態によれば、食事者Pが食事をして咀嚼音が発生するたびに、スクリーン11に映像が表示される。これにより、食事者Pの視覚を通して、食事の楽しさを食事者Pに体感させることができる。
According to the present embodiment, every time the eater P eats and makes a chewing sound, an image is displayed on the
なお、本実施形態では、咀嚼音に応じた映像をスクリーン11に表示させているが、映像の表示に加えて、音を発生させることができる。具体的には、食卓10にスピーカ(不図示)を設けておき、プロジェクタ21から映像を投射するときに、スピーカから音を発生させることができる。スピーカの駆動は、外部装置30によって行うことができる。ここで、プロジェクタ21から投射される映像に応じて、スピーカから音を発生させることができる。
In the present embodiment, the image corresponding to the mastication sound is displayed on the
例えば、スピーカから出力する音声は、図19の音声データテーブル(咀嚼音対応)に示すように、プロジェクタ21から投射する映像コンテンツ(コンテンツID)と対応付けて管理することができる。これにより、映像コンテンツに応じた音声を出力することができる。また、音声の音量は、映像コンテンツにかかわらず、一定とすることもできるし、図19の音声データテーブル(咀嚼音対応)に示すように、映像コンテンツに応じて変更することもできる。
For example, the sound output from the speaker can be managed in association with the video content (content ID) projected from the
図19の音声データテーブル(咀嚼音対応)に示すように、喜び映像を表示させるときには、食事者Pに喜びを与える音声(喜び音声)をスピーカから出力することができる。応援映像を表示させるときには、食事者Pの食事を応援する音声(応援音声)をスピーカから出力することができる。悲しみ映像を表示させるときには、食事者Pに悲しみを与える音声(悲しみ音声)をスピーカから出力することができる。 As shown in the audio data table (corresponding to the chewing sound) of FIG. 19, when displaying the joy image, the joy sound (joy sound) that gives joy to the mealer P can be output from the speaker. When displaying the cheering image, the voice (supporting voice) for cheering the meal of the meal person P can be output from the speaker. When displaying the sadness image, a sound giving sadness to the mealer P (sadness sound) can be output from the speaker.
図19の音声データテーブル(咀嚼音対応)に示す例では、予め決められた音声(喜び音声、応援音声、悲しみ音声など)を出力しているが、これに限るものではない。例えば、マイク51で集音した咀嚼音をスピーカから出力することができる。この場合において、スピーカから出力される咀嚼音の音量は、マイク51で集音した咀嚼音量にかかわらず、一定とすることもできるし、マイク51で集音した咀嚼音量に応じて変更することもできる。ここで、マイク51で集音した咀嚼音量が大きいほど、スピーカから出力される咀嚼音の音量を大きくすることができる。 In the example shown in the voice data table (corresponding to chewing sound) of FIG. 19, predetermined voices (joy voice, cheering voice, sadness voice, etc.) are output, but the present invention is not limited to this. For example, the chewing sound collected by the microphone 51 can be output from the speaker. In this case, the volume of the mastication sound output from the speaker can be constant regardless of the mastication volume collected by the microphone 51, or can be changed according to the mastication volume collected by the microphone 51. it can. Here, the louder the mastication volume collected by the microphone 51, the louder the mastication sound output from the speaker can be.
本実施形態では、マイク51を用いて咀嚼音量を測定しているが、これに限るものではない。例えば、マイク51を用いて咀嚼音を検出し、咀嚼音が発生した回数をカウントすることにより、1回の食事における咀嚼回数を求めることができる。1回の食事における咀嚼回数を求めれば、分析部32において、この咀嚼回数に対する評価を行うことができる。例えば、咀嚼回数の目標値を設定した場合には、実際の咀嚼回数と、咀嚼回数の目標値とを比較して評価を行うことができる。咀嚼回数の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者Pや食事者P以外の者が所有する携帯端末から咀嚼回数の目標値を入力し、この入力情報を外部装置30に送信することもできる。
In the present embodiment, the mastication volume is measured using the microphone 51, but the present invention is not limited to this. For example, by detecting the mastication sound using the microphone 51 and counting the number of times the mastication sound is generated, the number of times of mastication in one meal can be obtained. If the number of chews in one meal is obtained, the
本実施形態では、スクリーン11に映像を表示させているが、スクリーン11に代えて、第2実施形態で説明したディスプレイ12を用いることもできる。また、本実施形態では、咀嚼音が発生したときに、映像を表示させるようにしているが、これに限るものではない。具体的には、咀嚼音が発生している時間帯と、咀嚼音が発生していない時間帯とで、映像を異ならせることができる。より具体的には、咀嚼音が発生していない時間帯では、静止画像を表示させておき、咀嚼音が発生している時間帯では、動画像を表示させることができる。さらに、咀嚼音の強弱に応じて、画像を変化させることもできる。
In the present embodiment, the image is displayed on the
本実施形態では、食卓10の外部に外部装置30を設けているが、これに限るものではない。具体的には、外部装置30の構成を食卓10の内部に設けることができる。
In the present embodiment, the
本実施形態では、マイク51を用いて検出した食事者Pの咀嚼音に基づいて、映像を表示するようにしているが、これに限るものではない。例えば、食事の時に飲食物を食事者Pの口に運ぶための食事器具(例えば、箸、スプーン、フォークなど)にセンサを設けておき、このセンサの検出結果(すなわち、食事者Pが食事器具に触れたこと)に基づいて、映像を表示させることができる。ここで、センサの検出対象としては、温度、圧力、加速度などが挙げられる。 In the present embodiment, the image is displayed based on the chewing sound of the mealer P detected by using the microphone 51, but the present embodiment is not limited to this. For example, a sensor is provided in a eating utensil (for example, chopsticks, spoon, fork, etc.) for carrying food and drink to the mouth of the eating utensil at the time of meal, and the detection result of this sensor (that is, the eating utensil P is the eating utensil). The image can be displayed based on (touched). Here, the detection target of the sensor includes temperature, pressure, acceleration, and the like.
食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて温度が異なる。したがって、温度センサを用いて食事器具の温度を検出し、温度の変化(食事状態の変化)に応じて映像を表示させることができる。また、食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて食事器具に作用する圧力が異なる。したがって、圧力センサを用いて食事器具に作用する圧力を検出し、圧力の変化(食事状態の変化)に応じて映像を表示させることができる。 The temperature of the eating utensil that the eating utensil P touches differs depending on whether or not the eating utensil P touches the eating utensil. Therefore, the temperature of the eating utensil can be detected by using the temperature sensor, and the image can be displayed according to the change in the temperature (change in the eating state). Further, with respect to the eating utensil that the eating utensil P touches, the pressure acting on the eating utensil differs depending on whether or not the eating utensil P touches the eating utensil. Therefore, the pressure sensor can be used to detect the pressure acting on the eating utensil, and the image can be displayed according to the change in pressure (change in eating condition).
さらに、食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて加速度が異なる。具体的には、食事者Pが食事器具に触れていなく、食事器具を置いていれば、加速度が発生しない。一方、食事者Pが食事器具を持っていれば、食事に応じた加速度が食事器具に発生する。したがって、加速度センサを用いて食事器具に作用する加速度を検出し、加速度の変化(食事状態の変化)に応じて映像を表示させることができる。 Further, with respect to the eating utensil that the eating utensil P touches, the acceleration differs depending on whether or not the eating utensil P touches the eating utensil. Specifically, if the mealr P is not touching the meal utensil and the meal utensil is placed, the acceleration does not occur. On the other hand, if the eater P has a meal device, acceleration corresponding to the meal is generated in the meal device. Therefore, the acceleration sensor can be used to detect the acceleration acting on the eating utensil, and the image can be displayed according to the change in the acceleration (change in the eating state).
尚、食事状態の変化について、上記では食事者Pが触れる食事器具に設置されたセンサとして温度センサ、圧力センサ、加速度センサなどを例示したが、第1実施形態から第3実施形態で説明したRFIDタグ43が設置された食器40を利用することで食事状態の変化を取得することができる。この場合も、後述のカメラによる撮影画像と同様に、食事者Pが手にした食器を判別することができる。
Regarding the change in the eating state, the temperature sensor, the pressure sensor, the acceleration sensor and the like are exemplified as the sensors installed in the eating utensils touched by the meal P, but the RFIDs described in the first to third embodiments have been described above. By using the
さらに、食事場所に、食事者Pを撮影するカメラを設置することで、撮影画像(具体的には、食事者Pの口の動き)に基づく咀嚼の有無の判別も可能であり、食事状態の変化を判別することができる。尚、カメラを設置した場合は、咀嚼の有無の判別のみならず、食事者Pが手にした食器40の判別も可能となる。カメラから取得した撮影画像の分析結果に基づき、食事者Pが手にした食器40に対応した映像、食事者Pの口の開口状態を示す映像など、食事状態の変化に応じて、スクリーン11又はディスプレイ12に映像を表示させることができる。
Furthermore, by installing a camera that captures the meal P at the meal location, it is possible to determine the presence or absence of chewing based on the captured image (specifically, the movement of the mouth of the meal P), and it is possible to determine the presence or absence of chewing. The change can be discriminated. When the camera is installed, it is possible not only to determine the presence or absence of chewing, but also to determine the
(第5実施形態)
本実施形態である食事システムについて、図20〜23を用いて説明する。本実施形態の食事システムでは、食卓としてのトレイを用いており、トレイに内蔵されたディスプレイに映像等を表示させる。
(Fifth Embodiment)
The meal system according to this embodiment will be described with reference to FIGS. 20 to 23. In the meal system of the present embodiment, a tray as a dining table is used, and an image or the like is displayed on a display built in the tray.
図20に示すように、トレイ60は、テーブル(不図示)に載せられるものであり、ディスプレイ61及び外装ケース62を有する。ディスプレイ61は、タッチパネル式のディスプレイであり、各種の情報や映像を表示することができる。外装ケース62は開口部62aを有しており、開口部62aの内側の領域において、ディスプレイ61が露出している。これにより、食事者は、開口部62aの内側の領域において、ディスプレイ61に表示された映像等を視認することができる。なお、開口部62aの形状としては、図20に示す形状に限るものではなく、様々な形状とすることができる。
As shown in FIG. 20, the
外装ケース62の内部に、タッチパネル式のディスプレイを備えたタブレットなどの電子機器を収容し、この電子機器のディスプレイをディスプレイ61として用いることができる。電子機器を外装ケース62の内部に収容する場合には、外装ケース62の内部に、電子機器を位置決めするための構造を設けることができる。
An electronic device such as a tablet provided with a touch panel type display can be housed inside the
図20に示すように、外装ケース62の上面(ディスプレイ61が露出する側の面)には、箸、スプーン、フォークなどの食事器具70を載せることができる。食事器具70には磁石が設けられており、例えば、食事器具70のうち、食事者が握るグリップ部分に磁石を設けることができる。なお、食事器具70は、ディスプレイ61の上面にも載せることができる。
As shown in FIG. 20, a
図21に示すように、トレイ60のディスプレイ61に載せられる食器80は、飲食物を収容する容器81と、容器81の下部に着脱可能に取り付けられるアタッチメント82とを有する。容器81としては、陶器やプラスチックなどで形成された一般的な器を用いることができる。容器81及びアタッチメント82を着脱可能に装着する手段としては、例えば、面ファスナや磁石を用いることができる。
As shown in FIG. 21, the
アタッチメント82の底面には、ディスプレイ61と接触するスタイラス部82aが設けられている。スタイラス部82aは、食器80をディスプレイ61に載せたことを判別するために用いられる。なお、食器80としては、容器81及びアタッチメント82が一体的に構成されたものであってもよい。
A
図22は、トレイ60、食事器具70及び食器80の構成を示すブロック図である。制御部30Aは、第2実施形態(図10)で説明した制御部30Aと同様の機能を有しており、映像判断部31、分析部32及びメモリ33を有する。
FIG. 22 is a block diagram showing the configuration of the
制御部30Aは、ディスプレイ61を駆動したり、ディスプレイ61からの情報(例えば、食器80が載せられた位置に関する情報)を取得したりする。食器80をディスプレイ61に載せたとき、制御部30Aは、スタイラス部82aがディスプレイ61に接触したときのディスプレイ61の出力に基づいて、食器80がディスプレイ61に載せられたことを判別したり、ディスプレイ61における食器80の載置位置を特定したりする。これにより、制御部30Aは、ディスプレイ61を駆動することにより、第2実施形態と同様に、食器80の位置に対応した表示領域(ディスプレイ61の一部の領域)において、映像(例えば、図11に示す映像)を表示させることができる。なお、ディスプレイ61の表示領域の全体に映像を表示させることもできる。
The
磁気センサ63は、トレイ60のうち、食事器具70が載置される位置に対して設けられており、トレイ60に食事器具70が載せられているときに、食事器具70に含まれる磁石を検出し、この検出結果を制御部30Aに送信する。制御部30Aは、磁気センサ63の出力に基づいて、食事器具70がトレイ60に載せられているか否かを判別する。ここで、食事器具70がトレイ60に載せられているときには、食事者が食事器具70を使用していないことになるため、食事者が食事をしていないことを判別できる。一方、食事器具70がトレイ60に載せられていないときには、食事者が食事器具70を使用していることになるため、食事者が食事をしていることを判別できる。
The
重量センサ64は、トレイ60に載せられた物(食事器具70や食器80(容器81内の飲食物を含む))の総重量を測定し、この測定結果を制御部30Aに送信する。容器81に飲食物が収容されていない食器80をディスプレイ61に載せれば、重量センサ64によって、容器81に飲食物を収容する前の食器80自体の重量を測定することができる。また、容器81に飲食物が収容された食器80をディスプレイ61に載せれば、重量センサ64によって、容器81に飲食物を収容した後の食器80の重量を測定することができる。このように食器80の重量を測定すれば、容器81に収容された飲食物の重量の変化を把握することができる。これにより、第2実施形態で説明したように、食事量に基づく評価を行うことができる。
The
ディスプレイ61に表示させる情報としては、例えば、容器81内の飲食物の重量、トレイ60に載せられた物(食事器具70、食器80、容器81内の飲食物を含む)の総重量、トレイ60に食事器具70が載せられているか否かの情報、容器81内の飲食物の残量が挙げられる。飲食物の残量は、例えば、飲食物の初期重量に対して、現在残っている飲食物の重量の割合として表示することができる。
The information to be displayed on the
容器81には、容器81毎の識別子である容器IDを送信する送信器81aが設けられている。トレイ60には、送信器81aから送信された容器IDを受信する受信器65が設けられている。受信器65は、受信した容器IDを制御部30Aに送信し、制御部30Aは、容器IDに基づいて、トレイ60に載せられた容器81を特定することができる。
The
次に、食事の有無を判別する処理について、図23に示すフローチャートを用いて説明する。 Next, the process of determining the presence or absence of meals will be described with reference to the flowchart shown in FIG.
ステップS501において、制御部30A(分析部32)は、磁気センサ63からの出力があるか否かを判別する。磁気センサ63からの出力があるとき、ステップS502において、制御部30A(分析部32)は、トレイ60に食事器具70が載せられており、食事者が食事中ではないと判別する。磁気センサ63からの出力が無いとき、ステップS503において、制御部30A(分析部32)は、トレイ60に食事器具70が載せられていなく、食事者が食事中であると判別する。
In step S501, the
上述したように食事中であるか否かを判別すれば、食事中ではない状態から食事中である状態に変化したこと、すなわち、食事状態の変化を判別することができる。このように食事状態の変化を判別したとき、制御部30A(映像判断部31)は、ディスプレイ61に映像を表示させることができ、食事者は、ディスプレイ61に表示された映像を視認することができる。
By determining whether or not a person is eating as described above, it is possible to determine that the state has changed from a state not being eaten to a state being eaten, that is, a change in the eating state. When the change in the eating state is determined in this way, the
ディスプレイ61に映像を表示させる方法は、第1実施形態や第2実施形態で説明したとおりである。例えば、図6に示す映像データテーブルと同様に、映像コンテンツを識別するためのコンテンツIDや容器81を識別するための容器ID(図6に示す食器IDに相当する)を対応付けて管理することにより、容器81に応じた映像をディスプレイ61に表示させることができる。ここで、容器IDは、上述したように容器81に設けられた送信器81aから取得することができる。
The method of displaying the image on the
第1実施形態や第2実施形態で説明した映像コンテンツ(コンテンツID)と容器IDの対応つけは、食事を開始する前に食事者が、容器81に入れる食材や料理の種類(ごはん、肉、魚、揚げ物、焼き物、汁物、デザートなど)とそれに対応つける映像コンテンツ(コンテンツID)を、それぞれ選択できるようにしておくことも可能である。
The correspondence between the video content (content ID) and the container ID described in the first embodiment and the second embodiment is the type of ingredients and dishes (rice, meat, etc.) that the eater puts in the
この場合、食事者が利用している容器81の容器IDを取得し、その容器81に入れる食材や料理の種類と映像コンテンツ(コンテンツID)を食事者が選択することにより対応つけした結果として図6に示す映像データテーブルで管理する。ここで、図6に示す食器ID(本実施形態では、容器ID)には、食材や料理の種類が対応つけられる。尚、映像コンテンツとしては、予め用意された映像コンテンツに加え、食事者が自分の好みで映像コンテンツを登録することも可能である。これにより、食材や料理の種類ごとに固定の容器81を利用する必要がなく、同一の容器81に対して異なる食材や異なる種類の料理を入れても、容器81に入れた食材や料理の種類に応じた映像を映し出すことができる。また、食事者が自分の好みで映像コンテンツを登録することにより、自分好みの映像を映し出すことができる。
In this case, the figure shows the result of acquiring the container ID of the
本実施形態によれば、食事者が食事をするために食事器具70を使用することに応じて、ディスプレイ61に映像を表示させることができる。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。
According to the present embodiment, an image can be displayed on the
なお、本実施形態では、食事器具70に設けた磁石と磁気センサ63を用いることにより、トレイ60に食事器具70が載せられていることを検出しているが、これに限るものではない。例えば、第1実施形態で説明したRFIDリーダやRFIDタグを用いて、トレイ60に食事器具70が載せられていることを検出することができる。
In the present embodiment, the magnet and the
また、本実施形態のように、トレイ60に食事器具70が載せられていることを検出する構成は、第1実施形態から第4実施形態で説明した食事システムにも適用することができる。すなわち、第1実施形態から第4実施形態で説明した食卓10の上面10aに、本実施形態で説明した食事器具70を載せる場合であっても、本実施形態を適用することができる。
Further, the configuration for detecting that the
本実施形態によれば、図23に示す処理によって食事中であるか否かを判別することにより、食事をしている時間帯と、食事をしていない時間帯とを区別することができる。ここで、食事をしている時間帯は、第1実施形態で説明した蓋開口時刻に相当し、食事をしていない時間帯は、第1実施形態で説明した蓋閉口時刻に相当する。これにより、第1実施形態で説明したように、食事時間を算出して、食事時間に基づく評価を行うことができる。 According to the present embodiment, by determining whether or not a person is eating by the process shown in FIG. 23, it is possible to distinguish between a time zone during which a meal is being eaten and a time zone during which a meal is not being eaten. Here, the time zone during which the meal is eaten corresponds to the lid opening time described in the first embodiment, and the time zone during which the meal is not eaten corresponds to the lid closing time described in the first embodiment. Thereby, as described in the first embodiment, the meal time can be calculated and the evaluation based on the meal time can be performed.
また、第2実施形態で説明したように、ディスプレイ61に映像を表示させることに加えて、トレイ60に設けたスピーカ(不図示)から音を発生させることもできる。この場合には、図7に示す音声データテーブルと同様に、音声ID、音声ファイル名、コンテンツID、音声再生時間を対応付けて管理することにより、音を発生させることができる。
Further, as described in the second embodiment, in addition to displaying the image on the
音声も上述の映像と同様、食事者が登録することも可能であり、音声ID及びコンテンツID(映像コンテンツ)との対応つけも食事者が設定するようにして、色々な組み合わせを登録できるようにすることも可能である。 The audio can be registered by the meal as well as the above-mentioned video, and the correspondence between the audio ID and the content ID (video content) can be set by the meal so that various combinations can be registered. It is also possible to do.
尚、映像や音声の登録は後述の第6実施形態(図24)で説明する設定表示装置300から行うことができる。食事者が追加登録した映像や音声は、第6実施形態(図24)で説明する分析システム200で管理することができ、追加登録された映像や音声は、この登録を行った食事者以外の食事者が利用できるようにしても良い。
The video and audio can be registered from the setting
このように、食事者好みの映像や音声を登録して、自由な組み合わせでの利用を可能とすることで、食事者が、楽しく飽きることなく食事をすることが可能となる。 In this way, by registering the video and audio of the eater's preference and making it possible to use them in any combination, the eater can enjoy eating without getting bored.
本実施形態の変形例として、アタッチメント82に磁石を設けるとともに、トレイ60に、アタッチメント82の磁石を検出する磁気センサ(以下、食器検出用の磁気センサという)を設けることができる。食器検出用の磁気センサは、ディスプレイ61に対応した位置に設けることができ、トレイ60に食器80が載せられているときに、アタッチメント82に含まれる磁石を検出し、この検出結果を制御部30Aに送信する。制御部30Aは、食器検出用の磁気センサの出力に基づいて、食器80がトレイ60に載せられているか否かを判別する。なお、磁石は、アタッチメント82ではなく、容器81に設けることもできる。
As a modification of this embodiment, the
ここで、食器80が載置される領域内の複数の位置に複数の食器検出用の磁気センサをそれぞれ配置すれば、食器80の載置位置を特定することができる。具体的には、複数の食器検出用の磁気センサのうち、アタッチメント82に含まれる磁石を検出した食器検出用の磁気センサの出力に基づいて、食器80の載置位置を特定することができる。食器80の載置位置を特定できれば、この載置位置に対応した表示領域(ディスプレイ61の一部の領域)において、映像(例えば、図11に示す映像)を表示させることができる。また、食器80毎に、食器検出用の磁気センサによって検出される磁気状態を異ならせれば、容器81毎の識別子(上述した容器IDに相当する)を判別することができる。
Here, if a plurality of magnetic sensors for detecting tableware are arranged at a plurality of positions in the area where the
(第6実施形態)
本実施形態である分析システムについて、図24を用いて説明する。本実施形態の分析システム200は、食事システム100及び設定表示装置300のそれぞれとネットワークを介して接続されている。
(Sixth Embodiment)
The analysis system according to this embodiment will be described with reference to FIG. 24. The
食事システム100は、第1実施形態から第5実施形態で説明した食事システムに相当し、食器又は食事者に関する食事状態を検出するセンシング部110と、センシング部110によって検出された食事状態に応じた処理(映像の表示や音声の出力)を行うリアクション部120とを有する。
The
センシング部110には、第1実施形態で説明したRFIDタグ43及びRFIDリーダ22が含まれたり、第2実施形態で説明したタッチパネルディスプレイ12が含まれたり、第4実施形態で説明したマイク51が含まれたり、第5実施形態で説明したディスプレイ61、磁気センサ63及び重量センサ64が含まれたりする。リアクション部120は、第1実施形態で説明したプロジェクタ21やスピーカが含まれたり、第2実施形態で説明したタッチパネルディスプレイ12やスピーカが含まれたり、第4実施形態で説明したプロジェクタやタッチパネルディスプレイが含まれたり、第5実施形態で説明したディスプレイ61やスピーカが含まれたりする。
The
分析システム200は、センシングデータ取得部210と、センシングデータ記憶部220と、効果分析部230と、目標値管理部240とを有する。センシングデータ取得部210は、食事システム100のセンシング部110によって検出されたデータ(食事状態に関するデータ)を取得する。センシングデータ記憶部220は、センシングデータ取得部210が取得したデータを記憶する。
The
効果分析部230は、センシングデータ記憶部220に記憶されたデータと、このデータに対応する目標値とに基づいて、所定の分析を行う。この分析は、第1実施形態から第5実施形態で説明した分析部32の処理(目標値を用いた評価)に相当する。目標値管理部240は、設定表示装置300から送信された目標値を管理する。目標値管理部240で管理されている目標値は、効果分析部230での処理に用いられる。
The
設定表示装置300は、目標値設定部310と、分析結果表示部320とを有する。設定表示装置300としては、例えば、第1実施形態などで説明した、食事者や食事者以外の者が保有する携帯端末が挙げられる。
The
目標値設定部310は、目標値を設定するために用いられる。目標値設定部310で設定された目標値は、分析システム200に送信される。この目標値としては、例えば、第1実施形態で説明した食事時間の目標値、第2実施形態で説明した食事量の目標値、第4実施形態で説明した咀嚼回数の目標値が挙げられる。分析結果表示部320は、分析システム200から送信された分析結果(効果分析部230の分析結果)を表示する。
The target
分析結果は、例えば図25に示すように、咀嚼回数、食べた量、品目数、摂取カロリー、食事時間、褒められた回数などを軸とするレーダーチャートで表示する。図25に示すように食事システム100の利用開始前と利用開始後とで比較できるように表示するなど、表示方法は様々である。利用開始前の情報は、例えば、第1実施形態から第5実施形態に記載の食事システムで映像や音声は利用せず、咀嚼回数や食事時間等の情報を取得することで分析可能である。また、設定した目標値と比較できるようにレーダーチャートを目標値と実績値を重ねて表示するようにしても良い。また、食事システム100の利用者に対する分析結果の提供は上記に限らず、他の利用者の状況と比較した結果のランキングや、食べた量などに基づく好き嫌いの傾向や栄養摂取量など、食事システム100から取得した情報を利用することで様々な分析結果を提供することができる。
As shown in FIG. 25, for example, the analysis result is displayed on a radar chart centered on the number of times of chewing, the amount of food eaten, the number of items, the calorie intake, the meal time, the number of times of praise, and the like. As shown in FIG. 25, there are various display methods such as displaying the
分析システム200は、ネットワークを介して外部システム400に接続されており、効果分析部230の処理で得られた情報を外部システム400に送信することができる。ここで、効果分析部230の処理で得られた情報に加えて、センシングデータ記憶部220に記憶されているデータや、目標値管理部240で管理されている目標値を、外部システム400に送信することができる。
The
外部システム400については、分析システム200を所有する企業とは異なる企業が所有しており、外部システム400を所有する企業は、分析システム200から送信された情報を活用して様々な事業(商品開発、需要予測、サービス提供など)を行うことができる。
The
なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described, the embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
10:食卓、11:スクリーン、12:タッチパネルディスプレイ、21:プロジェクタ、22:RFIDリーダ、25:マイクアンプ、30:外部装置、31:映像判断部、32:分析部、33:メモリ、40:食器、41:容器、42:蓋、43:RFIDタグ、50:装着具、51:マイク、60:トレイ、61:ディスプレイ、63:磁気センサ、64:重量センサ、65:受信器、70:食事器具、80:食器、81:容器、81a:送信器、82:アタッチメント、82a:スタイラス部 10: Dining table, 11: Screen, 12: Touch panel display, 21: Projector, 22: RFID reader, 25: Microphone amplifier, 30: External device, 31: Video judgment unit, 32: Analysis unit, 33: Memory, 40: Tableware , 41: Container, 42: Lid, 43: RFID Tag, 50: Attacher, 51: Microphone, 60: Tray, 61: Display, 63: Magnetic Sensor, 64: Weight Sensor, 65: Receiver, 70: Dining Equipment , 80: Tableware, 81: Container, 81a: Transmitter, 82: Attachment, 82a: Stylus part
Claims (17)
前記食器を載せるための載置面を備えた食卓と、
前記センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、前記載置面に映像を表示させる制御部と、
を有することを特徴とする食事システム。 A sensor unit that detects the eating condition of tableware or the eater,
A dining table with a mounting surface for placing the tableware,
Based on the detection result of the sensor unit, when it is determined that the eating condition has changed, the control unit that displays an image on the above-mentioned mounting surface and the control unit.
A dietary system characterized by having.
前記制御部は、前記センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、前記スピーカを駆動することを特徴とする請求項1に記載の食事システム。 It is provided on the dining table and has a speaker that outputs sound.
The meal system according to claim 1, wherein the control unit drives the speaker when it determines that the meal state has changed based on the detection result of the sensor unit.
前記載置面は、透光性を有し、前記プロジェクタからの映像が投射されるスクリーンで構成されていることを特徴とする請求項1から3のいずれか1つに記載の食事システム。 It has a projector that is installed inside the dining table and projects images.
The meal system according to any one of claims 1 to 3, wherein the mounting surface has translucency and is composed of a screen on which an image from the projector is projected.
前記センサ部は、
前記容器又は前記蓋に設けられた無線通信タグと、
前記無線通信タグと通信を行う無線通信リーダと、
を含むことを特徴とする請求項1から4のいずれか1つに記載の食事システム。 The tableware has a container for accommodating food and drink and a lid for closing the opening of the container.
The sensor unit
With the wireless communication tag provided on the container or the lid,
A wireless communication reader that communicates with the wireless communication tag,
The dietary system according to any one of claims 1 to 4, wherein the dietary system comprises.
前記制御部は、前記咀嚼音に応じて前記映像を表示させることを特徴とする請求項1から5のいずれか1つに記載の食事システム。 The sensor unit detects the chewing sound of the eater and
The meal system according to any one of claims 1 to 5, wherein the control unit displays the image in response to the chewing sound.
前記容器は、
音を出力するスピーカと、
前記容器内の光状態を検出する光センサと、
前記光センサの検出結果に基づいて、前記容器から前記蓋が取り外されたことを判別したとき、前記スピーカを駆動する制御部と、
を有することを特徴とする請求項1から7のいずれか1つに記載の食事システム。 The tableware has a container for accommodating food and drink and a lid for closing the opening of the container.
The container is
A speaker that outputs sound and
An optical sensor that detects the light state inside the container,
When it is determined that the lid has been removed from the container based on the detection result of the optical sensor, the control unit that drives the speaker and the control unit
The dietary system according to any one of claims 1 to 7, wherein the dietary system is characterized by having.
前記センサ部は、前記食事器具が前記食卓に載せられていることを検出することを特徴とする請求項1から8のいずれか1つに記載の食事システム。 The tableware includes eating utensils for carrying food and drink to the mouth of the eater.
The meal system according to any one of claims 1 to 8, wherein the sensor unit detects that the meal utensil is placed on the table.
前記データ取得部が取得した前記データに基づいて食事者の食事内容を特定し、特定した食事内容と食事内容に関する目標値を比較することにより食事内容に関する評価を行う分析部と、
を有することを特徴とする分析システム。 A data acquisition unit that acquires dietary status data,
An analysis unit that identifies the meal content of the eater based on the data acquired by the data acquisition unit and evaluates the meal content by comparing the specified meal content with the target value related to the meal content.
An analytical system characterized by having.
前記食事システムから前記食事状態のデータを取得するデータ取得部と、
前記データ取得部が取得した前記データに基づいて特定した食事者の食事内容と食事内容に関する目標値を比較することにより、食事内容および前記リアクション部による処理の効果に関する評価を行う分析部と、
を有することを特徴とする分析システム。 An analysis system capable of communicating via a network with a meal system having a sensing unit that detects a meal state and a reaction unit that performs processing according to the meal state.
A data acquisition unit that acquires the data of the meal state from the meal system, and
An analysis unit that evaluates the meal content and the effect of processing by the reaction unit by comparing the meal content of the eater specified based on the data acquired by the data acquisition unit with the target value related to the meal content.
An analytical system characterized by having.
前記設定装置から取得した前記目標値を前記分析部による前記評価のために管理する管理部を有することを特徴とする請求項10から13のいずれか1つに記載の分析システム。 The analysis system can communicate with a setting device for setting the target value via a network.
The analysis system according to any one of claims 10 to 13, further comprising a management unit that manages the target value acquired from the setting device for the evaluation by the analysis unit.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167988 | 2019-09-17 | ||
JP2019167988 | 2019-09-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021049337A true JP2021049337A (en) | 2021-04-01 |
Family
ID=75156653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020156268A Pending JP2021049337A (en) | 2019-09-17 | 2020-09-17 | Meal system and analysis system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021049337A (en) |
-
2020
- 2020-09-17 JP JP2020156268A patent/JP2021049337A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11903527B2 (en) | Foodware system having visual-stimulating, sensing, and wireless-communication components, and method of using with a plurality of dining plates | |
US7201099B2 (en) | Device and system for monitoring food | |
CN104602576B (en) | Capsule memory | |
US20200278238A1 (en) | Sensing pad | |
US11287305B2 (en) | Meal lifecycle management method and system | |
CN105564866B (en) | Reminding method and device | |
JP6890347B2 (en) | A smart tray that measures food intake and weight change and a weight management system that includes it | |
CN108172273A (en) | A kind of refrigerator food materials based on visitor recommend method | |
US9524409B1 (en) | Food storage container tag system and method | |
JP2021049337A (en) | Meal system and analysis system | |
JP2005253850A (en) | Dish state management system | |
JP2014123214A (en) | Electronic apparatus | |
JP6590005B2 (en) | Electronic device and program | |
JP6277582B2 (en) | Electronics | |
JP2009211434A (en) | Method and system for calculating nutrient intake | |
JP2014123215A (en) | Electronic apparatus | |
JP2011150585A (en) | Menu creation system | |
CN107951387A (en) | Information displaying method and device, drink maker | |
CN104199340A (en) | Cooking voice interaction system and cooking voice interaction method | |
CN114354002A (en) | Return prompting method and device for wireless temperature measurement probe, electronic equipment and medium | |
JP7155589B2 (en) | dining table | |
CN107998673B (en) | Toy device based on near field communication | |
KR101884752B1 (en) | System for providing cooking time management service of meat and fish and Driving method thereof, Server for providing cooking management service | |
WO2014097671A1 (en) | Electronic apparatus | |
CN217447458U (en) | Toaster |