JP2021049337A - Meal system and analysis system - Google Patents

Meal system and analysis system Download PDF

Info

Publication number
JP2021049337A
JP2021049337A JP2020156268A JP2020156268A JP2021049337A JP 2021049337 A JP2021049337 A JP 2021049337A JP 2020156268 A JP2020156268 A JP 2020156268A JP 2020156268 A JP2020156268 A JP 2020156268A JP 2021049337 A JP2021049337 A JP 2021049337A
Authority
JP
Japan
Prior art keywords
meal
container
image
tableware
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020156268A
Other languages
Japanese (ja)
Inventor
丈太 鈴木
Jiyouta Suzuki
丈太 鈴木
僚司 野上
Ryoji Nogami
僚司 野上
真一 立田
Shinichi Tatsuta
真一 立田
江波戸 明彦
Akihiko Ebato
明彦 江波戸
香織 澤井
Kaori Sawai
香織 澤井
亮伯 駒木
Akinori Komaki
亮伯 駒木
秀人 清水
Hideto Shimizu
秀人 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Publication of JP2021049337A publication Critical patent/JP2021049337A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Table Devices Or Equipment (AREA)
  • Tables And Desks Characterized By Structural Shape (AREA)
  • Table Equipment (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a meal system allowing an eater to experience pleasure of a meal.SOLUTION: A meal system in one embodiment comprises: a sensor unit to sense a meal state regarding an eater or tableware; a dining table with a placement surface on which the tableware is placed; and a control unit for displaying an image on the placement surface when it is determined that the meal state has changed on the basis of a sensing result from the sensor unit.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、食事者の視覚などを刺激することにより、食事者に食事の楽しみを体感させることができる食事システムおよび分析システムに関する。 An embodiment of the present invention relates to a meal system and an analysis system capable of allowing a mealr to experience the enjoyment of a meal by stimulating the eyesight of the mealer.

特許文献1には、エンターテインメント性を高くし、楽しみながら行儀よく食事を行わせるための食事用載置具が開示されている。この食事用載置具は、食品が置かれる筐体に生じる事象を検知し、この検知状態に基づいて外部に情報(光、音声、画像)を出力している。ここで、筐体に生じる事象とは、食品の重量の減少や、筐体に肘をついたときの圧力である。 Patent Document 1 discloses a dining jig for enhancing entertainment and allowing a person to eat in a well-behaved manner while having fun. This eating jig detects an event that occurs in a housing in which food is placed, and outputs information (light, sound, image) to the outside based on this detection state. Here, the events that occur in the housing are a decrease in the weight of food and pressure when the elbow is attached to the housing.

特開2019−005552号公報Japanese Unexamined Patent Publication No. 2019-005552

本実施形態の目的は、特許文献1に記載の発明とは異なる手段によって、食事者に食事の楽しみを体感させることにある。 An object of the present embodiment is to allow a mealr to experience the enjoyment of eating by means different from the invention described in Patent Document 1.

本実施形態である食事システムは、食器又は食事者に関する食事状態を検出するセンサ部と、食器を載せるための載置面を備えた食卓と、センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、載置面に映像を表示させる制御部と、を有する。 In the meal system of the present embodiment, the meal state changes based on the detection result of the sensor unit for detecting the meal state of the tableware or the eater, the dining table provided with the mounting surface for placing the tableware, and the sensor unit. It has a control unit for displaying an image on the mounting surface when it is determined that the result has been achieved.

食卓には、音を出力するスピーカを設けることができる。ここで、制御部は、センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、スピーカを駆動することができる。また、制御部は、所定時間の間、載置面に映像を表示させることができる。 The dining table may be provided with a speaker that outputs sound. Here, the control unit can drive the speaker when it is determined that the eating state has changed based on the detection result of the sensor unit. In addition, the control unit can display an image on the mounting surface for a predetermined time.

食卓の内部には、映像を投射するプロジェクタを設けることができる。ここで、食卓の載置面は、透光性を有し、プロジェクタからの映像が投射されるスクリーンで構成することができる。一方、載置面は、映像を表示するとともに、食事状態として、載置面に対する接触状態を検出するタッチパネルディスプレイで構成することもできる。 A projector that projects an image can be provided inside the dining table. Here, the mounting surface of the dining table has translucency and can be configured by a screen on which an image from the projector is projected. On the other hand, the mounting surface may be configured by a touch panel display that displays an image and detects a contact state with the mounting surface as a meal state.

食器は、飲食物を収容する容器と、容器の開口を塞ぐ蓋とで構成することができる。ここで、センサ部は、容器又は蓋に設けられた無線通信タグと、無線通信タグと通信を行う無線通信リーダと、を含むことができる。 The tableware can be composed of a container for accommodating food and drink and a lid for closing the opening of the container. Here, the sensor unit can include a wireless communication tag provided on the container or a lid, and a wireless communication reader that communicates with the wireless communication tag.

センサ部は、食事者の咀嚼音を検出することができる。そして、制御部は、咀嚼音に応じて映像を表示させることができる。 The sensor unit can detect the chewing sound of the eater. Then, the control unit can display an image according to the chewing sound.

食器は、飲食物を収容する容器と、容器の開口を塞ぐ蓋とで構成することができる。ここで、容器には、音を出力するスピーカと、容器内の光状態を検出する光センサと、光センサの検出結果に基づいて、容器から蓋が取り外されたことを判別したとき、スピーカを駆動する制御部とを設けることができる。 The tableware can be composed of a container for accommodating food and drink and a lid for closing the opening of the container. Here, the container includes a speaker that outputs sound, an optical sensor that detects the light state inside the container, and a speaker when it is determined that the lid has been removed from the container based on the detection result of the optical sensor. A control unit for driving can be provided.

食器には、飲食物を食事者の口に運ぶための食事器具を含めることができる。ここで、センサ部は、食事器具が食卓に載せられていることを検出することができる。 Tableware can include eating utensils for bringing food and drink to the mouth of the eater. Here, the sensor unit can detect that the meal utensil is placed on the table.

第1実施形態である食事システムの構成を示す概略図である。It is the schematic which shows the structure of the meal system which is 1st Embodiment. RFIDタグを備えた蓋と、容器とによって構成される食器を示す概略図である。It is a schematic diagram which shows the tableware which consists of a lid equipped with an RFID tag, and a container. RFIDタグ情報管理テーブルを示す図である。It is a figure which shows the RFID tag information management table. 取得データ管理テーブル(蓋にRFIDタグを設置の場合)を示す図である。It is a figure which shows the acquisition data management table (when the RFID tag is installed on the lid). 第1実施形態において、スクリーンに映像を表示する処理を示すフローチャートである。In the first embodiment, it is a flowchart which shows the process of displaying an image on a screen. 映像データテーブル(RFID対応)を示す図である。It is a figure which shows the video data table (corresponding to RFID). 音声データテーブル(RFID対応)を示す図である。It is a figure which shows the voice data table (RFID correspondence). RFIDタグを備えた容器と、蓋とによって構成される食器を示す概略図である。It is a schematic diagram which shows the tableware which consists of a container with an RFID tag, and a lid. 取得データ管理テーブル(容器にRFIDタグを設置の場合)を示す図である。It is a figure which shows the acquisition data management table (when the RFID tag is installed in a container). 第2実施形態である食事システムの構成を示す概略図である。It is the schematic which shows the structure of the meal system which is 2nd Embodiment. タッチパネルディスプレイの表示例を示す概略図である。It is the schematic which shows the display example of the touch panel display. 第2実施形態において、タッチパネルディスプレイに映像を表示する処理を示すフローチャートである。In the second embodiment, it is a flowchart which shows the process of displaying an image on a touch panel display. 取得データ管理テーブルを示す図である。It is a figure which shows the acquired data management table. 第3実施形態における食器の構成を示す概略図である。It is a schematic diagram which shows the structure of the tableware in 3rd Embodiment. 第3実施形態において、スピーカの駆動処理を示すフローチャートである。It is a flowchart which shows the drive process of a speaker in 3rd Embodiment. 第4実施形態である食事システムの構成を示す概略図である。It is the schematic which shows the structure of the meal system which is 4th Embodiment. 映像データテーブル(咀嚼音対応)を示す図である。It is a figure which shows the video data table (corresponding to the chewing sound). 第4実施形態において、スクリーンに映像を表示する処理を示すフローチャートである。In the fourth embodiment, it is a flowchart which shows the process of displaying an image on a screen. 音声データテーブル(咀嚼音対応)を示す図である。It is a figure which shows the voice data table (corresponding to chewing sound). 第5実施形態におけるトレイの外観を示す概略図である。It is the schematic which shows the appearance of the tray in 5th Embodiment. 第5実施形態における容器の構成を示す概略図である。It is the schematic which shows the structure of the container in 5th Embodiment. 第5実施形態におけるトレイ及び食器の構成を示すブロック図である。It is a block diagram which shows the structure of the tray and the tableware in 5th Embodiment. 第5実施形態において、食事の有無を判別する処理を示すフローチャートである。FIG. 5 is a flowchart showing a process of determining the presence or absence of a meal in the fifth embodiment. 食事システム、分析システム及び設定表示装置の構成を示す概略図である。It is the schematic which shows the structure of the meal system, the analysis system and the setting display device. 食事システムの利用を開始する前と後における測定結果を示すレーダーチャートである。It is a radar chart which shows the measurement result before and after starting the use of the meal system.

(第1実施形態)
本実施形態である食事システムについて、図1を用いて説明する。本実施形態の食事システムは、食事者が食事のために食器の蓋を移動させること(食事状態の変化)に応じて、食卓上のスクリーンに映像を表示する。これにより、食事者の視覚を通じて、食事者に食事の楽しみを与えることができる。ここで、食卓とは、一般的なテーブルのみならず、食事の際に利用する器などを載せるものの全てを含む総称である。例えば、食卓には、トレイが含まれる。
(First Embodiment)
The meal system according to this embodiment will be described with reference to FIG. The meal system of the present embodiment displays an image on a screen on the table in response to the meal moving the lid of the tableware for meals (change in meal condition). This makes it possible to give the eater the enjoyment of eating through the eyes of the eater. Here, the dining table is a general term that includes not only a general table but also a table on which a vessel or the like used for meals is placed. For example, the dining table includes a tray.

食卓10の上面10aには、食卓10の内部(後述するプロジェクタ21)からの映像が投射されるスクリーン11が配置されている。スクリーン11の上面は、平坦な面で構成することができる。スクリーン11は透光性を有しており、例えば、半透明の材料で形成することができる。スクリーン11は、食卓10の外部から食卓10の内部を確認しにくい程度の透明性を有することが好ましい。これにより、食事者などに食卓10の内部構造が見えてしまうことを抑制できる。スクリーン11は、プロジェクタ21からの映像を透過させることにより、食卓10の外部に向けて映像を表示させることができる。これにより、食事者は、スクリーン11に投射された映像を視認することができる。 On the upper surface 10a of the dining table 10, a screen 11 on which an image from the inside of the dining table 10 (projector 21 described later) is projected is arranged. The upper surface of the screen 11 can be formed of a flat surface. The screen 11 is translucent and can be made of, for example, a translucent material. The screen 11 is preferably transparent to such an extent that it is difficult to see the inside of the table 10 from the outside of the table 10. As a result, it is possible to prevent the internal structure of the dining table 10 from being seen by the eater or the like. By transmitting the image from the projector 21, the screen 11 can display the image toward the outside of the dining table 10. As a result, the eater can visually recognize the image projected on the screen 11.

食卓10の内部には、プロジェクタ21が配置されている。プロジェクタ21は、スクリーン11の下面(食卓10の内部を向く面)に対して所定の映像を投射する。プロジェクタ21は、スクリーン11に映像を投射することができればよく、食卓10の内部においてプロジェクタ21を配置する位置は、適宜決めることができる。図1では、プロジェクタ21からスクリーン11に映像を直接、投射しているが、これに限るものではない。具体的には、プロジェクタ21から投射された映像を、不図示の光学系(反射ミラーなどを含む)を介してスクリーン11に投射することができる。 A projector 21 is arranged inside the dining table 10. The projector 21 projects a predetermined image on the lower surface of the screen 11 (the surface facing the inside of the dining table 10). The projector 21 only needs to be able to project an image on the screen 11, and the position where the projector 21 is arranged inside the dining table 10 can be appropriately determined. In FIG. 1, an image is directly projected from the projector 21 to the screen 11, but the present invention is not limited to this. Specifically, the image projected from the projector 21 can be projected onto the screen 11 via an optical system (including a reflection mirror) (not shown).

プロジェクタ21は、食卓10の外部に設置される外部装置30と有線又は無線を介して接続されている。外部装置30は、プロジェクタ21の駆動を制御したり、プロジェクタ21に送信する映像データを決定したりする。外部装置30は、映像データを決定する映像判断部31を有しており、映像判断部31は、後述する分析部32の分析結果に基づいて映像データを決定する。具体的には、メモリ33に複数の映像データを記憶させておくことにより、映像判断部31は、複数の映像データのなかから、プロジェクタ21に送信する映像データを決定する。なお、メモリ33は必ずしも外部装置30に含まれなくてもよく、ネットワーク上のファイルサーバー等を利用してもよい。それらとの通信には、無線通信や近距離無線通信あるいは光通信などを用いることができる。映像データの配信サービスと組み合わせることも可能である。 The projector 21 is connected to an external device 30 installed outside the dining table 10 via a wire or wirelessly. The external device 30 controls the drive of the projector 21 and determines the video data to be transmitted to the projector 21. The external device 30 has a video determination unit 31 that determines the video data, and the video determination unit 31 determines the video data based on the analysis result of the analysis unit 32 described later. Specifically, by storing a plurality of video data in the memory 33, the video determination unit 31 determines the video data to be transmitted to the projector 21 from among the plurality of video data. The memory 33 does not necessarily have to be included in the external device 30, and a file server or the like on the network may be used. For communication with them, wireless communication, short-range wireless communication, optical communication, or the like can be used. It can also be combined with a video data distribution service.

食卓10の内部には、RFID(Radio Frequency Identifier)リーダ(無線通信リー)22が配置されており、RFIDリーダ22は、後述する食器40の蓋42に設けられたRFIDタグ(無線通信タグ)43との間で通信を行う。この通信の方式としては、電磁誘導方式や電波方式が挙げられる。RFIDリーダ22は詳しくはRFIDリーダ本体とRFIDアンテナや電源等から構成される。また、RFIDタグ43としては、パッシブ型タグやアクティブ型タグが挙げられる。RFIDリーダ22は、有線又は無線を介して外部装置30と接続されており、RFIDリーダ22の読取情報が外部装置30に送信される。外部装置30の分析部32は、RFIDリーダ22からの読取情報に基づいて、食器40の容器41から蓋42が取り外されたか否かを判別する。分析部32の詳細な処理については、後述する。 An RFID (Radio Frequency Identifier) reader (wireless communication Lee) 22 is arranged inside the dining table 10, and the RFID reader 22 is an RFID tag (wireless communication tag) 43 provided on the lid 42 of the tableware 40, which will be described later. Communicate with. Examples of this communication method include an electromagnetic induction method and a radio wave method. The RFID reader 22 is specifically composed of an RFID reader main body, an RFID antenna, a power supply, and the like. Further, as the RFID tag 43, a passive type tag and an active type tag can be mentioned. The RFID reader 22 is connected to the external device 30 via wire or wirelessly, and the reading information of the RFID reader 22 is transmitted to the external device 30. The analysis unit 32 of the external device 30 determines whether or not the lid 42 has been removed from the container 41 of the tableware 40 based on the information read from the RFID reader 22. The detailed processing of the analysis unit 32 will be described later.

次に、食器40の構造について、図1及び図2を用いて説明する。食器40は、スクリーン11の上面に置かれる。食器40は防水、食器洗い機対応など、実用上の故障防止対策の取られていることが望ましい。 Next, the structure of the tableware 40 will be described with reference to FIGS. 1 and 2. The tableware 40 is placed on the upper surface of the screen 11. It is desirable that the tableware 40 has practical failure prevention measures such as waterproofing and dishwasher compatible.

食器40は、飲食物が収容される容器41と、容器41の開口を閉じるための蓋42とを有する。図2に示すように、蓋42にはRFIDタグ43が設けられている。RFIDタグ43は、蓋42の外面に取り付けることもできるし、蓋42の内部に埋め込むこともできる。 The tableware 40 has a container 41 for accommodating food and drink, and a lid 42 for closing the opening of the container 41. As shown in FIG. 2, the lid 42 is provided with an RFID tag 43. The RFID tag 43 can be attached to the outer surface of the lid 42, or can be embedded inside the lid 42.

蓋42が容器41の開口を閉じているときには、RFIDリーダ22及びRFIDタグ43との間の通信が遮断される。例えば、容器41に電磁シールドを設けることにより、RFIDリーダ22及びRFIDタグ43の間の通信を遮断することができる。容器41に電磁シールドを設ける方法としては、例えば、容器41を金属で形成したり、容器41の表面に電磁シールド層を形成したりすることができる。電磁シールド層の材料としては、公知の材料を用いることができる。一方、容器41に飲食物が収容されているときには、飲食物によって、RFIDリーダ22及びRFIDタグ43の間の通信を遮断することができる。 When the lid 42 closes the opening of the container 41, communication between the RFID reader 22 and the RFID tag 43 is cut off. For example, by providing the container 41 with an electromagnetic shield, communication between the RFID reader 22 and the RFID tag 43 can be blocked. As a method of providing the container 41 with an electromagnetic shield, for example, the container 41 can be formed of metal, or an electromagnetic shield layer can be formed on the surface of the container 41. As the material of the electromagnetic shield layer, a known material can be used. On the other hand, when food and drink are contained in the container 41, communication between the RFID reader 22 and the RFID tag 43 can be blocked by the food and drink.

容器41の開口から蓋42を取り外すと、RFIDリーダ22及びRFIDタグ43の間の通信経路上に電磁シールドや飲食物が位置しなくなるため、RFIDリーダ22及びRFIDタグ43の間の通信が許容される。そして、RFIDタグ43の情報がRFIDリーダ22によって読み取られ、RFIDリーダ22の読取情報が外部装置30の分析部32に送信される。これにより、分析部32は、容器41の開口から蓋42が取り外されたことを判別することができる。 When the lid 42 is removed from the opening of the container 41, the electromagnetic shield and food and drink are no longer located on the communication path between the RFID reader 22 and the RFID tag 43, so that communication between the RFID reader 22 and the RFID tag 43 is permitted. To. Then, the information of the RFID tag 43 is read by the RFID reader 22, and the read information of the RFID reader 22 is transmitted to the analysis unit 32 of the external device 30. As a result, the analysis unit 32 can determine that the lid 42 has been removed from the opening of the container 41.

ここで、食器40毎の識別子である食器IDをRFIDタグ43に記憶させておくことにより、分析部32は、蓋42が取り外された食器40を特定することができる。また、RFIDリーダ22は、蓋42の取り外しを判別するために、RFIDタグ43と通信を行うことができればよく、例えば、RFIDリーダ22を設ける位置としては、食卓10の裏面や側面、食卓10が置かれた床や床下、更には食卓10が置かれた上方の天井など、食器40に取り付けられたRFIDタグ43と通信できる位置(上下方向、横方向等)に設置されていれば良い。また、RFIDの強度としては、スクリーン11の上面の近傍で強度が変化する程度で良い。尚、RFIDリーダ22を設ける位置や、RFIDリーダ22の特性(指向性や強度)は、上記に限らず適宜決めることができる。 Here, by storing the tableware ID, which is an identifier for each tableware 40, in the RFID tag 43, the analysis unit 32 can identify the tableware 40 from which the lid 42 has been removed. Further, the RFID reader 22 only needs to be able to communicate with the RFID tag 43 in order to determine the removal of the lid 42. For example, the position where the RFID reader 22 is provided is the back surface or side surface of the dining table 10 or the dining table 10. It may be installed at a position (vertical direction, horizontal direction, etc.) that can communicate with the RFID tag 43 attached to the tableware 40, such as the floor on which the tableware is placed, the underfloor, and the ceiling above the tableware 10. Further, the strength of the RFID may be such that the strength changes in the vicinity of the upper surface of the screen 11. The position where the RFID reader 22 is provided and the characteristics (directivity and strength) of the RFID reader 22 are not limited to the above and can be appropriately determined.

また、RFIDタグ43の情報(RFIDタグナンバー)は、例えば図3のRFIDタグ情報管理テーブルに示すように、食器ID及びRFIDタグ43からRFIDリーダ22に送信される読取電波の強度に対応付けて管理することができる。図3のRFIDタグ情報管理テーブルによれば、分析部32は、RFIDリーダ22の読取情報(RFIDタグナンバー)に基づき、このRFIDタグナンバーに対応する食器ID及び読取電波強度を特定する。 Further, the information of the RFID tag 43 (RFID tag number) is associated with the tableware ID and the intensity of the read radio wave transmitted from the RFID tag 43 to the RFID reader 22, as shown in the RFID tag information management table of FIG. 3, for example. Can be managed. According to the RFID tag information management table of FIG. 3, the analysis unit 32 identifies the tableware ID and the read radio wave intensity corresponding to the RFID tag number based on the reading information (RFID tag number) of the RFID reader 22.

上述のRFIDリーダ22から外部装置30に読取情報が送信されることにより、外部装置30のメモリ33には、例えば、図4の取得データ管理テーブル(蓋42にRFIDタグ43を設置の場合)に示すように、RFIDタグ43毎に割り振られたRFIDタグナンバー、食器40毎の識別子である食器ID、蓋42が容器41の開口から取り外された時刻を示す蓋開口時刻、蓋42が容器41の開口を閉じた時刻を示す蓋閉口時刻等を蓄積することができる。なお、図4に示す取得データ管理テーブルの例では、蓋閉口時刻が特定されているが、蓋42が容器41の開口から取り外されたままの場合には、蓋閉口時刻は特定されない。 By transmitting the read information from the RFID reader 22 to the external device 30, the memory 33 of the external device 30 is, for example, in the acquisition data management table of FIG. 4 (when the RFID tag 43 is installed on the lid 42). As shown, the RFID tag number assigned to each RFID tag 43, the tableware ID which is an identifier for each tableware 40, the lid opening time indicating the time when the lid 42 was removed from the opening of the container 41, and the lid 42 of the container 41. It is possible to store the lid closing time and the like indicating the time when the opening is closed. In the example of the acquired data management table shown in FIG. 4, the lid closing time is specified, but when the lid 42 is still removed from the opening of the container 41, the lid closing time is not specified.

分析部32は、蓋開口時刻及び蓋閉口時刻を取得することにより、各食器40について、食事者の食事時間を算出することができる。通常、食事を開始するときに蓋42が容器41の開口から取り外され、食事を終了したときに容器41の開口が蓋42によって閉じられるため、蓋開口時刻から蓋閉口時刻までの時間が食事時間となる。あるいは、読取電波強度の増加するタイミングの時刻と、読取電波強度の減少するタイミングの時刻との間の時間を食事時間とすることもできる。 By acquiring the lid opening time and the lid closing time, the analysis unit 32 can calculate the meal time of the eater for each tableware 40. Normally, the lid 42 is removed from the opening of the container 41 when starting a meal, and the opening of the container 41 is closed by the lid 42 when the meal is finished. Therefore, the time from the opening time of the lid to the closing time of the lid is the meal time. It becomes. Alternatively, the time between the time when the read radio wave intensity increases and the time when the read radio wave intensity decreases can be set as the meal time.

上述したように食事時間を算出すれば、分析部32において、食事時間に基づく評価を行うことができる。食事時間の評価においては、例えば、食事時間の目標値を設定し、この目標値と、実際の食事時間とを比較することができる。食事時間の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者や食事者以外の者が所有する携帯端末から食事時間の目標値を入力し、この入力情報を外部装置30に送信することもできる。 If the meal time is calculated as described above, the analysis unit 32 can perform the evaluation based on the meal time. In the evaluation of the meal time, for example, a target value of the meal time can be set, and the target value can be compared with the actual meal time. The target value of the meal time can be set, for example, by operating the operation input unit (not shown) provided on the dining table 10 or the external device 30, or from a eater or a mobile terminal owned by a person other than the eater. It is also possible to input a target value of meal time and transmit this input information to the external device 30.

実際の食事時間及び目標値の比較としては、例えば、実際の食事時間が、目標値を含む許容範囲内(上限時間から下限時間までの範囲内)であるか、許容範囲の上限時間よりも長い、または、許容範囲の下限時間よりも短いかを判断することができる。実際の食事時間が許容範囲内であるときには、目標とする食事時間に到達していることになる。実際の食事時間が上限時間よりも長いときには、目標とする食事時間よりも長く食事をしていることになる。実際の食事時間が下限時間よりも短いときには、目標とする食事時間よりも早く食事をしていることになる。 As a comparison between the actual meal time and the target value, for example, the actual meal time is within the permissible range including the target value (within the range from the upper limit time to the lower limit time) or longer than the upper limit time of the permissible range. , Or it can be determined whether it is shorter than the lower limit time of the allowable range. When the actual meal time is within the permissible range, the target meal time has been reached. When the actual meal time is longer than the upper limit time, it means that the person is eating longer than the target meal time. When the actual meal time is shorter than the lower limit time, it means that the meal is eaten earlier than the target meal time.

食事時間の評価結果は、食卓10に設けられたディスプレイ(不図示)に表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 The evaluation result of the meal time may be displayed on a display (not shown) provided on the dining table 10, or may be transmitted to a eater or a mobile terminal owned by a person other than the eater to be displayed on the display of the mobile terminal. You may.

また、分析部32は、複数の食器40について、各食器40における蓋開口時刻及び蓋閉口時刻を取得することにより、複数の食器40の飲食物について、食事者の食べ方を評価することもできる。ここでは、食事者が、1つの食器40において、飲食物を飲食するたびに、蓋42を開閉することを前提としている。この前提に基づけば、各食器40における蓋開口時刻及び蓋閉口時刻に基づいて、偏った食べ方をしているのか、まんべんなく食べているのかを評価することができる。ここで、蓋開口時刻から蓋閉口時刻までの時間が長いほど、偏った食べ方をしていることになる。一方、蓋開口時刻から蓋閉口時刻までの時間が短いほど、まんべんなく食べていることになる。 In addition, the analysis unit 32 can evaluate how the eater eats the food and drink of the plurality of tableware 40 by acquiring the lid opening time and the lid closing time of each tableware 40 for the plurality of tableware 40. .. Here, it is assumed that the eater opens and closes the lid 42 each time he or she eats or drinks food or drink in one tableware 40. Based on this premise, based on the lid opening time and the lid closing time of each tableware 40, it is possible to evaluate whether the tableware is eating unevenly or evenly. Here, the longer the time from the lid opening time to the lid closing time, the more biased the eating method is. On the other hand, the shorter the time from the opening time of the lid to the closing time of the lid, the more evenly the food is eaten.

食べ方の評価結果は、食卓10に設けられたディスプレイに表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。ここで、食事者が食べ方の目標を設定したときには、実際の食べ方と、目標とする食べ方とのずれを示す情報を評価結果に含めることもできる。 The evaluation result of how to eat may be displayed on the display provided on the dining table 10, or may be transmitted to the eater or a mobile terminal owned by a person other than the eater and displayed on the display of the mobile terminal. Here, when the eater sets a goal of how to eat, information indicating the difference between the actual way of eating and the target way of eating can be included in the evaluation result.

次に、外部装置30の処理について、図5に示すフローチャートを用いて説明する。 Next, the processing of the external device 30 will be described with reference to the flowchart shown in FIG.

ステップS101において、分析部32は、図4の取得データ管理テーブル(蓋42にRFIDタグ43を設置の場合)に示すRFIDリーダ22の読取情報(食器IDに対応付けて管理されている蓋開口時刻)に基づいて、容器41から蓋42が取り外されたか否かを判別する。上述したように、RFIDリーダ22及びRFIDタグ43の間の通信が許容されたとき、RFIDリーダ22は、RFIDタグ43に記録された情報を読み取り、この読取情報を外部装置30に送信する。そして、分析部32は、容器41から蓋42が取り外されたことを判別し、ステップS102の処理に進む。 In step S101, the analysis unit 32 displays the reading information (lid opening time managed in association with the tableware ID) of the RFID reader 22 shown in the acquired data management table of FIG. 4 (when the RFID tag 43 is installed on the lid 42). ), It is determined whether or not the lid 42 has been removed from the container 41. As described above, when communication between the RFID reader 22 and the RFID tag 43 is permitted, the RFID reader 22 reads the information recorded on the RFID tag 43 and transmits this read information to the external device 30. Then, the analysis unit 32 determines that the lid 42 has been removed from the container 41, and proceeds to the process of step S102.

ステップS102において、映像判断部31は、蓋42が取り外されたことの分析部32の判別結果を受けて、後述するようにプロジェクタ21に送信する映像データを決定する。上述したように、映像判断部31は、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、適宜決めることができる。 In step S102, the image determination unit 31 determines the image data to be transmitted to the projector 21 as described later, in response to the determination result of the analysis unit 32 that the lid 42 has been removed. As described above, the video determination unit 31 determines one video data among the plurality of video data stored in the memory 33. The method of determining the video data can be appropriately determined.

例えば、複数の映像データを順番に決定することもできるし、ランダムに映像データを決定することもできる。また、上述したように、食器40毎の食器IDをRFIDタグ43に記憶させておけば、食器40毎の判別が可能となるため、食器40に応じて映像データを異ならせることもできる。この場合には、各食器40の食器IDと映像データとを紐づけた状態において、複数の映像データをメモリ33に記憶しておくことができる。RFIDタグ43との通信によってRFIDリーダ22が食器40の食器IDを取得したとき、映像判断部31は、メモリ33に記憶された複数の映像データのなかから、取得した食器IDに対応する映像データを特定することができる。 For example, a plurality of video data can be determined in order, or the video data can be randomly determined. Further, as described above, if the tableware ID for each tableware 40 is stored in the RFID tag 43, the tableware 40 can be discriminated, so that the video data can be different depending on the tableware 40. In this case, a plurality of video data can be stored in the memory 33 in a state where the tableware ID of each tableware 40 and the video data are linked. When the RFID reader 22 acquires the tableware ID of the tableware 40 by communicating with the RFID tag 43, the image determination unit 31 selects the image data corresponding to the acquired tableware ID from among the plurality of image data stored in the memory 33. Can be identified.

図6には、映像データを決定するために用いられる映像データテーブル(RFID対応)の一例を示す。図6の映像データテーブル(RFID対応)に示す例では、食器IDと、映像のコンテンツ名と、コンテンツ名毎の識別子であるコンテンツIDと、映像を表示させる時間である映像表示時間とが紐づけられている。また、図6の映像データテーブル(RFID対応)に示す例では、食器IDに紐づいた映像と、食器IDに紐づいていない映像とが混在している。食器IDに紐づいていない映像は、例えば、任意のタイミングにおいて、スクリーン11に表示させることができる。当該情報に基づき、映像判断部31は、分析部32で判別した蓋42が取り外された食器IDに対応付けられた映像データを特定する。 FIG. 6 shows an example of a video data table (corresponding to RFID) used for determining video data. In the example shown in the video data table (RFID compatible) of FIG. 6, the tableware ID, the content name of the video, the content ID which is an identifier for each content name, and the video display time which is the time to display the video are linked. Has been done. Further, in the example shown in the video data table (corresponding to RFID) of FIG. 6, the video associated with the tableware ID and the video not associated with the tableware ID are mixed. The image not associated with the tableware ID can be displayed on the screen 11 at any timing, for example. Based on the information, the video determination unit 31 identifies the video data associated with the tableware ID from which the lid 42 determined by the analysis unit 32 has been removed.

ステップS103において、映像判断部31は、決定した映像データをプロジェクタ21に送信し、プロジェクタ21を駆動する。これにより、プロジェクタ21からスクリーン11に対して映像が投射され、食事者は、スクリーン11に投射された映像を確認することができる。スクリーン11における映像の投射領域は、適宜決めることができる。例えば、スクリーン11の全面に対して映像を投射することもできるし、スクリーン11の一部の領域に対して映像を投射することもできる。 In step S103, the video determination unit 31 transmits the determined video data to the projector 21 and drives the projector 21. As a result, an image is projected from the projector 21 onto the screen 11, and the eater can confirm the image projected on the screen 11. The projection area of the image on the screen 11 can be appropriately determined. For example, the image can be projected on the entire surface of the screen 11, or the image can be projected on a part of the area of the screen 11.

映像判断部31は、プロジェクタ21に映像データの送信を開始したときに、経過時間tpのカウントを開始する。経過時間tpのカウントは、タイマを用いることができる。 The video determination unit 31 starts counting the elapsed time tp when it starts transmitting video data to the projector 21. A timer can be used to count the elapsed time tp.

ステップS104において、映像判断部31は、プロジェクタ21に映像データを送信してから所定時間t_thが経過したか否かを判別する。具体的には、映像判断部31は、上述した経過時間tpが所定時間t_th以上であるか否かを判別する。所定時間t_thは、適宜決めることができる。ここで、所定時間t_thを長くしすぎると、スクリーン11における映像の表示時間が長くなりすぎることにより、食事者が映像だけに注目してしまい、食事が進まないおそれがある。この点を考慮して、所定時間t_thを決めることができる。所定時間t_thは、図6の映像データテーブル(RFID対応)に示す映像表示時間に相当する。 In step S104, the video determination unit 31 determines whether or not a predetermined time t_th has elapsed since the video data was transmitted to the projector 21. Specifically, the video determination unit 31 determines whether or not the above-mentioned elapsed time tp is equal to or greater than the predetermined time t_th. The predetermined time t_th can be appropriately determined. Here, if the predetermined time t_th is made too long, the display time of the image on the screen 11 becomes too long, so that the eater pays attention only to the image, and the meal may not proceed. In consideration of this point, the predetermined time t_th can be determined. The predetermined time t_th corresponds to the video display time shown in the video data table (corresponding to RFID) of FIG.

映像判断部31は、所定時間t_thが経過するまでの間、映像データをプロジェクタ21に送信し続ける。そして、所定時間t_thが経過したとき、言い換えれば、経過時間tpが所定時間t_th以上であるとき、ステップS105の処理に進む。映像データをプロジェクタ21に送信し続ける時間(すなわち、所定時間t_th)は、例えば図6の映像データテーブル(RFID対応)に示す映像表示時間に基づき制御する。 The video determination unit 31 continues to transmit video data to the projector 21 until a predetermined time t_th elapses. Then, when the predetermined time t_th has elapsed, in other words, when the elapsed time tp is equal to or greater than the predetermined time t_th, the process proceeds to step S105. The time for continuing to transmit the video data to the projector 21 (that is, the predetermined time t_th) is controlled based on, for example, the video display time shown in the video data table (RFID compatible) of FIG.

ステップS105において、映像判断部31は、プロジェクタ21に対する映像データの送信を終了する。これにより、プロジェクタ21からスクリーン11への映像の投射が終了する。なお、図5に示すフローチャートでは、経過時間tpをカウントし、経過時間tpが所定時間t_th以上であるときに映像データの送信を終了しているが、これに限るものではない。例えば、表示時間が決められた複数の映像を予め用意しておき、映像の表示を開始した後は、この映像が終了するまで映像を表示させることができる。 In step S105, the video determination unit 31 ends the transmission of video data to the projector 21. As a result, the projection of the image from the projector 21 to the screen 11 is completed. In the flowchart shown in FIG. 5, the elapsed time tp is counted, and the transmission of the video data is terminated when the elapsed time tp is the predetermined time t_th or more, but the present invention is not limited to this. For example, a plurality of images having a fixed display time can be prepared in advance, and after the display of the images is started, the images can be displayed until the end of the images.

本実施形態によれば、食事者が食事をするために、食器40の蓋42を容器41から取り外したとき、スクリーン11に映像が表示される。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。 According to the present embodiment, when the lid 42 of the tableware 40 is removed from the container 41 in order for the eater to eat, an image is displayed on the screen 11. As a result, the enjoyment of eating can be experienced by the eating person through the visual sense of the eating person.

本実施形態では、スクリーン11に映像を表示させているが、映像の表示に加えて、音を発生させることができる。具体的には、食卓10にスピーカ(不図示)を設けておき、プロジェクタ21から映像を投射するときに、スピーカから音を発生させることができる。スピーカの駆動は、外部装置30によって行うことができる。ここで、プロジェクタ21から投射された映像に応じて、スピーカから音を発生させることができる。 In the present embodiment, the image is displayed on the screen 11, but sound can be generated in addition to the display of the image. Specifically, a speaker (not shown) can be provided on the dining table 10, and when an image is projected from the projector 21, sound can be generated from the speaker. The speaker can be driven by the external device 30. Here, sound can be generated from the speaker according to the image projected from the projector 21.

例えば、スピーカから出力する音声は、図7の音声データテーブル(RFID対応)に示すように、プロジェクタ21から投射する映像コンテンツ(図6の映像データテーブルで説明したコンテンツID)と対応付けて管理されている。図7に示す音声データテーブル(RFID対応)では、音声ファイルを特定するための音声ID、音声ファイル名、コンテンツID、スピーカから音声を出力する時間を示す音声再生時間が管理されている。上述の通り、外部装置30は、プロジェクタ21から投射する映像のコンテンツIDに対応付けられた音声IDを特定し、特定した音声IDに対応する音声ファイル及び音声再生時間に基づいて、音声ファイルからの音声を所定の音声再生時間の間、スピーカから発生させる。 For example, the sound output from the speaker is managed in association with the video content (content ID described in the video data table of FIG. 6) projected from the projector 21 as shown in the sound data table (RFID compatible) of FIG. ing. In the audio data table (corresponding to RFID) shown in FIG. 7, the audio ID for identifying the audio file, the audio file name, the content ID, and the audio reproduction time indicating the time for outputting the audio from the speaker are managed. As described above, the external device 30 specifies the audio ID associated with the content ID of the video projected from the projector 21, and based on the audio file corresponding to the identified audio ID and the audio reproduction time, the audio file is used. Audio is generated from the speaker for a predetermined audio reproduction time.

本実施形態では、蓋42にRFIDタグ43を設けているが、図8に示すように、容器41にRFIDタグ43を設けることもできる。この場合には、RFIDタグ43及びRFIDリーダ22の間の通信を遮断しない位置にRFIDタグ43を取り付けたり、この通信を遮断しない材料で形成された容器41内にRFIDタグ43を埋め込んだりすることができる。 In the present embodiment, the lid 42 is provided with the RFID tag 43, but as shown in FIG. 8, the container 41 may be provided with the RFID tag 43. In this case, the RFID tag 43 may be attached at a position that does not block the communication between the RFID tag 43 and the RFID reader 22, or the RFID tag 43 may be embedded in a container 41 made of a material that does not block the communication. Can be done.

容器41をスクリーン11上に載せているときには、RFIDタグ43及びRFIDリーダ22の間の通信が許容される。一方、食事者が容器41を手で持つと、容器41を持つ手によって、RFIDタグ43及びRFIDリーダ22の間の通信を遮断させることができる。また、RFIDタグ43及びRFIDリーダ22の間の通信距離及びRFIDリーダ22から出力される電波の強度分布によっては、容器41をRFIDリーダ22から離れた位置まで移動させることにより、RFIDタグ43及びRFIDリーダ22の間の通信を遮断することができる。なお、前記電波の強度分布を調整して食事状態の変化を正確に検知するためには、食卓10の内部に電磁シールドを施したり、RFIDリーダ22のアンテナの位置を調整したりすることが有効である。 When the container 41 is placed on the screen 11, communication between the RFID tag 43 and the RFID reader 22 is allowed. On the other hand, when the eater holds the container 41 by hand, the communication between the RFID tag 43 and the RFID reader 22 can be blocked by the hand holding the container 41. Further, depending on the communication distance between the RFID tag 43 and the RFID reader 22 and the intensity distribution of the radio waves output from the RFID reader 22, the RFID tag 43 and the RFID can be moved by moving the container 41 to a position away from the RFID reader 22. Communication between the readers 22 can be blocked. In order to adjust the intensity distribution of the radio waves and accurately detect changes in the eating state, it is effective to provide an electromagnetic shield inside the dining table 10 or adjust the position of the antenna of the RFID reader 22. Is.

上述したように、通信が許容される状態と、通信が遮断される状態とを発生させることにより、食事者が容器41を持っているか否か、言い換えれば、食事者が食事をしているか否かを判別することができる。すなわち、通信が許容される状態では、容器41がスクリーン11上に載せられており、食事者が容器41を持っていないことを判別することができる。一方、通信が遮断されている状態では、容器41が手で持たれていたり、容器41がRFIDリーダ22から離れて読取電波強度が減少していたりしているため、食事者が容器41を持っていることを判別することができる。この判別は、RFIDリーダ22の読取情報に基づいて、分析部32が行うことができる。 As described above, by generating a state in which communication is permitted and a state in which communication is interrupted, whether or not the eater has the container 41, in other words, whether or not the eater is eating. Can be determined. That is, in a state where communication is permitted, the container 41 is placed on the screen 11, and it can be determined that the eater does not have the container 41. On the other hand, in a state where communication is cut off, the container 41 is held by hand, or the container 41 is separated from the RFID reader 22 and the reading radio wave intensity is reduced, so that the eater holds the container 41. It can be determined that it is. This determination can be performed by the analysis unit 32 based on the reading information of the RFID reader 22.

食事者が容器41を持っていること(すなわち、食事状態の変化)を分析部32が判別したとき、映像判断部31は、映像データを決定した後、この映像データをプロジェクタ21に送信する。これにより、プロジェクタ21からスクリーン11に対して映像が投射される。ここでの処理は、図5に示すステップS102からステップS105までの処理と同じである。なお、図5に示すステップS101の代わりに、食事者が容器41を持っているか否かの判別が行われ、食事者が容器41を持っていると判別したとき、ステップS102以降の処理が行われる。 When the analysis unit 32 determines that the eater has the container 41 (that is, the change in the eating state), the image determination unit 31 determines the image data and then transmits the image data to the projector 21. As a result, an image is projected from the projector 21 onto the screen 11. The processing here is the same as the processing from step S102 to step S105 shown in FIG. Instead of step S101 shown in FIG. 5, it is determined whether or not the eater has the container 41, and when it is determined that the eater has the container 41, the processes after step S102 are performed. Be told.

ここで、容器41毎のID情報をRFIDタグ43に記憶させておくことにより、分析部32は、容器41を特定することができる。この場合には、容器41に応じて、プロジェクタ21に送信する映像データを異ならせることができる。メモリ33には、各容器41のID情報と映像データとを紐づけた状態において、複数の映像データを記憶しておけばよい。 Here, by storing the ID information for each container 41 in the RFID tag 43, the analysis unit 32 can identify the container 41. In this case, the video data to be transmitted to the projector 21 can be different depending on the container 41. A plurality of video data may be stored in the memory 33 in a state where the ID information of each container 41 and the video data are linked.

容器41にRFIDタグ43を設けた場合、食事者が容器41を持つたびに、スクリーン11に映像を表示させることができ、食事者の視覚を通じて、食事の楽しさを向上させることができる。ここで、上述した所定時間t_thが長すぎると、食事者が容器41をスクリーン11に載せた後も、スクリーン11に映像が表示され続けてしまい、食事者が容器41を持つたびに、スクリーン11に映像を表示させることができなくなるおそれがある。この点を考慮して、所定時間t_thを決めることが好ましい。 When the RFID tag 43 is provided on the container 41, an image can be displayed on the screen 11 each time the eater holds the container 41, and the enjoyment of eating can be improved through the eyes of the eater. Here, if the above-mentioned predetermined time t_th is too long, the image continues to be displayed on the screen 11 even after the meal puts the container 41 on the screen 11, and every time the meal holds the container 41, the screen 11 There is a risk that the image cannot be displayed on the screen. In consideration of this point, it is preferable to determine the predetermined time t_th.

一方、食事者が容器41を持った後、容器41をスクリーン11の上面に載せたとき(すなわち、食事状態が変化したとき)に、スクリーン11に映像を表示させることもできる。この場合には、RFIDタグ43及びRFIDリーダ22の間の通信状態が、通信が遮断される状態から、通信が許容される状態に変化するため、この変化に基づいて、スクリーン11に映像を表示させることができる。 On the other hand, when the eater holds the container 41 and then puts the container 41 on the upper surface of the screen 11 (that is, when the eating state changes), the image can be displayed on the screen 11. In this case, the communication state between the RFID tag 43 and the RFID reader 22 changes from a state in which communication is cut off to a state in which communication is permitted. Therefore, an image is displayed on the screen 11 based on this change. Can be made to.

RFIDタグ43を蓋42ではなく、容器41に設置した場合において、RFIDタグ43と容器41の対応関係、容器41を手に持った場合に投射する映像や音声の管理や制御は、上述のRFIDタグ43を蓋42に設定した場合と同様に、図3,6,7に示すデータテーブルに基づき実行される。 When the RFID tag 43 is installed in the container 41 instead of the lid 42, the correspondence between the RFID tag 43 and the container 41, and the management and control of the video and audio projected when the container 41 is held in the hand are controlled by the above-mentioned RFID. This is executed based on the data tables shown in FIGS. 3, 6 and 7 as in the case where the tag 43 is set on the lid 42.

RFIDタグ43を食器40の蓋42又は容器41に設置することで、食器40は、食卓10(スクリーン11)上の所定の位置に置く必要はなく、食器40をどの位置に置いた場合でも、RFIDタグ43及びRFIDリーダ22の通信ができるため、食事状態の変化を判別できる。 By installing the RFID tag 43 on the lid 42 or the container 41 of the tableware 40, the tableware 40 does not need to be placed in a predetermined position on the table 10 (screen 11), and the tableware 40 does not need to be placed in any position. Since the RFID tag 43 and the RFID reader 22 can communicate with each other, changes in eating conditions can be discriminated.

本実施形態では、食卓10の外部に外部装置30を設けているが、これに限るものではない。具体的には、外部装置30の構成を食卓10の内部に設けることもできる。 In the present embodiment, the external device 30 is provided outside the dining table 10, but the present invention is not limited to this. Specifically, the configuration of the external device 30 can be provided inside the dining table 10.

また、RFIDタグ43を食器40の容器41又は蓋42に設置した例を説明したが、食事者が手にするスプーン、フォークなどのカトラリーにRFIDタグ43を設置するようにしても良い。この場合、食事者がカトラリーを手にした場合には、例えば、RFIDタグ43を含むカトラリーがRFIDリーダ22から遠くなったり、カトラリーのRFIDタグ43が食事者の手で覆われたりすることにより、RFIDリーダ22とRFIDタグ43との通信が遮断される。この通信遮断を判別することにより、食事をしている状態を判別することができる。 Further, although the example in which the RFID tag 43 is installed on the container 41 or the lid 42 of the tableware 40 has been described, the RFID tag 43 may be installed on a cutlery such as a spoon or a fork held by a meal. In this case, when the eater picks up the cutlery, for example, the cutlery including the RFID tag 43 is moved away from the RFID reader 22, or the RFID tag 43 of the cutlery is covered with the eater's hand. Communication between the RFID reader 22 and the RFID tag 43 is cut off. By determining this communication interruption, it is possible to determine the state of eating.

また、本実施形態では、食事状態の変化を判別するための仕組みとして、食器40にRFIDタグ43を設置し、食卓10にRFIDリーダ22を設置する例で説明したが、これに限らず、例えば、食器40にRFIDリーダ22を設置し、食卓10にRFIDタグ43を設置しても良い。 Further, in the present embodiment, as a mechanism for discriminating the change in the eating condition, an example in which the RFID tag 43 is installed on the tableware 40 and the RFID reader 22 is installed on the dining table 10 has been described, but the present invention is not limited to this, for example. , The RFID reader 22 may be installed on the tableware 40, and the RFID tag 43 may be installed on the dining table 10.

本実施形態では、RFIDタグ43を用いることにより、複数の食器40を個別に特定することができる。ここで、各食器40と、各食器40内の飲食物の内容(種類やカロリーなど)とを対応付けて管理すれば、分析部32は、食器40を特定することにより、食事者が飲食した飲食物の内容を特定することができる。食器40及び飲食物の内容の対応関係を示す情報は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)から入力することもできるし、携帯端末に上記情報を入力し、この入力情報を外部装置30に送信することもできる。 In the present embodiment, the plurality of tableware 40 can be individually specified by using the RFID tag 43. Here, if each tableware 40 is managed in association with the contents (type, calories, etc.) of the food and drink in each tableware 40, the analysis unit 32 identifies the tableware 40 and the eater eats and drinks. The contents of food and drink can be specified. Information indicating the correspondence between the contents of the tableware 40 and the food and drink can be input from, for example, an operation input unit (not shown) provided on the table 10 or the external device 30, or the above information is input to the mobile terminal. , This input information can also be transmitted to the external device 30.

RFIDタグ43を食器40の容器41に設置した場合、図9の取得データ管理テーブルに示すように、食器40毎に、RFIDタグ43及びRFIDリーダ22の間の通信が遮断された時刻(通信遮断時刻)を取得することができる。そして、通信遮断時刻を取得するたびに通信遮断の回数をカウントし、1回の食事における通信遮断の総回数に基づいて、食事者の食べ方を評価することができる。例えば、特定の食器40を持ち続けている場合には、通信遮断の総回数が少なくなり、偏った食べ方をしていることを評価することができる。また、通信遮断の総回数が多くなるほど、複数の食器40の飲食物について、まんべんなく食べていることを評価することができる。 When the RFID tag 43 is installed in the container 41 of the tableware 40, as shown in the acquisition data management table of FIG. 9, the time when the communication between the RFID tag 43 and the RFID reader 22 is cut off for each tableware 40 (communication cutoff). Time) can be obtained. Then, each time the communication interruption time is acquired, the number of communication interruptions is counted, and the eating method of the eater can be evaluated based on the total number of communication interruptions in one meal. For example, when the specific tableware 40 is kept in the possession, the total number of times of communication interruption is reduced, and it can be evaluated that the eating method is biased. Further, as the total number of times of communication interruption increases, it can be evaluated that the food and drink of the plurality of tableware 40 are eaten evenly.

(第2実施形態)
本実施形態では、第1実施形態におけるスクリーン11に代えて、図10に示すようにタッチパネルディスプレイ12(以下、単にディスプレイ12という)を用いている。図10に示す食事システムの構成において、第1実施形態で説明した部材と同じ部材については同一の符号を付しており、詳細な説明は省略する。
(Second Embodiment)
In this embodiment, instead of the screen 11 in the first embodiment, a touch panel display 12 (hereinafter, simply referred to as a display 12) is used as shown in FIG. In the configuration of the meal system shown in FIG. 10, the same members as those described in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

ディスプレイ12は、食卓10の上面10aに設けられている。ディスプレイ12では、例えば、超音波表面弾性波方式、抵抗膜方式、赤外線走査方式、静電容量方式といった公知の方式を適宜採用することができる。 The display 12 is provided on the upper surface 10a of the dining table 10. In the display 12, for example, known methods such as an ultrasonic surface acoustic wave method, a resistance film method, an infrared scanning method, and a capacitance method can be appropriately adopted.

食卓10には、制御部30Aが設けられており、制御部30Aは、映像判断部31、分析部32及びメモリ33を有する。制御部30Aは、ディスプレイ12の駆動を制御する。メモリ33には、ディスプレイ12に表示させるための複数の映像データが記憶されている。 The dining table 10 is provided with a control unit 30A, which includes a video determination unit 31, an analysis unit 32, and a memory 33. The control unit 30A controls the drive of the display 12. A plurality of video data for display on the display 12 are stored in the memory 33.

ディスプレイ12の上面に食器40(容器41)が載せられていると、制御部30A(分析部32)は、ディスプレイ12の出力に基づいて、ディスプレイ12に容器41が載せられていることを判別する。すなわち、ディスプレイ12に対する容器41の接触の有無に応じて、ディスプレイ12の出力が変化するため、制御部30Aは、ディスプレイ12の出力に基づいて、ディスプレイ12の上面に容器41が載せられているか否かを判別することができる。ディスプレイ12上で利用する食器40の有無の判別は、例えば、容器41の糸底の底部に導電性を持たせたり、食器40の重さや容器41の糸底の形状による違いを利用したりすることで可能となる。 When the tableware 40 (container 41) is placed on the upper surface of the display 12, the control unit 30A (analysis unit 32) determines that the container 41 is placed on the display 12 based on the output of the display 12. .. That is, since the output of the display 12 changes depending on whether or not the container 41 is in contact with the display 12, the control unit 30A determines whether or not the container 41 is placed on the upper surface of the display 12 based on the output of the display 12. Can be determined. The presence or absence of the tableware 40 used on the display 12 is determined by, for example, making the bottom of the thread bottom of the container 41 conductive, or using the difference depending on the weight of the tableware 40 and the shape of the thread bottom of the container 41. It will be possible.

制御部30Aは、ディスプレイ12の上面に容器41が載せられていることを判別したとき、ディスプレイ12に映像を表示させる。一方、ディスプレイ12の上面に容器41が載せられていなければ、制御部30Aは、ディスプレイ12に映像を表示させない。ディスプレイ12における映像の表示領域は、適宜決めることができる。例えば、ディスプレイ12の全面において映像を表示させることもできるし、ディスプレイ12の一部の領域において映像を表示させることもできる。 When the control unit 30A determines that the container 41 is placed on the upper surface of the display 12, the control unit 30A causes the display 12 to display an image. On the other hand, if the container 41 is not placed on the upper surface of the display 12, the control unit 30A does not display the image on the display 12. The display area of the image on the display 12 can be appropriately determined. For example, the image can be displayed on the entire surface of the display 12, or the image can be displayed on a part of the area of the display 12.

制御部30Aは、ディスプレイ12の出力に基づいて、容器41がディスプレイ12に接触する位置、すなわち、容器41が配置されている位置を特定することができる。容器41の位置を特定することにより、制御部30Aは、ディスプレイ12の表示領域(全領域)のうち、容器41の位置に対応した表示領域(一部の領域)において、映像を表示させることができる。例えば、図11に示すように、ディスプレイ12の表示領域のうち、容器41が載せられた領域を含む所定領域において、映像IMを表示させることができる。 Based on the output of the display 12, the control unit 30A can specify the position where the container 41 contacts the display 12, that is, the position where the container 41 is arranged. By specifying the position of the container 41, the control unit 30A can display an image in the display area (partial area) corresponding to the position of the container 41 in the display area (total area) of the display 12. it can. For example, as shown in FIG. 11, the video IM can be displayed in a predetermined area including the area on which the container 41 is placed in the display area of the display 12.

ディスプレイ12に容器41が接触したことを制御部30A(分析部32)が判別した際のディスプレイ12での映像表示は、第1実施形態と同様、図6の映像データテーブルに示すように、映像コンテンツを識別するためのコンテンツIDや食器40を識別するための食器IDを対応付けて管理することで実現できる。また、映像表示とともに音声を出力させる場合には、図7の音声データテーブルに示すように、音声ID、音声ファイル名、コンテンツID、音声再生時間を対応付けて管理することで実現できる。さらに、コンテンツIDに、食器40が置かれる位置情報(範囲)を対応付けておくことで、食器40が置かれた位置に基づいて映像コンテンツを決定することも可能となる。 When the control unit 30A (analysis unit 32) determines that the container 41 has come into contact with the display 12, the image display on the display 12 is the same as in the first embodiment, as shown in the image data table of FIG. This can be realized by managing the content ID for identifying the content and the tableware ID for identifying the tableware 40 in association with each other. Further, when the audio is output together with the video display, it can be realized by managing the audio ID, the audio file name, the content ID, and the audio reproduction time in association with each other as shown in the audio data table of FIG. Further, by associating the content ID with the position information (range) where the tableware 40 is placed, it is possible to determine the video content based on the position where the tableware 40 is placed.

次に、ディスプレイ12の表示処理について、図12に示すフローチャートを用いて説明する。 Next, the display process of the display 12 will be described with reference to the flowchart shown in FIG.

ステップS201において、制御部30A(分析部32)は、ディスプレイ12の出力に基づいて、ディスプレイ12に容器41が載せられているか否かを判別する。ディスプレイ12に容器41が載せられていると判別したとき、ステップS202の処理に進む。 In step S201, the control unit 30A (analysis unit 32) determines whether or not the container 41 is mounted on the display 12 based on the output of the display 12. When it is determined that the container 41 is mounted on the display 12, the process proceeds to step S202.

ステップS202において、制御部30A(映像判断部31)は、ディスプレイ12において、映像の表示を開始させる。これにより、食事者は、ディスプレイ12に表示された映像を視認することができる。ディスプレイ12に映像を表示させるとき、制御部30A(映像判断部31)は、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、適宜決めることができる。例えば、複数の映像データを順番に決定することもできるし、ランダムに映像データを決定することもできる。 In step S202, the control unit 30A (image determination unit 31) starts displaying an image on the display 12. As a result, the eater can visually recognize the image displayed on the display 12. When displaying an image on the display 12, the control unit 30A (image determination unit 31) determines one of the plurality of image data stored in the memory 33. The method of determining the video data can be appropriately determined. For example, a plurality of video data can be determined in order, or the video data can be randomly determined.

ステップS202の処理では、上述したように、容器41が載せられた位置を特定し、この位置に対応した表示領域において、映像を表示させることもできる。ここで、容器41が載せられた位置に応じて、表示させる映像を異ならせることができる。例えば、ディスプレイ12の全表示領域を複数の表示領域に区画しておき、表示領域毎に映像を異ならせることができる。また、複数の表示領域のうち、容器41が載せられた表示領域において、映像を表示させることができる。 In the process of step S202, as described above, the position where the container 41 is placed can be specified, and the image can be displayed in the display area corresponding to this position. Here, the image to be displayed can be different depending on the position where the container 41 is placed. For example, the entire display area of the display 12 can be divided into a plurality of display areas, and the image can be made different for each display area. Further, among the plurality of display areas, the image can be displayed in the display area on which the container 41 is placed.

制御部30Aは、ディスプレイ12における映像の表示を開始させたとき、経過時間tpのカウントを開始する。経過時間tpのカウントは、タイマを用いることができる。 When the control unit 30A starts displaying the image on the display 12, the control unit 30A starts counting the elapsed time tp. A timer can be used to count the elapsed time tp.

ステップS203において、制御部30Aは、映像の表示を開始してから所定時間t_thが経過したか否かを判別する。具体的には、制御部30Aは、上述した経過時間tpが所定時間t_th以上であるか否かを判別する。所定時間t_thは、適宜決めることができる。ここで、所定時間t_thを長くしすぎると、ディスプレイ12における映像の表示時間が長くなりすぎることにより、食事者が映像だけに注目してしまい、食事が進まないおそれがある。この点を考慮して、所定時間t_thを決めることができる。所定時間t_thは、図6の映像データテーブルに示す映像表示時間に相当する。 In step S203, the control unit 30A determines whether or not a predetermined time t_th has elapsed since the start of displaying the image. Specifically, the control unit 30A determines whether or not the above-mentioned elapsed time tp is equal to or greater than the predetermined time t_th. The predetermined time t_th can be appropriately determined. Here, if the predetermined time t_th is made too long, the display time of the image on the display 12 becomes too long, so that the eater pays attention only to the image, and the meal may not proceed. In consideration of this point, the predetermined time t_th can be determined. The predetermined time t_th corresponds to the video display time shown in the video data table of FIG.

制御部30Aは、所定時間t_thが経過するまでの間、ディスプレイ12に映像を表示させ続ける。そして、所定時間t_thが経過したとき、言い換えれば、経過時間tpが所定時間t_th以上であるとき、ステップS204の処理に進む。ステップS204において、制御部30Aは、ディスプレイ12における映像の表示を終了する。なお、図12に示すフローチャートでは、経過時間tpをカウントし、経過時間tpが所定時間t_th以上であるときに映像の表示を終了しているが、これに限るものではない。例えば、表示時間が決められた複数の映像を予め用意しておき、映像の表示を開始した後は、この映像が終了するまで映像を表示させることができる。 The control unit 30A keeps displaying the image on the display 12 until the predetermined time t_th elapses. Then, when the predetermined time t_th has elapsed, in other words, when the elapsed time tp is equal to or greater than the predetermined time t_th, the process proceeds to step S204. In step S204, the control unit 30A ends the display of the image on the display 12. In the flowchart shown in FIG. 12, the elapsed time tp is counted, and the display of the video is terminated when the elapsed time tp is the predetermined time t_th or more, but the present invention is not limited to this. For example, a plurality of images having a fixed display time can be prepared in advance, and after the display of the images is started, the images can be displayed until the end of the images.

本実施形態によれば、食事者が食事をするために、食器40(容器41)をディスプレイ12の上面に載せたとき(すなわち、食事状態が変化したとき)、ディスプレイ12に映像が表示される。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。 According to the present embodiment, when the tableware 40 (container 41) is placed on the upper surface of the display 12 (that is, when the eating condition changes) in order for the eater to eat, an image is displayed on the display 12. .. As a result, the enjoyment of eating can be experienced by the eating person through the visual sense of the eating person.

なお、ディスプレイ12を用いることにより、容器41のうち、ディスプレイ12と接触する部分の形状を特定することができる。ここで、ディスプレイ12と接触する部分の形状が異なる複数種類の容器41を用意しておけば、ディスプレイ12によって容器41の接触部分の形状を特定することにより、容器41の種類を判別することができる。そして、容器41の種類に応じて、ディスプレイ12に表示される映像を異ならせることができる。この場合には、容器41の種類と映像データとを紐づけた状態において、複数の映像データをメモリ33に記憶しておくことができる。 By using the display 12, the shape of the portion of the container 41 that comes into contact with the display 12 can be specified. Here, if a plurality of types of containers 41 having different shapes of the portions in contact with the display 12 are prepared, the type of the container 41 can be determined by specifying the shape of the contact portion of the container 41 by the display 12. it can. Then, the image displayed on the display 12 can be different depending on the type of the container 41. In this case, a plurality of video data can be stored in the memory 33 in a state where the type of the container 41 and the video data are linked.

本実施形態では、ディスプレイ12の上面に容器41が載せられているか否かを判別しているが、これに限るものではない。例えば、蓋42を備えた食器40を用いる場合、蓋42を容器41から取り外してディスプレイ12の上面に載せることがある。この場合には、上述した容器41と同様に、蓋42がディスプレイ12の上面に載せられているか否かを判別することができる。 In the present embodiment, it is determined whether or not the container 41 is placed on the upper surface of the display 12, but the present invention is not limited to this. For example, when the tableware 40 provided with the lid 42 is used, the lid 42 may be removed from the container 41 and placed on the upper surface of the display 12. In this case, similarly to the container 41 described above, it is possible to determine whether or not the lid 42 is placed on the upper surface of the display 12.

そして、蓋42がディスプレイ12の上面に載せられていることを判別したとき(すなわち、食事状態が変化したとき)、制御部30Aは、ディスプレイ12に映像を表示させることができる。この映像を表示させる処理としては、図12に示すステップS202からステップS204までの処理を行うことができる。 Then, when it is determined that the lid 42 is placed on the upper surface of the display 12 (that is, when the eating state changes), the control unit 30A can display the image on the display 12. As the process for displaying this image, the processes from step S202 to step S204 shown in FIG. 12 can be performed.

ここで、ディスプレイ12と接触する部分の形状が異なる複数種類の蓋42を用意しておけば、ディスプレイ12によって蓋42の接触部分の形状を特定することにより、蓋42の種類を判別することができる。そして、制御部30Aは、蓋42の種類に応じた映像を表示させることができる。一方、ディスプレイ12に対する容器41の接触部分の形状と、ディスプレイ12に対する蓋42の接触部分の形状を区別できるようにしておけば、制御部30Aは、容器41及び蓋42のいずれがディスプレイ12に載せられているかを判別することができる。 Here, if a plurality of types of lids 42 having different shapes of the portions in contact with the display 12 are prepared, the type of the lid 42 can be determined by specifying the shape of the contact portion of the lid 42 by the display 12. it can. Then, the control unit 30A can display an image corresponding to the type of the lid 42. On the other hand, if the shape of the contact portion of the container 41 with respect to the display 12 and the shape of the contact portion of the lid 42 with respect to the display 12 can be distinguished, the control unit 30A places either the container 41 or the lid 42 on the display 12. It is possible to determine whether or not the container has been used.

一方、本実施形態では、ディスプレイ12の上面に容器41を載せたときに、ディスプレイ12に映像を表示させているが、これに限るものではない。例えば、ディスプレイ12の上面に容器41が載っている状態から、食事者が容器41を持ったときには、ディスプレイ12の出力が変化するため、この変化(すなわち、食事状態の変化)に応じて、ディスプレイ12に映像を表示させることができる。ここで、蓋42についても同様の処理を行うことができる。 On the other hand, in the present embodiment, when the container 41 is placed on the upper surface of the display 12, an image is displayed on the display 12, but the present invention is not limited to this. For example, when the container 41 is placed on the upper surface of the display 12, when the eater holds the container 41, the output of the display 12 changes. Therefore, the display changes in response to this change (that is, the change in the eating state). An image can be displayed on the twelve. Here, the same process can be performed on the lid 42.

また、第1実施形態と同様に、食卓10にスピーカ(不図示)を設けておき、ディスプレイ12に映像を表示させるときに、スピーカから音を発生させることができる。スピーカの駆動は、制御部30Aによって行うことができる。ここで、ディスプレイ12に表示された映像に応じて、スピーカから音を発生させることができる。 Further, as in the first embodiment, a speaker (not shown) is provided on the dining table 10, and sound can be generated from the speaker when displaying an image on the display 12. The speaker can be driven by the control unit 30A. Here, sound can be generated from the speaker according to the image displayed on the display 12.

さらに、ディスプレイ12を用いることにより、制御部30Aがディスプレイ12に所定情報を表示させ、この表示領域に食事者が触れることにより、所定情報を入力することができる。 Further, by using the display 12, the control unit 30A causes the display 12 to display the predetermined information, and the meal can input the predetermined information by touching the display area.

タッチパネルディスプレイ12を用いたり、重量センサ(不図示)を用いたりすることにより、ディスプレイ12上に載せられた食器40(飲食物を含む)の重量を測定することができる。ここで、RFIDリーダ22から外部装置30に読取情報が送信されることにより、外部装置30のメモリ33には、例えば、図13の取得データ管理テーブルに示すように、RFIDタグナンバー、食器ID、蓋開口時刻、蓋開口時刻での食器40内の飲食物の重さを示す重量、蓋閉口時刻、蓋閉口時刻での食器40内の飲食物の重さを示す重量等を蓄積することができる。 By using the touch panel display 12 or using a weight sensor (not shown), the weight of the tableware 40 (including food and drink) placed on the display 12 can be measured. Here, when the reading information is transmitted from the RFID reader 22 to the external device 30, the RFID tag number, the tableware ID, and the tableware ID are stored in the memory 33 of the external device 30, for example, as shown in the acquired data management table of FIG. It is possible to store the weight indicating the weight of the food and drink in the tableware 40 at the lid opening time, the lid opening time, the weight indicating the weight of the food and drink in the tableware 40 at the lid closing time, the lid closing time, and the like. ..

食器40内の飲食物の重さを測定することにより、食事者の食事時間を算出することができる。具体的には、飲食物が入った食器40をスクリーン11上に載せたときの時刻(言い換えれば、ディスプレイ12によって食器40の重さを検出した時刻)と、食器40内の飲食物の重さが0kgになったときの時刻とを取得すれば、これらの時刻の間の時間が食事時間となる。 By measuring the weight of food and drink in the tableware 40, the meal time of the eater can be calculated. Specifically, the time when the tableware 40 containing food and drink is placed on the screen 11 (in other words, the time when the weight of the tableware 40 is detected by the display 12) and the weight of the food and drink in the tableware 40. If the time when becomes 0 kg and the time are obtained, the time between these times becomes the meal time.

一方、食器40内の飲食物の重さに基づいて、食事者の食事量を算出することもできる。具体的には、食事者が食事を開始したときの食器40内の飲食物の重さと、食事者が食事を終了したときの食器40内の飲食物の重さとを取得すれば、これらの重さの差が食事量となる。ここで、蓋42が容器41の開口から取り外されてディスプレイ12の上面に載せられたときに、食事が開始されたことを判断することができる。また、ディスプレイ12の上面に載せられた蓋42が持ち上げられたときには、容器41の開口が蓋42によって閉じられたと考えることができ、食事が終了したことを判断することができる。 On the other hand, the amount of food eaten by the eater can be calculated based on the weight of the food and drink in the tableware 40. Specifically, if the weight of the food and drink in the tableware 40 when the eater starts the meal and the weight of the food and drink in the tableware 40 when the eater finishes the meal are obtained, these weights are obtained. The difference is the amount of food. Here, when the lid 42 is removed from the opening of the container 41 and placed on the upper surface of the display 12, it can be determined that the meal has started. Further, when the lid 42 placed on the upper surface of the display 12 is lifted, it can be considered that the opening of the container 41 is closed by the lid 42, and it can be determined that the meal is finished.

上述したように食事量を算出すれば、分析部32において、食事量に基づく評価を行うことができる。食事量の評価においては、例えば、食事量の目標値を設定し、この目標値と、実際の食事量とを比較することができる。食事量の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者や食事者以外の者が所有する携帯端末から食事量の目標値を入力し、この入力情報を外部装置30に送信することもできる。 If the amount of food is calculated as described above, the analysis unit 32 can perform the evaluation based on the amount of food. In the evaluation of the amount of food, for example, a target value of the amount of food can be set, and this target value can be compared with the actual amount of food. The target value of the amount of meal can be set, for example, by operating an operation input unit (not shown) provided on the dining table 10 or the external device 30, or from a eater or a mobile terminal owned by a person other than the eater. It is also possible to input a target value of the amount of food and transmit this input information to the external device 30.

実際の食事量及び目標値の比較としては、例えば、実際の食事量が、目標値を含む許容範囲内(上限量から下限量までの範囲内)であるか、許容範囲の上限量よりも多いか、または、許容範囲の下限量よりも少ないかを判断することができる。実際の食事量が許容範囲内であるときには、目標とする食事量に到達していることになる。実際の食事量が上限量よりも多いときには、目標とする食事量よりも多くの量を食事していることになる。実際の食事量が下限量よりも少ないときには、目標とする食事量に到達していないことになる。 As a comparison between the actual amount of food and the target value, for example, the actual amount of food is within the permissible range including the target value (within the range from the upper limit to the lower limit) or is larger than the upper limit of the permissible range. Or it can be determined whether it is less than the lower limit of the allowable range. When the actual amount of food is within the permissible range, the target amount of food has been reached. When the actual amount of food is larger than the upper limit, it means that the amount of food is larger than the target amount. When the actual amount of food is less than the lower limit, it means that the target amount of food has not been reached.

食事量の評価結果は、食卓10に設けられたディスプレイに表示させてもよいし、食事者や食事者以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 The evaluation result of the amount of meal may be displayed on the display provided on the dining table 10, or may be transmitted to the eater or a mobile terminal owned by a person other than the eater and displayed on the display of the mobile terminal.

一方、分析部32は、複数の食器40について、各食器40における飲食物の重さの経時変化を取得することにより、複数の食器40の飲食物について、食事者の食べ方を評価することができる。例えば、特定の食器40だけについて、飲食物の重さが減少しているときには、偏った食べ方をしていることを評価することができる。また、すべての食器40について、飲食物の重さが断続的に減少しているときには、すべての食器40の飲食物について、まんべんなく食べていることを評価することができる。 On the other hand, the analysis unit 32 can evaluate how the eater eats the food and drink of the plurality of tableware 40 by acquiring the change with time of the weight of the food and drink in each tableware 40 for the plurality of tableware 40. it can. For example, when the weight of food and drink is reduced only for the specific tableware 40, it can be evaluated that the eating method is biased. Further, when the weight of the food and drink is intermittently reduced for all the tableware 40, it can be evaluated that the food and drink for all the tableware 40 are eaten evenly.

(第3実施形態)
本実施形態は、音を発生させることができる食器40に関するものである。図14に示すように、食器40は、容器41及び蓋42を有しており、容器41は、光センサ44、スピーカ45、制御部46、メモリ47及び電源48を有する。容器41の内部は、仕切り板41aによって、飲食物を収容する空間S1と、光センサ44、スピーカ45、制御部46、メモリ47及び電源48が配置される空間S2とに分けられている。仕切り板41aの一部または全部は、透光性を有しており、空間S1からの光を空間S2に透過させる。なお、メモリ47は必ずしも容器41に含まれなくてもよく、ネットワーク上のファイルサーバー等を利用してもよい。それらとの通信には、無線通信や近距離無線通信あるいは光通信などを用いることができる。楽曲データ(スピーカ45から出力させる音データ)の配信サービスと組み合わせることも可能である。
(Third Embodiment)
The present embodiment relates to tableware 40 capable of generating sound. As shown in FIG. 14, the tableware 40 has a container 41 and a lid 42, and the container 41 has an optical sensor 44, a speaker 45, a control unit 46, a memory 47, and a power supply 48. The inside of the container 41 is divided into a space S1 for accommodating food and drink and a space S2 in which the optical sensor 44, the speaker 45, the control unit 46, the memory 47, and the power supply 48 are arranged by the partition plate 41a. A part or all of the partition plate 41a has translucency, and allows light from the space S1 to pass through the space S2. The memory 47 does not necessarily have to be included in the container 41, and a file server or the like on the network may be used. For communication with them, wireless communication, short-range wireless communication, optical communication, or the like can be used. It can also be combined with a music data (sound data output from the speaker 45) distribution service.

電源48は、光センサ44、スピーカ45及び制御部46のそれぞれに対して電力を供給する。電源48としては、例えば、電池を用いることができ、充放電が可能な二次電池を用いることが好ましい。二次電池を充電する場合には、容器41から二次電池を取り外した後、充電器(不図示)を用いて二次電池を充電したり、二次電池を充電するためのコネクタ(不図示)を容器41に設けておき、このコネクタに対して、商用電源と接続された電力供給ラインを接続したりすることができる。また、公知のワイヤレス充電システムや太陽電池を用いて、二次電池を充電することもできる。 The power supply 48 supplies electric power to each of the optical sensor 44, the speaker 45, and the control unit 46. As the power source 48, for example, a battery can be used, and it is preferable to use a secondary battery capable of charging and discharging. When charging the secondary battery, after removing the secondary battery from the container 41, the secondary battery is charged using a charger (not shown), or a connector for charging the secondary battery (not shown). ) Is provided in the container 41, and a power supply line connected to a commercial power source can be connected to this connector. The secondary battery can also be charged using a known wireless charging system or a solar cell.

光センサ44は、空間S1からの光を受光可能な位置に設けられており、蓋42が容器41の開口を塞いでいるときの光状態と、容器41から蓋42が取り外されたときの光状態とを区別可能に検出する。ここで、蓋42が容器41の開口を塞いでいるときには、食器40の外部からの光が容器41の内部に侵入しないため、光センサ44の受光量は所定量よりも少なくなる。一方、容器41から蓋42が取り外されたときには、食器40の外部からの光が容器41の内部に侵入することになり、光センサ44の受光量が所定量よりも多くなる。 The optical sensor 44 is provided at a position where it can receive light from the space S1. The light state when the lid 42 closes the opening of the container 41 and the light when the lid 42 is removed from the container 41. Detects the state distinguishably. Here, when the lid 42 closes the opening of the container 41, the light received from the outside of the tableware 40 does not enter the inside of the container 41, so that the amount of light received by the optical sensor 44 is smaller than the predetermined amount. On the other hand, when the lid 42 is removed from the container 41, the light from the outside of the tableware 40 enters the inside of the container 41, and the amount of light received by the optical sensor 44 becomes larger than the predetermined amount.

光センサ44の出力信号は、制御部46に入力される。制御部46は、光センサ44の検出結果に基づいて、容器41から蓋42が取り外されているか否かを判別する。すなわち、制御部46は、上述した光センサ44の受光量が予め定めた閾値よりも少ないとき、蓋42が容器41の開口を塞いでおり、蓋42が取り外されていないことを判別する。また、制御部46は、上述した光センサ44の受光量が閾値よりも多いとき、容器41から蓋42が取り外されていることを判別する。 The output signal of the optical sensor 44 is input to the control unit 46. The control unit 46 determines whether or not the lid 42 has been removed from the container 41 based on the detection result of the optical sensor 44. That is, when the light receiving amount of the optical sensor 44 described above is less than the predetermined threshold value, the control unit 46 determines that the lid 42 closes the opening of the container 41 and the lid 42 is not removed. Further, the control unit 46 determines that the lid 42 has been removed from the container 41 when the light receiving amount of the above-mentioned optical sensor 44 is larger than the threshold value.

スピーカ45は、制御部46からの制御信号を受けて所定の音を発生させる。スピーカ45から発生させる音は、適宜決めることができるが、食事者に食事の楽しさを与えられるような音が好ましい。空間S2を形成する壁面に複数の開口部を形成しておけば、スピーカ45から発生した音を容器41の外部に導きやすくなる。ここで、空間S2を形成する壁面としては、仕切り板41aや容器41の壁面がある。仕切り板41aにスピーカ45用の開口部を形成する場合には、空間S1に直接、飲食物を収容することができなくなるため、飲食物を収容した補助容器(不図示)を空間S1に配置すればよい。 The speaker 45 receives a control signal from the control unit 46 and generates a predetermined sound. The sound generated from the speaker 45 can be appropriately determined, but a sound that gives the eater the enjoyment of eating is preferable. If a plurality of openings are formed on the wall surface forming the space S2, the sound generated from the speaker 45 can be easily guided to the outside of the container 41. Here, as the wall surface forming the space S2, there is a wall surface of the partition plate 41a and the container 41. When the opening for the speaker 45 is formed in the partition plate 41a, the food and drink cannot be directly stored in the space S1, so an auxiliary container (not shown) containing the food and drink should be arranged in the space S1. Just do it.

制御部46は、蓋42が取り外されたことを判別したとき、スピーカ45を駆動する。具体的には、図15のフローチャートに示すように、ステップS301において、制御部46は、光センサ44の検出結果に基づいて、蓋42が取り外されているか否かを判別する。蓋42が取り外されていると判別したとき、ステップS302において、制御部46は、スピーカ45を駆動することにより、音を発生させる。 When the control unit 46 determines that the lid 42 has been removed, the control unit 46 drives the speaker 45. Specifically, as shown in the flowchart of FIG. 15, in step S301, the control unit 46 determines whether or not the lid 42 has been removed based on the detection result of the optical sensor 44. When it is determined that the lid 42 has been removed, in step S302, the control unit 46 drives the speaker 45 to generate sound.

スピーカ45の駆動方法としては、例えば、以下に説明する2つの方法が挙げられる。 Examples of the driving method of the speaker 45 include two methods described below.

第1の駆動方法としては、制御部46は、蓋42が取り外されたことを判別したときから所定時間が経過するまで、スピーカ45から音を発生させることができる。ここで、時間の経過をカウントするために、制御部46にタイマを設けることができる。第2の駆動方法としては、制御部46は、蓋42が取り外されている間、スピーカ45から音を発生させ続けることができる。そして、制御部46は、光センサ44の検出結果に基づいて、蓋42が容器41の開口を塞いだことを判別したとき、スピーカ45からの音の発生を停止させることができる。 As the first driving method, the control unit 46 can generate sound from the speaker 45 from the time when it is determined that the lid 42 has been removed until a predetermined time elapses. Here, a timer can be provided in the control unit 46 in order to count the passage of time. As a second driving method, the control unit 46 can continue to generate sound from the speaker 45 while the lid 42 is removed. Then, when the control unit 46 determines that the lid 42 has closed the opening of the container 41 based on the detection result of the optical sensor 44, the control unit 46 can stop the generation of sound from the speaker 45.

図14に示す構成では、容器41の下部に空間S2を形成しているが、これに限るものではない。光センサ44、スピーカ45、制御部46、メモリ47及び電源48は、上述した機能を発揮できる位置に配置されていればよい。例えば、容器41の内部において、容器41の側壁(一部又は全部)に沿うように仕切り板41aを配置し、容器41の側壁及び仕切り板41aの間に空間S2を形成することができる。 In the configuration shown in FIG. 14, the space S2 is formed in the lower part of the container 41, but the present invention is not limited to this. The optical sensor 44, the speaker 45, the control unit 46, the memory 47, and the power supply 48 may be arranged at positions capable of exerting the above-mentioned functions. For example, inside the container 41, the partition plate 41a can be arranged along the side wall (part or all) of the container 41, and the space S2 can be formed between the side wall of the container 41 and the partition plate 41a.

本実施形態によれば、容器41から蓋42を取り外したときに、スピーカ45から音を発生させることにより、食事者の聴覚を通じて、食事者に食事の楽しみを与えることができる。 According to the present embodiment, when the lid 42 is removed from the container 41, a sound is generated from the speaker 45, so that the meal can be enjoyed by the meal through the hearing of the meal.

(第4実施形態)
本実施形態である食事システムについて、図16を用いて説明する。本実施形態の食事システムは、食事者の咀嚼音(食事状態)に応じて、食卓10上のスクリーン11に映像を表示させる。これにより、食事者の視覚を通じて、食事者に食事の楽しみを与えることができる。図16に示す構成において、第1実施形態で説明した部材と同じ部材については、同一の符号を付して詳細な説明は省略する。以下、第1実施形態と異なる点について、主に説明する。
(Fourth Embodiment)
The meal system according to this embodiment will be described with reference to FIG. In the meal system of the present embodiment, an image is displayed on the screen 11 on the dining table 10 according to the chewing sound (meal state) of the eater. This makes it possible to give the eater the enjoyment of eating through the eyes of the eater. In the configuration shown in FIG. 16, the same members as those described in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted. Hereinafter, the points different from the first embodiment will be mainly described.

食事者Pは、装着具50を装着しており、装着具50にはマイク51が設けられている。マイク51は、食事者Pの咀嚼音を集音するために用いられるため、食事者Pの口の近くに配置される。装着具50は、マイク51が所望の位置(咀嚼音を集音できる位置)に配置されるように、食事者Pに装着される。装着具50としては、公知の構造を適宜採用することもできるが、複数本のマイク51を離間して配置することで、環境外乱(騒音や音声)の影響を受けたとしても、少なくとも1本のマイク51を用いて咀嚼音を検知しやすくなる。 The mealr P wears the fitting 50, and the fitting 50 is provided with a microphone 51. Since the microphone 51 is used to collect the chewing sound of the meal P, it is arranged near the mouth of the meal P. The attachment 50 is attached to the mealer P so that the microphone 51 is arranged at a desired position (a position where the chewing sound can be collected). As the mounting tool 50, a known structure can be appropriately adopted, but by arranging a plurality of microphones 51 apart from each other, at least one microphone 51 is used even if it is affected by environmental disturbance (noise or sound). It becomes easy to detect the chewing sound by using the microphone 51 of the above.

食卓10にはマイクアンプ25が設けられており、マイクアンプ25は、マイク51によって集音された音を受信して、この音を増幅する。マイクアンプ25は、有線又は無線を介して、マイク51と接続することができる。マイクアンプ25は、有線又は無線を介して外部装置30と接続されており、マイクアンプ25によって増幅された音の情報は、外部装置30に送信される。 A microphone amplifier 25 is provided on the dining table 10, and the microphone amplifier 25 receives the sound collected by the microphone 51 and amplifies the sound. The microphone amplifier 25 can be connected to the microphone 51 via wire or wirelessly. The microphone amplifier 25 is connected to the external device 30 via a wire or wirelessly, and the sound information amplified by the microphone amplifier 25 is transmitted to the external device 30.

分析部32は、マイクアンプ25の出力信号に基づいて、食事者Pの咀嚼音を特定する。具体的には、分析部32は、マイクアンプ25の出力信号に対して所定のフィルタリング処理を行い、フィルタリング処理を行った信号に基づいて、咀嚼音の判別を行うことができる。咀嚼音を判別する処理は、公知の技術を利用して処理することが可能であるため、詳細な説明は省略する。一方、映像判断部31は、分析部32によって特定された咀嚼音に基づいて、プロジェクタ21に送信される映像データを決定する。 The analysis unit 32 identifies the chewing sound of the eater P based on the output signal of the microphone amplifier 25. Specifically, the analysis unit 32 can perform a predetermined filtering process on the output signal of the microphone amplifier 25, and discriminate the chewing sound based on the filtered signal. Since the process of discriminating the mastication sound can be processed by using a known technique, detailed description thereof will be omitted. On the other hand, the image determination unit 31 determines the image data to be transmitted to the projector 21 based on the chewing sound specified by the analysis unit 32.

マイク51で収音した音(咀嚼音)に基づく映像の投射については、図17の映像データテーブル(咀嚼音対応)に示すように、投射する映像コンテンツと、咀嚼音量とを対応付けて管理しておくことで、実際にマイク51から収音した咀嚼音量に応じた映像をスクリーン11に投射することができる。また、咀嚼音量に基づき、投射する映像の表示態様を変更することも可能である。具体的には、図17の映像データテーブル(咀嚼音対応)に示すように、咀嚼音量と、映像表示態様とを対応付けて管理しておくことで、咀嚼音量に応じた表示態様で映像を表示させることができる。 Regarding the projection of the image based on the sound (chewing sound) picked up by the microphone 51, as shown in the image data table (corresponding to the chewing sound) of FIG. 17, the projected image content and the chewing volume are managed in association with each other. By doing so, it is possible to project an image corresponding to the mastication volume actually picked up from the microphone 51 onto the screen 11. It is also possible to change the display mode of the projected image based on the mastication volume. Specifically, as shown in the video data table (corresponding to mastication sound) of FIG. 17, by managing the mastication volume and the image display mode in association with each other, the image can be displayed in the display mode according to the mastication volume. It can be displayed.

図17に示す映像データテーブル(咀嚼音対応)の具体的な内容について、以下に説明する。 The specific contents of the video data table (corresponding to mastication sound) shown in FIG. 17 will be described below.

咀嚼音量が「レベル大」(第1音量以上)であるときには、食事者Pが食べ物を良く噛んでいることになるため、食事者Pの食事を褒めるために、食事者Pに喜びを与える映像(喜び映像)をスクリーン11に表示させることができる。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「大」のサイズにしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「大」のサイズにしたりすることができる。 When the mastication volume is "high level" (1st volume or higher), the meal P is chewing food well, so the image that gives joy to the meal P in order to praise the meal of the meal P. (Pleasure image) can be displayed on the screen 11. Here, if the image to be displayed contains characters, the size of the characters is set to a predetermined "large" size, or if the image to be displayed contains an image, the size of the image. Can be made into a predetermined "large" size.

咀嚼音量が「レベル中」(第2音量以上、第1音量未満)であるときには、食事者Pの咀嚼を更に促すために、食事者Pを応援する映像(応援映像)をスクリーン11に表示させることができる。なお、第2音量は、第1音量よりも小さい。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「中」のサイズ(上述した「大」の文字サイズよりも小さいサイズ)にしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「中」のサイズ(上述した「大」の画像サイズよりも小さいサイズ)にしたりすることができる。 When the mastication volume is "medium level" (second volume or more, less than the first volume), a video (support video) supporting the meal P is displayed on the screen 11 in order to further promote the chewing of the meal P. be able to. The second volume is lower than the first volume. Here, if the image to be displayed contains characters, the size of the characters may be set to a predetermined "medium" size (smaller than the above-mentioned "large" character size), or the image to be displayed. When an image is included in the image, the size of the image can be set to a predetermined "medium" size (smaller than the above-mentioned "large" image size).

咀嚼音量が「レベル小」(第2音量未満)であるときには、食事者Pが食べ物を良く噛んでいないため、食事者Pに悲しみを与える映像(悲しみ映像)をスクリーン11に表示させることができる。ここで、表示させる映像に文字が含まれている場合には、文字のサイズを予め決められた「小」のサイズ(上述した「中」の文字サイズよりも小さいサイズ)にしたり、表示させる映像に画像が含まれている場合には、画像のサイズを予め決められた「小」のサイズ(上述した「中」の画像サイズよりも小さいサイズ)にしたりすることができる。 When the mastication volume is "low level" (less than the second volume), since the eater P does not chew the food well, an image (sadness image) that gives the eater P sadness can be displayed on the screen 11. .. Here, when the image to be displayed contains characters, the size of the characters is set to a predetermined "small" size (smaller than the above-mentioned "medium" character size), or the image to be displayed. When an image is included in the image, the size of the image can be set to a predetermined "small" size (smaller than the above-mentioned "medium" image size).

本実施形態では、食事者Pが食べ物を咀嚼するたびに、図17に示す映像データテーブル(咀嚼音対応)に基づいて映像が表示される。ここで、映像コンテンツ毎に、1回の食事中における映像の表示回数をカウントすることができる。これにより、1回の食事において、各映像コンテンツが何回表示されたかを把握することができる。この表示回数の情報は、食卓10に設けられたディスプレイに表示させてもよいし、食事者Pや食事者P以外の者が所有する携帯端末に送信して携帯端末のディスプレイに表示させてもよい。 In the present embodiment, every time the eater P chews the food, an image is displayed based on the image data table (corresponding to the chewing sound) shown in FIG. Here, the number of times the video is displayed during one meal can be counted for each video content. This makes it possible to grasp how many times each video content is displayed in one meal. The information on the number of times of display may be displayed on the display provided on the dining table 10, or may be transmitted to a mobile terminal owned by a person other than the meal P or the meal P and displayed on the display of the mobile terminal. Good.

次に、外部装置30の処理について、図18に示すフローチャートを用いて説明する。 Next, the processing of the external device 30 will be described with reference to the flowchart shown in FIG.

ステップS401において、分析部32は、マイクアンプ25の出力信号に基づいて、咀嚼音が発生しているか否かを判別する。咀嚼音が発生したことを判別すると、ステップS402の処理に進む。 In step S401, the analysis unit 32 determines whether or not a chewing sound is generated based on the output signal of the microphone amplifier 25. When it is determined that the chewing sound has been generated, the process proceeds to step S402.

ステップS402において、映像判断部31は、咀嚼音が発生したことの分析部32の判別結果を受けて、プロジェクタ21に送信する映像データを決定する。第1実施形態と同様に、映像判断部31は、図17の映像データテーブル(咀嚼音対応)を参照し、メモリ33に記憶された複数の映像データのうち、1つの映像データを決定する。映像データの決定方法は、図17の映像データテーブル(咀嚼音対応)に示すように、咀嚼音量(大、中、小)によって表示する映像を決定するだけでなく、例えば、予め表示する映像データの順番を決めておくなど、適宜決めることができる。 In step S402, the image determination unit 31 determines the image data to be transmitted to the projector 21 in response to the determination result of the analysis unit 32 that the chewing sound has been generated. Similar to the first embodiment, the video determination unit 31 refers to the video data table (corresponding to the chewing sound) of FIG. 17 and determines one video data among the plurality of video data stored in the memory 33. As a method of determining the video data, as shown in the video data table (corresponding to the mastication sound) of FIG. 17, not only the video to be displayed is determined by the mastication volume (large, medium, small), but also the video data to be displayed in advance is determined, for example. It can be decided as appropriate, such as deciding the order of.

ステップS403において、映像判断部31は、決定した映像データをプロジェクタ21に送信し、プロジェクタ21を駆動する。これにより、プロジェクタ21からスクリーン11に対して映像が投射され、食事者Pは、スクリーン11に投射された映像を確認することができる。スクリーン11における映像の投射領域は、適宜決めることができる。例えば、スクリーン11の全面に対して映像を投射することもできるし、スクリーン11の一部の領域に対して映像を投射することもできる。投射領域については、図17に示す映像データテーブルにおいて、投射領域を対応付けることで管理することができる。 In step S403, the video determination unit 31 transmits the determined video data to the projector 21 and drives the projector 21. As a result, an image is projected from the projector 21 onto the screen 11, and the meal P can confirm the image projected on the screen 11. The projection area of the image on the screen 11 can be appropriately determined. For example, the image can be projected on the entire surface of the screen 11, or the image can be projected on a part of the area of the screen 11. The projection area can be managed by associating the projection area with the video data table shown in FIG.

ステップS404において、分析部32は、マイクアンプ25の出力信号に基づいて、咀嚼音が停止しているか否かを判別する。咀嚼音が停止したことを判別すると、ステップS405の処理に進む。 In step S404, the analysis unit 32 determines whether or not the mastication sound is stopped based on the output signal of the microphone amplifier 25. When it is determined that the mastication sound has stopped, the process proceeds to step S405.

ステップS405において、映像判断部31は、プロジェクタ21に対する映像データの送信を終了する。これにより、プロジェクタ21からスクリーン11への映像の投射が終了する。 In step S405, the video determination unit 31 ends the transmission of video data to the projector 21. As a result, the projection of the image from the projector 21 to the screen 11 is completed.

本実施形態によれば、食事者Pが食事をして咀嚼音が発生するたびに、スクリーン11に映像が表示される。これにより、食事者Pの視覚を通して、食事の楽しさを食事者Pに体感させることができる。 According to the present embodiment, every time the eater P eats and makes a chewing sound, an image is displayed on the screen 11. As a result, the enjoyment of eating can be experienced by the eating person P through the visual sense of the eating person P.

なお、本実施形態では、咀嚼音に応じた映像をスクリーン11に表示させているが、映像の表示に加えて、音を発生させることができる。具体的には、食卓10にスピーカ(不図示)を設けておき、プロジェクタ21から映像を投射するときに、スピーカから音を発生させることができる。スピーカの駆動は、外部装置30によって行うことができる。ここで、プロジェクタ21から投射される映像に応じて、スピーカから音を発生させることができる。 In the present embodiment, the image corresponding to the mastication sound is displayed on the screen 11, but the sound can be generated in addition to the display of the image. Specifically, a speaker (not shown) can be provided on the dining table 10, and when an image is projected from the projector 21, sound can be generated from the speaker. The speaker can be driven by the external device 30. Here, sound can be generated from the speaker according to the image projected from the projector 21.

例えば、スピーカから出力する音声は、図19の音声データテーブル(咀嚼音対応)に示すように、プロジェクタ21から投射する映像コンテンツ(コンテンツID)と対応付けて管理することができる。これにより、映像コンテンツに応じた音声を出力することができる。また、音声の音量は、映像コンテンツにかかわらず、一定とすることもできるし、図19の音声データテーブル(咀嚼音対応)に示すように、映像コンテンツに応じて変更することもできる。 For example, the sound output from the speaker can be managed in association with the video content (content ID) projected from the projector 21 as shown in the sound data table (corresponding to the chewing sound) of FIG. As a result, it is possible to output audio according to the video content. Further, the volume of the audio can be constant regardless of the video content, or can be changed according to the video content as shown in the audio data table (corresponding to the chewing sound) of FIG.

図19の音声データテーブル(咀嚼音対応)に示すように、喜び映像を表示させるときには、食事者Pに喜びを与える音声(喜び音声)をスピーカから出力することができる。応援映像を表示させるときには、食事者Pの食事を応援する音声(応援音声)をスピーカから出力することができる。悲しみ映像を表示させるときには、食事者Pに悲しみを与える音声(悲しみ音声)をスピーカから出力することができる。 As shown in the audio data table (corresponding to the chewing sound) of FIG. 19, when displaying the joy image, the joy sound (joy sound) that gives joy to the mealer P can be output from the speaker. When displaying the cheering image, the voice (supporting voice) for cheering the meal of the meal person P can be output from the speaker. When displaying the sadness image, a sound giving sadness to the mealer P (sadness sound) can be output from the speaker.

図19の音声データテーブル(咀嚼音対応)に示す例では、予め決められた音声(喜び音声、応援音声、悲しみ音声など)を出力しているが、これに限るものではない。例えば、マイク51で集音した咀嚼音をスピーカから出力することができる。この場合において、スピーカから出力される咀嚼音の音量は、マイク51で集音した咀嚼音量にかかわらず、一定とすることもできるし、マイク51で集音した咀嚼音量に応じて変更することもできる。ここで、マイク51で集音した咀嚼音量が大きいほど、スピーカから出力される咀嚼音の音量を大きくすることができる。 In the example shown in the voice data table (corresponding to chewing sound) of FIG. 19, predetermined voices (joy voice, cheering voice, sadness voice, etc.) are output, but the present invention is not limited to this. For example, the chewing sound collected by the microphone 51 can be output from the speaker. In this case, the volume of the mastication sound output from the speaker can be constant regardless of the mastication volume collected by the microphone 51, or can be changed according to the mastication volume collected by the microphone 51. it can. Here, the louder the mastication volume collected by the microphone 51, the louder the mastication sound output from the speaker can be.

本実施形態では、マイク51を用いて咀嚼音量を測定しているが、これに限るものではない。例えば、マイク51を用いて咀嚼音を検出し、咀嚼音が発生した回数をカウントすることにより、1回の食事における咀嚼回数を求めることができる。1回の食事における咀嚼回数を求めれば、分析部32において、この咀嚼回数に対する評価を行うことができる。例えば、咀嚼回数の目標値を設定した場合には、実際の咀嚼回数と、咀嚼回数の目標値とを比較して評価を行うことができる。咀嚼回数の目標値は、例えば、食卓10又は外部装置30に設けられた操作入力部(不図示)の操作によって設定することもできるし、食事者Pや食事者P以外の者が所有する携帯端末から咀嚼回数の目標値を入力し、この入力情報を外部装置30に送信することもできる。 In the present embodiment, the mastication volume is measured using the microphone 51, but the present invention is not limited to this. For example, by detecting the mastication sound using the microphone 51 and counting the number of times the mastication sound is generated, the number of times of mastication in one meal can be obtained. If the number of chews in one meal is obtained, the analysis unit 32 can evaluate the number of chews. For example, when the target value of the number of chews is set, the evaluation can be performed by comparing the actual number of chews with the target value of the number of chews. The target value of the number of times of chewing can be set, for example, by operating an operation input unit (not shown) provided on the dining table 10 or the external device 30, or a portable device owned by a person other than the mealer P or the mealer P. It is also possible to input a target value of the number of chews from the terminal and transmit this input information to the external device 30.

本実施形態では、スクリーン11に映像を表示させているが、スクリーン11に代えて、第2実施形態で説明したディスプレイ12を用いることもできる。また、本実施形態では、咀嚼音が発生したときに、映像を表示させるようにしているが、これに限るものではない。具体的には、咀嚼音が発生している時間帯と、咀嚼音が発生していない時間帯とで、映像を異ならせることができる。より具体的には、咀嚼音が発生していない時間帯では、静止画像を表示させておき、咀嚼音が発生している時間帯では、動画像を表示させることができる。さらに、咀嚼音の強弱に応じて、画像を変化させることもできる。 In the present embodiment, the image is displayed on the screen 11, but the display 12 described in the second embodiment can be used instead of the screen 11. Further, in the present embodiment, when a chewing sound is generated, an image is displayed, but the present invention is not limited to this. Specifically, the image can be different between the time zone in which the mastication sound is generated and the time zone in which the mastication sound is not generated. More specifically, the still image can be displayed in the time zone when the mastication sound is not generated, and the moving image can be displayed in the time zone when the mastication sound is generated. Furthermore, the image can be changed according to the strength of the chewing sound.

本実施形態では、食卓10の外部に外部装置30を設けているが、これに限るものではない。具体的には、外部装置30の構成を食卓10の内部に設けることができる。 In the present embodiment, the external device 30 is provided outside the dining table 10, but the present invention is not limited to this. Specifically, the configuration of the external device 30 can be provided inside the dining table 10.

本実施形態では、マイク51を用いて検出した食事者Pの咀嚼音に基づいて、映像を表示するようにしているが、これに限るものではない。例えば、食事の時に飲食物を食事者Pの口に運ぶための食事器具(例えば、箸、スプーン、フォークなど)にセンサを設けておき、このセンサの検出結果(すなわち、食事者Pが食事器具に触れたこと)に基づいて、映像を表示させることができる。ここで、センサの検出対象としては、温度、圧力、加速度などが挙げられる。 In the present embodiment, the image is displayed based on the chewing sound of the mealer P detected by using the microphone 51, but the present embodiment is not limited to this. For example, a sensor is provided in a eating utensil (for example, chopsticks, spoon, fork, etc.) for carrying food and drink to the mouth of the eating utensil at the time of meal, and the detection result of this sensor (that is, the eating utensil P is the eating utensil). The image can be displayed based on (touched). Here, the detection target of the sensor includes temperature, pressure, acceleration, and the like.

食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて温度が異なる。したがって、温度センサを用いて食事器具の温度を検出し、温度の変化(食事状態の変化)に応じて映像を表示させることができる。また、食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて食事器具に作用する圧力が異なる。したがって、圧力センサを用いて食事器具に作用する圧力を検出し、圧力の変化(食事状態の変化)に応じて映像を表示させることができる。 The temperature of the eating utensil that the eating utensil P touches differs depending on whether or not the eating utensil P touches the eating utensil. Therefore, the temperature of the eating utensil can be detected by using the temperature sensor, and the image can be displayed according to the change in the temperature (change in the eating state). Further, with respect to the eating utensil that the eating utensil P touches, the pressure acting on the eating utensil differs depending on whether or not the eating utensil P touches the eating utensil. Therefore, the pressure sensor can be used to detect the pressure acting on the eating utensil, and the image can be displayed according to the change in pressure (change in eating condition).

さらに、食事者Pが触れる食事器具については、食事者Pが食事器具に触れているか否かに応じて加速度が異なる。具体的には、食事者Pが食事器具に触れていなく、食事器具を置いていれば、加速度が発生しない。一方、食事者Pが食事器具を持っていれば、食事に応じた加速度が食事器具に発生する。したがって、加速度センサを用いて食事器具に作用する加速度を検出し、加速度の変化(食事状態の変化)に応じて映像を表示させることができる。 Further, with respect to the eating utensil that the eating utensil P touches, the acceleration differs depending on whether or not the eating utensil P touches the eating utensil. Specifically, if the mealr P is not touching the meal utensil and the meal utensil is placed, the acceleration does not occur. On the other hand, if the eater P has a meal device, acceleration corresponding to the meal is generated in the meal device. Therefore, the acceleration sensor can be used to detect the acceleration acting on the eating utensil, and the image can be displayed according to the change in the acceleration (change in the eating state).

尚、食事状態の変化について、上記では食事者Pが触れる食事器具に設置されたセンサとして温度センサ、圧力センサ、加速度センサなどを例示したが、第1実施形態から第3実施形態で説明したRFIDタグ43が設置された食器40を利用することで食事状態の変化を取得することができる。この場合も、後述のカメラによる撮影画像と同様に、食事者Pが手にした食器を判別することができる。 Regarding the change in the eating state, the temperature sensor, the pressure sensor, the acceleration sensor and the like are exemplified as the sensors installed in the eating utensils touched by the meal P, but the RFIDs described in the first to third embodiments have been described above. By using the tableware 40 on which the tag 43 is installed, it is possible to acquire a change in the eating condition. In this case as well, the tableware held by the mealer P can be discriminated as in the image taken by the camera described later.

さらに、食事場所に、食事者Pを撮影するカメラを設置することで、撮影画像(具体的には、食事者Pの口の動き)に基づく咀嚼の有無の判別も可能であり、食事状態の変化を判別することができる。尚、カメラを設置した場合は、咀嚼の有無の判別のみならず、食事者Pが手にした食器40の判別も可能となる。カメラから取得した撮影画像の分析結果に基づき、食事者Pが手にした食器40に対応した映像、食事者Pの口の開口状態を示す映像など、食事状態の変化に応じて、スクリーン11又はディスプレイ12に映像を表示させることができる。 Furthermore, by installing a camera that captures the meal P at the meal location, it is possible to determine the presence or absence of chewing based on the captured image (specifically, the movement of the mouth of the meal P), and it is possible to determine the presence or absence of chewing. The change can be discriminated. When the camera is installed, it is possible not only to determine the presence or absence of chewing, but also to determine the tableware 40 held by the mealer P. Based on the analysis result of the photographed image acquired from the camera, the screen 11 or the screen 11 or the image corresponding to the tableware 40 held by the meal P, the image showing the opening state of the mouth of the meal P, etc. An image can be displayed on the display 12.

(第5実施形態)
本実施形態である食事システムについて、図20〜23を用いて説明する。本実施形態の食事システムでは、食卓としてのトレイを用いており、トレイに内蔵されたディスプレイに映像等を表示させる。
(Fifth Embodiment)
The meal system according to this embodiment will be described with reference to FIGS. 20 to 23. In the meal system of the present embodiment, a tray as a dining table is used, and an image or the like is displayed on a display built in the tray.

図20に示すように、トレイ60は、テーブル(不図示)に載せられるものであり、ディスプレイ61及び外装ケース62を有する。ディスプレイ61は、タッチパネル式のディスプレイであり、各種の情報や映像を表示することができる。外装ケース62は開口部62aを有しており、開口部62aの内側の領域において、ディスプレイ61が露出している。これにより、食事者は、開口部62aの内側の領域において、ディスプレイ61に表示された映像等を視認することができる。なお、開口部62aの形状としては、図20に示す形状に限るものではなく、様々な形状とすることができる。 As shown in FIG. 20, the tray 60 is placed on a table (not shown) and has a display 61 and an outer case 62. The display 61 is a touch panel type display and can display various information and images. The outer case 62 has an opening 62a, and the display 61 is exposed in the area inside the opening 62a. As a result, the eater can visually recognize the image or the like displayed on the display 61 in the area inside the opening 62a. The shape of the opening 62a is not limited to the shape shown in FIG. 20, and may be various shapes.

外装ケース62の内部に、タッチパネル式のディスプレイを備えたタブレットなどの電子機器を収容し、この電子機器のディスプレイをディスプレイ61として用いることができる。電子機器を外装ケース62の内部に収容する場合には、外装ケース62の内部に、電子機器を位置決めするための構造を設けることができる。 An electronic device such as a tablet provided with a touch panel type display can be housed inside the outer case 62, and the display of the electronic device can be used as the display 61. When the electronic device is housed inside the outer case 62, a structure for positioning the electronic device can be provided inside the outer case 62.

図20に示すように、外装ケース62の上面(ディスプレイ61が露出する側の面)には、箸、スプーン、フォークなどの食事器具70を載せることができる。食事器具70には磁石が設けられており、例えば、食事器具70のうち、食事者が握るグリップ部分に磁石を設けることができる。なお、食事器具70は、ディスプレイ61の上面にも載せることができる。 As shown in FIG. 20, a meal utensil 70 such as chopsticks, a spoon, and a fork can be placed on the upper surface of the outer case 62 (the surface on the side where the display 61 is exposed). The eating utensil 70 is provided with a magnet. For example, the magnet can be provided on the grip portion of the eating utensil 70 held by the eater. The meal utensil 70 can also be placed on the upper surface of the display 61.

図21に示すように、トレイ60のディスプレイ61に載せられる食器80は、飲食物を収容する容器81と、容器81の下部に着脱可能に取り付けられるアタッチメント82とを有する。容器81としては、陶器やプラスチックなどで形成された一般的な器を用いることができる。容器81及びアタッチメント82を着脱可能に装着する手段としては、例えば、面ファスナや磁石を用いることができる。 As shown in FIG. 21, the tableware 80 mounted on the display 61 of the tray 60 has a container 81 for accommodating food and drink, and an attachment 82 detachably attached to the lower portion of the container 81. As the container 81, a general container made of pottery, plastic, or the like can be used. As a means for attaching and detaching the container 81 and the attachment 82, for example, a hook-and-loop fastener or a magnet can be used.

アタッチメント82の底面には、ディスプレイ61と接触するスタイラス部82aが設けられている。スタイラス部82aは、食器80をディスプレイ61に載せたことを判別するために用いられる。なお、食器80としては、容器81及びアタッチメント82が一体的に構成されたものであってもよい。 A stylus portion 82a that comes into contact with the display 61 is provided on the bottom surface of the attachment 82. The stylus portion 82a is used to determine that the tableware 80 is placed on the display 61. The tableware 80 may be one in which the container 81 and the attachment 82 are integrally configured.

図22は、トレイ60、食事器具70及び食器80の構成を示すブロック図である。制御部30Aは、第2実施形態(図10)で説明した制御部30Aと同様の機能を有しており、映像判断部31、分析部32及びメモリ33を有する。 FIG. 22 is a block diagram showing the configuration of the tray 60, the meal utensil 70, and the tableware 80. The control unit 30A has the same functions as the control unit 30A described in the second embodiment (FIG. 10), and includes a video determination unit 31, an analysis unit 32, and a memory 33.

制御部30Aは、ディスプレイ61を駆動したり、ディスプレイ61からの情報(例えば、食器80が載せられた位置に関する情報)を取得したりする。食器80をディスプレイ61に載せたとき、制御部30Aは、スタイラス部82aがディスプレイ61に接触したときのディスプレイ61の出力に基づいて、食器80がディスプレイ61に載せられたことを判別したり、ディスプレイ61における食器80の載置位置を特定したりする。これにより、制御部30Aは、ディスプレイ61を駆動することにより、第2実施形態と同様に、食器80の位置に対応した表示領域(ディスプレイ61の一部の領域)において、映像(例えば、図11に示す映像)を表示させることができる。なお、ディスプレイ61の表示領域の全体に映像を表示させることもできる。 The control unit 30A drives the display 61 and acquires information from the display 61 (for example, information regarding the position on which the tableware 80 is placed). When the tableware 80 is placed on the display 61, the control unit 30A determines that the tableware 80 is placed on the display 61 based on the output of the display 61 when the stylus unit 82a comes into contact with the display 61, or displays. The placement position of the tableware 80 in 61 is specified. As a result, the control unit 30A drives the display 61 to display an image (for example, FIG. 11) in a display area (a part of the display 61) corresponding to the position of the tableware 80, as in the second embodiment. The image shown in) can be displayed. It is also possible to display an image in the entire display area of the display 61.

磁気センサ63は、トレイ60のうち、食事器具70が載置される位置に対して設けられており、トレイ60に食事器具70が載せられているときに、食事器具70に含まれる磁石を検出し、この検出結果を制御部30Aに送信する。制御部30Aは、磁気センサ63の出力に基づいて、食事器具70がトレイ60に載せられているか否かを判別する。ここで、食事器具70がトレイ60に載せられているときには、食事者が食事器具70を使用していないことになるため、食事者が食事をしていないことを判別できる。一方、食事器具70がトレイ60に載せられていないときには、食事者が食事器具70を使用していることになるため、食事者が食事をしていることを判別できる。 The magnetic sensor 63 is provided at a position on the tray 60 where the meal utensil 70 is placed, and detects a magnet included in the meal utensil 70 when the meal utensil 70 is placed on the tray 60. Then, this detection result is transmitted to the control unit 30A. The control unit 30A determines whether or not the meal utensil 70 is mounted on the tray 60 based on the output of the magnetic sensor 63. Here, when the eating utensil 70 is placed on the tray 60, it means that the eating utensil 70 is not using the eating utensil 70, so that it can be determined that the eating utensil is not eating. On the other hand, when the eating utensil 70 is not placed on the tray 60, it means that the eating utensil 70 is using the eating utensil 70, so that it can be determined that the eating utensil is eating.

重量センサ64は、トレイ60に載せられた物(食事器具70や食器80(容器81内の飲食物を含む))の総重量を測定し、この測定結果を制御部30Aに送信する。容器81に飲食物が収容されていない食器80をディスプレイ61に載せれば、重量センサ64によって、容器81に飲食物を収容する前の食器80自体の重量を測定することができる。また、容器81に飲食物が収容された食器80をディスプレイ61に載せれば、重量センサ64によって、容器81に飲食物を収容した後の食器80の重量を測定することができる。このように食器80の重量を測定すれば、容器81に収容された飲食物の重量の変化を把握することができる。これにより、第2実施形態で説明したように、食事量に基づく評価を行うことができる。 The weight sensor 64 measures the total weight of the items (meal utensils 70 and tableware 80 (including food and drink in the container 81)) placed on the tray 60, and transmits the measurement results to the control unit 30A. If the tableware 80 in which the food and drink is not stored in the container 81 is placed on the display 61, the weight of the tableware 80 itself before the food and drink is stored in the container 81 can be measured by the weight sensor 64. Further, if the tableware 80 in which the food and drink is stored in the container 81 is placed on the display 61, the weight of the tableware 80 after the food and drink is stored in the container 81 can be measured by the weight sensor 64. By measuring the weight of the tableware 80 in this way, it is possible to grasp the change in the weight of the food and drink contained in the container 81. Thereby, as described in the second embodiment, the evaluation based on the amount of food can be performed.

ディスプレイ61に表示させる情報としては、例えば、容器81内の飲食物の重量、トレイ60に載せられた物(食事器具70、食器80、容器81内の飲食物を含む)の総重量、トレイ60に食事器具70が載せられているか否かの情報、容器81内の飲食物の残量が挙げられる。飲食物の残量は、例えば、飲食物の初期重量に対して、現在残っている飲食物の重量の割合として表示することができる。 The information to be displayed on the display 61 includes, for example, the weight of food and drink in the container 81, the total weight of the food and drink placed on the tray 60 (including the meal utensil 70, tableware 80, and food and drink in the container 81), and the tray 60. Information on whether or not the eating utensil 70 is placed on the container 81 and the remaining amount of food and drink in the container 81. The remaining amount of food and drink can be displayed as, for example, the ratio of the weight of food and drink currently remaining to the initial weight of food and drink.

容器81には、容器81毎の識別子である容器IDを送信する送信器81aが設けられている。トレイ60には、送信器81aから送信された容器IDを受信する受信器65が設けられている。受信器65は、受信した容器IDを制御部30Aに送信し、制御部30Aは、容器IDに基づいて、トレイ60に載せられた容器81を特定することができる。 The container 81 is provided with a transmitter 81a for transmitting a container ID which is an identifier for each container 81. The tray 60 is provided with a receiver 65 that receives the container ID transmitted from the transmitter 81a. The receiver 65 transmits the received container ID to the control unit 30A, and the control unit 30A can identify the container 81 mounted on the tray 60 based on the container ID.

次に、食事の有無を判別する処理について、図23に示すフローチャートを用いて説明する。 Next, the process of determining the presence or absence of meals will be described with reference to the flowchart shown in FIG.

ステップS501において、制御部30A(分析部32)は、磁気センサ63からの出力があるか否かを判別する。磁気センサ63からの出力があるとき、ステップS502において、制御部30A(分析部32)は、トレイ60に食事器具70が載せられており、食事者が食事中ではないと判別する。磁気センサ63からの出力が無いとき、ステップS503において、制御部30A(分析部32)は、トレイ60に食事器具70が載せられていなく、食事者が食事中であると判別する。 In step S501, the control unit 30A (analysis unit 32) determines whether or not there is an output from the magnetic sensor 63. When there is an output from the magnetic sensor 63, in step S502, the control unit 30A (analysis unit 32) determines that the eating utensil 70 is placed on the tray 60 and that the eater is not eating. When there is no output from the magnetic sensor 63, in step S503, the control unit 30A (analysis unit 32) determines that the eating utensil 70 is not placed on the tray 60 and the eater is eating.

上述したように食事中であるか否かを判別すれば、食事中ではない状態から食事中である状態に変化したこと、すなわち、食事状態の変化を判別することができる。このように食事状態の変化を判別したとき、制御部30A(映像判断部31)は、ディスプレイ61に映像を表示させることができ、食事者は、ディスプレイ61に表示された映像を視認することができる。 By determining whether or not a person is eating as described above, it is possible to determine that the state has changed from a state not being eaten to a state being eaten, that is, a change in the eating state. When the change in the eating state is determined in this way, the control unit 30A (image determination unit 31) can display the image on the display 61, and the eater can visually recognize the image displayed on the display 61. it can.

ディスプレイ61に映像を表示させる方法は、第1実施形態や第2実施形態で説明したとおりである。例えば、図6に示す映像データテーブルと同様に、映像コンテンツを識別するためのコンテンツIDや容器81を識別するための容器ID(図6に示す食器IDに相当する)を対応付けて管理することにより、容器81に応じた映像をディスプレイ61に表示させることができる。ここで、容器IDは、上述したように容器81に設けられた送信器81aから取得することができる。 The method of displaying the image on the display 61 is as described in the first embodiment and the second embodiment. For example, similarly to the video data table shown in FIG. 6, the content ID for identifying the video content and the container ID for identifying the container 81 (corresponding to the tableware ID shown in FIG. 6) are associated and managed. Therefore, the image corresponding to the container 81 can be displayed on the display 61. Here, the container ID can be obtained from the transmitter 81a provided in the container 81 as described above.

第1実施形態や第2実施形態で説明した映像コンテンツ(コンテンツID)と容器IDの対応つけは、食事を開始する前に食事者が、容器81に入れる食材や料理の種類(ごはん、肉、魚、揚げ物、焼き物、汁物、デザートなど)とそれに対応つける映像コンテンツ(コンテンツID)を、それぞれ選択できるようにしておくことも可能である。 The correspondence between the video content (content ID) and the container ID described in the first embodiment and the second embodiment is the type of ingredients and dishes (rice, meat, etc.) that the eater puts in the container 81 before starting the meal. It is also possible to make it possible to select (fish, fried food, roasted food, soup, dessert, etc.) and the corresponding video content (content ID).

この場合、食事者が利用している容器81の容器IDを取得し、その容器81に入れる食材や料理の種類と映像コンテンツ(コンテンツID)を食事者が選択することにより対応つけした結果として図6に示す映像データテーブルで管理する。ここで、図6に示す食器ID(本実施形態では、容器ID)には、食材や料理の種類が対応つけられる。尚、映像コンテンツとしては、予め用意された映像コンテンツに加え、食事者が自分の好みで映像コンテンツを登録することも可能である。これにより、食材や料理の種類ごとに固定の容器81を利用する必要がなく、同一の容器81に対して異なる食材や異なる種類の料理を入れても、容器81に入れた食材や料理の種類に応じた映像を映し出すことができる。また、食事者が自分の好みで映像コンテンツを登録することにより、自分好みの映像を映し出すことができる。 In this case, the figure shows the result of acquiring the container ID of the container 81 used by the meal and associating the food and the type of food to be put in the container 81 with the video content (content ID) by the meal. It is managed by the video data table shown in 6. Here, the tableware ID (container ID in the present embodiment) shown in FIG. 6 is associated with the type of ingredients and dishes. As the video content, in addition to the video content prepared in advance, the meal can register the video content according to his / her preference. As a result, it is not necessary to use a fixed container 81 for each type of ingredient or dish, and even if different ingredients or different types of dishes are put in the same container 81, the type of ingredient or dish put in the container 81. It is possible to project an image according to the above. In addition, the meal can project the video of his / her taste by registering the video content according to his / her taste.

本実施形態によれば、食事者が食事をするために食事器具70を使用することに応じて、ディスプレイ61に映像を表示させることができる。これにより、食事者の視覚を通じて、食事の楽しさを食事者に体感させることができる。 According to the present embodiment, an image can be displayed on the display 61 according to the use of the eating utensil 70 for the meal by the eater. As a result, the enjoyment of eating can be experienced by the eating person through the visual sense of the eating person.

なお、本実施形態では、食事器具70に設けた磁石と磁気センサ63を用いることにより、トレイ60に食事器具70が載せられていることを検出しているが、これに限るものではない。例えば、第1実施形態で説明したRFIDリーダやRFIDタグを用いて、トレイ60に食事器具70が載せられていることを検出することができる。 In the present embodiment, the magnet and the magnetic sensor 63 provided on the eating utensil 70 are used to detect that the eating utensil 70 is placed on the tray 60, but the present invention is not limited to this. For example, using the RFID reader or RFID tag described in the first embodiment, it is possible to detect that the eating utensil 70 is placed on the tray 60.

また、本実施形態のように、トレイ60に食事器具70が載せられていることを検出する構成は、第1実施形態から第4実施形態で説明した食事システムにも適用することができる。すなわち、第1実施形態から第4実施形態で説明した食卓10の上面10aに、本実施形態で説明した食事器具70を載せる場合であっても、本実施形態を適用することができる。 Further, the configuration for detecting that the meal utensil 70 is placed on the tray 60 as in the present embodiment can be applied to the meal system described in the first to fourth embodiments. That is, the present embodiment can be applied even when the eating utensil 70 described in the present embodiment is placed on the upper surface 10a of the dining table 10 described in the first to fourth embodiments.

本実施形態によれば、図23に示す処理によって食事中であるか否かを判別することにより、食事をしている時間帯と、食事をしていない時間帯とを区別することができる。ここで、食事をしている時間帯は、第1実施形態で説明した蓋開口時刻に相当し、食事をしていない時間帯は、第1実施形態で説明した蓋閉口時刻に相当する。これにより、第1実施形態で説明したように、食事時間を算出して、食事時間に基づく評価を行うことができる。 According to the present embodiment, by determining whether or not a person is eating by the process shown in FIG. 23, it is possible to distinguish between a time zone during which a meal is being eaten and a time zone during which a meal is not being eaten. Here, the time zone during which the meal is eaten corresponds to the lid opening time described in the first embodiment, and the time zone during which the meal is not eaten corresponds to the lid closing time described in the first embodiment. Thereby, as described in the first embodiment, the meal time can be calculated and the evaluation based on the meal time can be performed.

また、第2実施形態で説明したように、ディスプレイ61に映像を表示させることに加えて、トレイ60に設けたスピーカ(不図示)から音を発生させることもできる。この場合には、図7に示す音声データテーブルと同様に、音声ID、音声ファイル名、コンテンツID、音声再生時間を対応付けて管理することにより、音を発生させることができる。 Further, as described in the second embodiment, in addition to displaying the image on the display 61, sound can be generated from a speaker (not shown) provided on the tray 60. In this case, the sound can be generated by managing the voice ID, the voice file name, the content ID, and the voice reproduction time in association with each other, as in the voice data table shown in FIG.

音声も上述の映像と同様、食事者が登録することも可能であり、音声ID及びコンテンツID(映像コンテンツ)との対応つけも食事者が設定するようにして、色々な組み合わせを登録できるようにすることも可能である。 The audio can be registered by the meal as well as the above-mentioned video, and the correspondence between the audio ID and the content ID (video content) can be set by the meal so that various combinations can be registered. It is also possible to do.

尚、映像や音声の登録は後述の第6実施形態(図24)で説明する設定表示装置300から行うことができる。食事者が追加登録した映像や音声は、第6実施形態(図24)で説明する分析システム200で管理することができ、追加登録された映像や音声は、この登録を行った食事者以外の食事者が利用できるようにしても良い。 The video and audio can be registered from the setting display device 300 described in the sixth embodiment (FIG. 24) described later. The video and audio additionally registered by the meal can be managed by the analysis system 200 described in the sixth embodiment (FIG. 24), and the additionally registered video and audio are other than the registered meal. It may be made available to meals.

このように、食事者好みの映像や音声を登録して、自由な組み合わせでの利用を可能とすることで、食事者が、楽しく飽きることなく食事をすることが可能となる。 In this way, by registering the video and audio of the eater's preference and making it possible to use them in any combination, the eater can enjoy eating without getting bored.

本実施形態の変形例として、アタッチメント82に磁石を設けるとともに、トレイ60に、アタッチメント82の磁石を検出する磁気センサ(以下、食器検出用の磁気センサという)を設けることができる。食器検出用の磁気センサは、ディスプレイ61に対応した位置に設けることができ、トレイ60に食器80が載せられているときに、アタッチメント82に含まれる磁石を検出し、この検出結果を制御部30Aに送信する。制御部30Aは、食器検出用の磁気センサの出力に基づいて、食器80がトレイ60に載せられているか否かを判別する。なお、磁石は、アタッチメント82ではなく、容器81に設けることもできる。 As a modification of this embodiment, the attachment 82 may be provided with a magnet, and the tray 60 may be provided with a magnetic sensor for detecting the magnet of the attachment 82 (hereinafter referred to as a magnetic sensor for detecting tableware). The magnetic sensor for tableware detection can be provided at a position corresponding to the display 61, and when the tableware 80 is placed on the tray 60, the magnet included in the attachment 82 is detected, and the detection result is output to the control unit 30A. Send to. The control unit 30A determines whether or not the tableware 80 is placed on the tray 60 based on the output of the magnetic sensor for detecting the tableware. The magnet may be provided in the container 81 instead of the attachment 82.

ここで、食器80が載置される領域内の複数の位置に複数の食器検出用の磁気センサをそれぞれ配置すれば、食器80の載置位置を特定することができる。具体的には、複数の食器検出用の磁気センサのうち、アタッチメント82に含まれる磁石を検出した食器検出用の磁気センサの出力に基づいて、食器80の載置位置を特定することができる。食器80の載置位置を特定できれば、この載置位置に対応した表示領域(ディスプレイ61の一部の領域)において、映像(例えば、図11に示す映像)を表示させることができる。また、食器80毎に、食器検出用の磁気センサによって検出される磁気状態を異ならせれば、容器81毎の識別子(上述した容器IDに相当する)を判別することができる。 Here, if a plurality of magnetic sensors for detecting tableware are arranged at a plurality of positions in the area where the tableware 80 is placed, the placement position of the tableware 80 can be specified. Specifically, among the plurality of magnetic sensors for detecting tableware, the placement position of the tableware 80 can be specified based on the output of the magnetic sensor for detecting tableware that detects the magnet included in the attachment 82. If the placement position of the tableware 80 can be specified, an image (for example, the image shown in FIG. 11) can be displayed in the display area (a part of the area of the display 61) corresponding to the placement position. Further, if the magnetic state detected by the magnetic sensor for detecting tableware is different for each tableware 80, the identifier for each container 81 (corresponding to the above-mentioned container ID) can be determined.

(第6実施形態)
本実施形態である分析システムについて、図24を用いて説明する。本実施形態の分析システム200は、食事システム100及び設定表示装置300のそれぞれとネットワークを介して接続されている。
(Sixth Embodiment)
The analysis system according to this embodiment will be described with reference to FIG. 24. The analysis system 200 of the present embodiment is connected to each of the meal system 100 and the setting display device 300 via a network.

食事システム100は、第1実施形態から第5実施形態で説明した食事システムに相当し、食器又は食事者に関する食事状態を検出するセンシング部110と、センシング部110によって検出された食事状態に応じた処理(映像の表示や音声の出力)を行うリアクション部120とを有する。 The meal system 100 corresponds to the meal system described in the first to fifth embodiments, and corresponds to the meal state detected by the sensing unit 110 and the sensing unit 110 that detects the meal state of the tableware or the eater. It has a reaction unit 120 that performs processing (display of video and output of audio).

センシング部110には、第1実施形態で説明したRFIDタグ43及びRFIDリーダ22が含まれたり、第2実施形態で説明したタッチパネルディスプレイ12が含まれたり、第4実施形態で説明したマイク51が含まれたり、第5実施形態で説明したディスプレイ61、磁気センサ63及び重量センサ64が含まれたりする。リアクション部120は、第1実施形態で説明したプロジェクタ21やスピーカが含まれたり、第2実施形態で説明したタッチパネルディスプレイ12やスピーカが含まれたり、第4実施形態で説明したプロジェクタやタッチパネルディスプレイが含まれたり、第5実施形態で説明したディスプレイ61やスピーカが含まれたりする。 The sensing unit 110 includes the RFID tag 43 and the RFID reader 22 described in the first embodiment, the touch panel display 12 described in the second embodiment, and the microphone 51 described in the fourth embodiment. The display 61, the magnetic sensor 63, and the weight sensor 64 described in the fifth embodiment may be included. The reaction unit 120 includes the projector 21 and the speaker described in the first embodiment, the touch panel display 12 and the speaker described in the second embodiment, and the projector and the touch panel display described in the fourth embodiment. It may be included, or the display 61 or speaker described in the fifth embodiment may be included.

分析システム200は、センシングデータ取得部210と、センシングデータ記憶部220と、効果分析部230と、目標値管理部240とを有する。センシングデータ取得部210は、食事システム100のセンシング部110によって検出されたデータ(食事状態に関するデータ)を取得する。センシングデータ記憶部220は、センシングデータ取得部210が取得したデータを記憶する。 The analysis system 200 includes a sensing data acquisition unit 210, a sensing data storage unit 220, an effect analysis unit 230, and a target value management unit 240. The sensing data acquisition unit 210 acquires data (data related to the meal state) detected by the sensing unit 110 of the meal system 100. The sensing data storage unit 220 stores the data acquired by the sensing data acquisition unit 210.

効果分析部230は、センシングデータ記憶部220に記憶されたデータと、このデータに対応する目標値とに基づいて、所定の分析を行う。この分析は、第1実施形態から第5実施形態で説明した分析部32の処理(目標値を用いた評価)に相当する。目標値管理部240は、設定表示装置300から送信された目標値を管理する。目標値管理部240で管理されている目標値は、効果分析部230での処理に用いられる。 The effect analysis unit 230 performs a predetermined analysis based on the data stored in the sensing data storage unit 220 and the target value corresponding to this data. This analysis corresponds to the processing (evaluation using the target value) of the analysis unit 32 described in the first to fifth embodiments. The target value management unit 240 manages the target value transmitted from the setting display device 300. The target value managed by the target value management unit 240 is used for processing in the effect analysis unit 230.

設定表示装置300は、目標値設定部310と、分析結果表示部320とを有する。設定表示装置300としては、例えば、第1実施形態などで説明した、食事者や食事者以外の者が保有する携帯端末が挙げられる。 The setting display device 300 has a target value setting unit 310 and an analysis result display unit 320. Examples of the setting display device 300 include a eater and a mobile terminal owned by a person other than the eater described in the first embodiment and the like.

目標値設定部310は、目標値を設定するために用いられる。目標値設定部310で設定された目標値は、分析システム200に送信される。この目標値としては、例えば、第1実施形態で説明した食事時間の目標値、第2実施形態で説明した食事量の目標値、第4実施形態で説明した咀嚼回数の目標値が挙げられる。分析結果表示部320は、分析システム200から送信された分析結果(効果分析部230の分析結果)を表示する。 The target value setting unit 310 is used to set the target value. The target value set by the target value setting unit 310 is transmitted to the analysis system 200. Examples of the target value include the target value of the meal time described in the first embodiment, the target value of the amount of meal described in the second embodiment, and the target value of the number of chews described in the fourth embodiment. The analysis result display unit 320 displays the analysis result (analysis result of the effect analysis unit 230) transmitted from the analysis system 200.

分析結果は、例えば図25に示すように、咀嚼回数、食べた量、品目数、摂取カロリー、食事時間、褒められた回数などを軸とするレーダーチャートで表示する。図25に示すように食事システム100の利用開始前と利用開始後とで比較できるように表示するなど、表示方法は様々である。利用開始前の情報は、例えば、第1実施形態から第5実施形態に記載の食事システムで映像や音声は利用せず、咀嚼回数や食事時間等の情報を取得することで分析可能である。また、設定した目標値と比較できるようにレーダーチャートを目標値と実績値を重ねて表示するようにしても良い。また、食事システム100の利用者に対する分析結果の提供は上記に限らず、他の利用者の状況と比較した結果のランキングや、食べた量などに基づく好き嫌いの傾向や栄養摂取量など、食事システム100から取得した情報を利用することで様々な分析結果を提供することができる。 As shown in FIG. 25, for example, the analysis result is displayed on a radar chart centered on the number of times of chewing, the amount of food eaten, the number of items, the calorie intake, the meal time, the number of times of praise, and the like. As shown in FIG. 25, there are various display methods such as displaying the meal system 100 so that it can be compared before and after the start of use. The information before the start of use can be analyzed, for example, by acquiring information such as the number of times of chewing and the meal time without using video or audio in the meal system described in the first to fifth embodiments. Further, the radar chart may be displayed by superimposing the target value and the actual value so that the target value can be compared with the set target value. In addition, the provision of analysis results to users of the meal system 100 is not limited to the above, and the meal system includes ranking of results compared with the situation of other users, tendency of likes and dislikes based on the amount of food eaten, and nutritional intake. Various analysis results can be provided by using the information acquired from 100.

分析システム200は、ネットワークを介して外部システム400に接続されており、効果分析部230の処理で得られた情報を外部システム400に送信することができる。ここで、効果分析部230の処理で得られた情報に加えて、センシングデータ記憶部220に記憶されているデータや、目標値管理部240で管理されている目標値を、外部システム400に送信することができる。 The analysis system 200 is connected to the external system 400 via a network, and the information obtained by the processing of the effect analysis unit 230 can be transmitted to the external system 400. Here, in addition to the information obtained by the processing of the effect analysis unit 230, the data stored in the sensing data storage unit 220 and the target value managed by the target value management unit 240 are transmitted to the external system 400. can do.

外部システム400については、分析システム200を所有する企業とは異なる企業が所有しており、外部システム400を所有する企業は、分析システム200から送信された情報を活用して様々な事業(商品開発、需要予測、サービス提供など)を行うことができる。 The external system 400 is owned by a company different from the company that owns the analysis system 200, and the company that owns the external system 400 utilizes the information transmitted from the analysis system 200 to perform various businesses (product development). , Demand forecasting, service provision, etc.).

なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described, the embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

10:食卓、11:スクリーン、12:タッチパネルディスプレイ、21:プロジェクタ、22:RFIDリーダ、25:マイクアンプ、30:外部装置、31:映像判断部、32:分析部、33:メモリ、40:食器、41:容器、42:蓋、43:RFIDタグ、50:装着具、51:マイク、60:トレイ、61:ディスプレイ、63:磁気センサ、64:重量センサ、65:受信器、70:食事器具、80:食器、81:容器、81a:送信器、82:アタッチメント、82a:スタイラス部 10: Dining table, 11: Screen, 12: Touch panel display, 21: Projector, 22: RFID reader, 25: Microphone amplifier, 30: External device, 31: Video judgment unit, 32: Analysis unit, 33: Memory, 40: Tableware , 41: Container, 42: Lid, 43: RFID Tag, 50: Attacher, 51: Microphone, 60: Tray, 61: Display, 63: Magnetic Sensor, 64: Weight Sensor, 65: Receiver, 70: Dining Equipment , 80: Tableware, 81: Container, 81a: Transmitter, 82: Attachment, 82a: Stylus part

Claims (17)

食器又は食事者に関する食事状態を検出するセンサ部と、
前記食器を載せるための載置面を備えた食卓と、
前記センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、前記載置面に映像を表示させる制御部と、
を有することを特徴とする食事システム。
A sensor unit that detects the eating condition of tableware or the eater,
A dining table with a mounting surface for placing the tableware,
Based on the detection result of the sensor unit, when it is determined that the eating condition has changed, the control unit that displays an image on the above-mentioned mounting surface and the control unit.
A dietary system characterized by having.
前記食卓に設けられ、音を出力するスピーカを有し、
前記制御部は、前記センサ部の検出結果に基づいて、食事状態が変化したことを判別したとき、前記スピーカを駆動することを特徴とする請求項1に記載の食事システム。
It is provided on the dining table and has a speaker that outputs sound.
The meal system according to claim 1, wherein the control unit drives the speaker when it determines that the meal state has changed based on the detection result of the sensor unit.
前記制御部は、所定時間の間、前記載置面に映像を表示させることを特徴とする請求項1又は2に記載の食事システム。 The meal system according to claim 1 or 2, wherein the control unit displays an image on the above-mentioned placing surface for a predetermined time. 前記食卓の内部に設けられ、映像を投射するプロジェクタを有し、
前記載置面は、透光性を有し、前記プロジェクタからの映像が投射されるスクリーンで構成されていることを特徴とする請求項1から3のいずれか1つに記載の食事システム。
It has a projector that is installed inside the dining table and projects images.
The meal system according to any one of claims 1 to 3, wherein the mounting surface has translucency and is composed of a screen on which an image from the projector is projected.
前記載置面は、映像を表示するとともに、前記食事状態として、前記載置面に対する接触状態を検出するタッチパネルディスプレイで構成されていることを特徴とする請求項1から3のいずれか1つに記載の食事システム。 According to any one of claims 1 to 3, the above-mentioned mounting surface is configured by a touch panel display that displays an image and detects a contact state with respect to the above-mentioned mounting surface as the meal state. Described dietary system. 前記食器は、飲食物を収容する容器と、前記容器の開口を塞ぐ蓋とを有し、
前記センサ部は、
前記容器又は前記蓋に設けられた無線通信タグと、
前記無線通信タグと通信を行う無線通信リーダと、
を含むことを特徴とする請求項1から4のいずれか1つに記載の食事システム。
The tableware has a container for accommodating food and drink and a lid for closing the opening of the container.
The sensor unit
With the wireless communication tag provided on the container or the lid,
A wireless communication reader that communicates with the wireless communication tag,
The dietary system according to any one of claims 1 to 4, wherein the dietary system comprises.
前記センサ部は、食事者の咀嚼音を検出し、
前記制御部は、前記咀嚼音に応じて前記映像を表示させることを特徴とする請求項1から5のいずれか1つに記載の食事システム。
The sensor unit detects the chewing sound of the eater and
The meal system according to any one of claims 1 to 5, wherein the control unit displays the image in response to the chewing sound.
前記食器は、飲食物を収容する容器と、前記容器の開口を塞ぐ蓋とを有し、
前記容器は、
音を出力するスピーカと、
前記容器内の光状態を検出する光センサと、
前記光センサの検出結果に基づいて、前記容器から前記蓋が取り外されたことを判別したとき、前記スピーカを駆動する制御部と、
を有することを特徴とする請求項1から7のいずれか1つに記載の食事システム。
The tableware has a container for accommodating food and drink and a lid for closing the opening of the container.
The container is
A speaker that outputs sound and
An optical sensor that detects the light state inside the container,
When it is determined that the lid has been removed from the container based on the detection result of the optical sensor, the control unit that drives the speaker and the control unit
The dietary system according to any one of claims 1 to 7, wherein the dietary system is characterized by having.
前記食器は、飲食物を食事者の口に運ぶための食事器具を含み、
前記センサ部は、前記食事器具が前記食卓に載せられていることを検出することを特徴とする請求項1から8のいずれか1つに記載の食事システム。
The tableware includes eating utensils for carrying food and drink to the mouth of the eater.
The meal system according to any one of claims 1 to 8, wherein the sensor unit detects that the meal utensil is placed on the table.
食事状態のデータを取得するデータ取得部と、
前記データ取得部が取得した前記データに基づいて食事者の食事内容を特定し、特定した食事内容と食事内容に関する目標値を比較することにより食事内容に関する評価を行う分析部と、
を有することを特徴とする分析システム。
A data acquisition unit that acquires dietary status data,
An analysis unit that identifies the meal content of the eater based on the data acquired by the data acquisition unit and evaluates the meal content by comparing the specified meal content with the target value related to the meal content.
An analytical system characterized by having.
食事状態を検出するセンシング部と、前記食事状態に応じた処理を行うリアクション部と、を有する食事システムとネットワークを介して通信可能な分析システムであって、
前記食事システムから前記食事状態のデータを取得するデータ取得部と、
前記データ取得部が取得した前記データに基づいて特定した食事者の食事内容と食事内容に関する目標値を比較することにより、食事内容および前記リアクション部による処理の効果に関する評価を行う分析部と、
を有することを特徴とする分析システム。
An analysis system capable of communicating via a network with a meal system having a sensing unit that detects a meal state and a reaction unit that performs processing according to the meal state.
A data acquisition unit that acquires the data of the meal state from the meal system, and
An analysis unit that evaluates the meal content and the effect of processing by the reaction unit by comparing the meal content of the eater specified based on the data acquired by the data acquisition unit with the target value related to the meal content.
An analytical system characterized by having.
前記リアクション部における処理とは、食事状態に応じた音声または画像の出力であることを特徴とする請求項11に記載の分析システム。 The analysis system according to claim 11, wherein the processing in the reaction unit is an output of a voice or an image according to a meal state. 前記食事システムは請求項1から9のいずれか1つに記載の食事システムであることを特徴とする請求項11又は12に記載の分析システム。 The analysis system according to claim 11 or 12, wherein the meal system is the meal system according to any one of claims 1 to 9. 前記分析システムは、前記目標値を設定するための設定装置とネットワークを介して通信可能であり、
前記設定装置から取得した前記目標値を前記分析部による前記評価のために管理する管理部を有することを特徴とする請求項10から13のいずれか1つに記載の分析システム。
The analysis system can communicate with a setting device for setting the target value via a network.
The analysis system according to any one of claims 10 to 13, further comprising a management unit that manages the target value acquired from the setting device for the evaluation by the analysis unit.
前記分析システムは、前記分析部による前記評価の結果を前記設定装置に送信することを特徴とする請求項14に記載の分析システム。 The analysis system according to claim 14, wherein the analysis system transmits the result of the evaluation by the analysis unit to the setting device. 前記分析システムは、前記分析部による前記評価の結果を、前記評価を利用する外部システムに送信することを特徴とする請求項10から15のいずれか1つに記載の分析システム。 The analysis system according to any one of claims 10 to 15, wherein the analysis system transmits the result of the evaluation by the analysis unit to an external system that uses the evaluation. 前記食事内容は、食事時間、複数の飲食物の食べ方、食事量又は咀嚼回数であることを特徴とする請求項10から16のいずれか1つに記載の分析システム。 The analysis system according to any one of claims 10 to 16, wherein the meal content is a meal time, how to eat a plurality of foods and drinks, an amount of meals, or the number of times of chewing.
JP2020156268A 2019-09-17 2020-09-17 Meal system and analysis system Pending JP2021049337A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019167988 2019-09-17
JP2019167988 2019-09-17

Publications (1)

Publication Number Publication Date
JP2021049337A true JP2021049337A (en) 2021-04-01

Family

ID=75156653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156268A Pending JP2021049337A (en) 2019-09-17 2020-09-17 Meal system and analysis system

Country Status (1)

Country Link
JP (1) JP2021049337A (en)

Similar Documents

Publication Publication Date Title
US11903527B2 (en) Foodware system having visual-stimulating, sensing, and wireless-communication components, and method of using with a plurality of dining plates
US7201099B2 (en) Device and system for monitoring food
CN104602576B (en) Capsule memory
US20200278238A1 (en) Sensing pad
US11287305B2 (en) Meal lifecycle management method and system
CN105564866B (en) Reminding method and device
JP6890347B2 (en) A smart tray that measures food intake and weight change and a weight management system that includes it
CN108172273A (en) A kind of refrigerator food materials based on visitor recommend method
US9524409B1 (en) Food storage container tag system and method
JP2021049337A (en) Meal system and analysis system
JP2005253850A (en) Dish state management system
JP2014123214A (en) Electronic apparatus
JP6590005B2 (en) Electronic device and program
JP6277582B2 (en) Electronics
JP2009211434A (en) Method and system for calculating nutrient intake
JP2014123215A (en) Electronic apparatus
JP2011150585A (en) Menu creation system
CN107951387A (en) Information displaying method and device, drink maker
CN104199340A (en) Cooking voice interaction system and cooking voice interaction method
CN114354002A (en) Return prompting method and device for wireless temperature measurement probe, electronic equipment and medium
JP7155589B2 (en) dining table
CN107998673B (en) Toy device based on near field communication
KR101884752B1 (en) System for providing cooking time management service of meat and fish and Driving method thereof, Server for providing cooking management service
WO2014097671A1 (en) Electronic apparatus
CN217447458U (en) Toaster