JP7009342B2 - Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling - Google Patents

Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling Download PDF

Info

Publication number
JP7009342B2
JP7009342B2 JP2018181733A JP2018181733A JP7009342B2 JP 7009342 B2 JP7009342 B2 JP 7009342B2 JP 2018181733 A JP2018181733 A JP 2018181733A JP 2018181733 A JP2018181733 A JP 2018181733A JP 7009342 B2 JP7009342 B2 JP 7009342B2
Authority
JP
Japan
Prior art keywords
meal
amount
user
smile
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018181733A
Other languages
Japanese (ja)
Other versions
JP2020048917A (en
Inventor
大作 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018181733A priority Critical patent/JP7009342B2/en
Publication of JP2020048917A publication Critical patent/JP2020048917A/en
Application granted granted Critical
Publication of JP7009342B2 publication Critical patent/JP7009342B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本発明は、取得された生体信号から当該生体に係る情報を推定する技術に関する。 The present invention relates to a technique for estimating information related to a living body from an acquired biological signal.

近年、人間や動物の各種活動に起因する種々の生体信号をセンサによって検知し、信号処理して得られる生体データを様々な場面で利用する技術が開発されている。ここでセンサとしては、例えば、腕時計型脈拍センサ、イヤホン型脈拍センサや、ヘッドバンド型脳波センサ等が使用される。また、このようなセンサによって検知された生体信号は、例えばユーザに携帯されたスマートフォンによって処理・加工され、様々なアプリで利用されている。 In recent years, techniques have been developed in which various biological signals caused by various activities of humans and animals are detected by sensors and the biological data obtained by signal processing is used in various situations. Here, as the sensor, for example, a wristwatch type pulse sensor, an earphone type pulse sensor, a headband type brain wave sensor, or the like is used. Further, the biological signal detected by such a sensor is processed and processed by, for example, a smartphone carried by a user, and is used in various applications.

最近では特に、高齢者の増加や健康志向の高まりによって、得られた生体データから日常の食事の内容を分析し、より好ましい食事の態様を模索する試みも盛んに行われている。 Recently, in particular, due to the increase in the number of elderly people and the increase in health consciousness, attempts have been actively made to analyze the contents of daily meals from the obtained biological data and search for a more preferable dietary mode.

例えば、特許文献1は、飲食時に被験者が美味しいと感じた場合と、美味しくないと感じた場合とで、体表面用加速度検出部1で検出された加速度信号によるパワースペクトルに差異が生じるとの実験結果を開示している。ここで、それぞれのパワースペクトルに識別可能な特徴のあることも確認されており、具体的には、嚥下反応を計測して被験者の食感を評価する実験も実施されている。 For example, Patent Document 1 is an experiment in which the power spectrum due to the acceleration signal detected by the acceleration detection unit 1 for the body surface differs depending on whether the subject feels delicious when eating or drinking. The results are disclosed. Here, it has also been confirmed that each power spectrum has distinguishable characteristics, and specifically, an experiment has been conducted in which the swallowing response is measured to evaluate the texture of the subject.

また、特許文献2には、咀嚼時の人体動作を計測する計測装置50から咀嚼に関する咀嚼データを取得する取得部11と、取得した咀嚼データ及び所定の閾値データを比較する比較部12と、比較部12で比較した結果に基づいて、食事に関する提案情報を生成する生成部13とを備えた食事支援装置100が開示されている。ここで、この装置100によって、咀嚼指導を含む食事に関する提案も提供可能であるとしている。 Further, Patent Document 2 compares the acquisition unit 11 that acquires mastication data related to mastication from the measuring device 50 that measures the movement of the human body during mastication, and the comparison unit 12 that compares the acquired mastication data and predetermined threshold data. A meal support device 100 including a generation unit 13 that generates proposal information regarding meals based on the results of comparison in unit 12 is disclosed. Here, it is said that the device 100 can also provide a proposal regarding a meal including chewing instruction.

さらに、特許文献3には、生体情報測定装置100により測定された食事前後の生体情報と、当該食事前後の生体情報が得られた測定時刻とに基づいて、食事前後の生体情報の変化を分析する生体情報分析部22と、この分析結果に基づいて、食事に関するアドバイスを提供するアドバイス提供部23とを備えた食事アドバイス提供システムが開示されている。 Further, Patent Document 3 analyzes changes in biological information before and after a meal based on the biological information before and after a meal measured by the biological information measuring device 100 and the measurement time at which the biological information before and after the meal was obtained. A meal advice providing system including a biometric information analysis unit 22 and an advice providing unit 23 that provides advice on meals based on the analysis result is disclosed.

ここで、この食事アドバイス提供システムによれば、食事の撮影画像がなくても食事に関するアドバイスが提供可能になるとともに、食事前後の生体情報を用いて分析を行うことによって、食事前後での生体情報の変動と食事との因果関係を明確にし、天井にカメラの設置されていない一般的な場所で食事を行う場合であっても、生体情報の変動の分析結果に基づいて、適切な食事アドバイスが提供可能になるとしている。 Here, according to this meal advice providing system, it is possible to provide advice on meals even if there is no photographed image of meals, and by performing analysis using biological information before and after meals, biological information before and after meals can be provided. Clarify the causal relationship between changes in food and diet, and even when eating in a general place where a camera is not installed on the ceiling, appropriate dietary advice is given based on the analysis results of changes in biometric information. It is said that it will be available.

特開2017-086322号公報JP-A-2017-086322 特開2016-159096号公報Japanese Unexamined Patent Publication No. 2016-159096 特許第6285086号公報Japanese Patent No. 6285086

ここで、本願発明者は、取得された生体データから例えば食事に関するアドバイス情報を生成する際、特にユーザ(被験者)の感じる食事量の多少を勘案することが、より好適な情報を生成するのに重要であることを見出した。実際、ユーザが食事量を如何に捉えているかの情報は、現状の食事を評価する上でも非常に重要な1つの指標となるのである。 Here, when the inventor of the present application generates, for example, advice information on a meal from the acquired biological data, it is more preferable to take into consideration the amount of meal that the user (subject) feels, in particular, to generate more suitable information. I found it important. In fact, the information on how the user perceives the amount of food is one of the very important indicators in evaluating the current meal.

しかしながら、上述したような従来技術においては、例え生体情報から食事に関する情報を収集し、さらには食事アドバイスを行ったとしても、その中で、ユーザの感じる食事量の多少を勘案することは何らなされてこなかった。例えば、特許文献1に開示された技術では、嚥下の加速度を周波数領域で分析することで、ユーザの食事の好き嫌い、すなわち食事の嗜好を分析するにとどまっている。 However, in the above-mentioned conventional technique, even if information on meals is collected from biological information and further meal advice is given, no consideration is given to the amount of meals felt by the user. I didn't come. For example, in the technique disclosed in Patent Document 1, by analyzing the acceleration of swallowing in the frequency domain, the user's likes and dislikes of meals, that is, the tastes of meals are only analyzed.

また、特許文献2に開示された技術においても、咀嚼をセンシングし、予め規定したルールによって、咀嚼回数を増加させ、食べる順番や、固めの食材を選ぶ等、健康的な食事行動を推奨するアドバイスを行うにとどまっている。さらに、特許文献3は、生体情報と食事画像とを分析して学習し、食事画像がなくても食事に関するアドバイスを提供する方法を提案してはいるが、このアドバイスの生成において、生体情報(糖質指標)の変化の勾配の大きさや、変化量の大きさなどから早食い状態と食べ過ぎ状態とを推定している一方で、実際にユーザの感じる食事量の多少を勘案することはなされていない。 Further, also in the technique disclosed in Patent Document 2, advice for recommending healthy eating behavior such as sensing chewing, increasing the number of chewing times according to a predetermined rule, and selecting the order of eating and firm ingredients. Is just doing. Further, Patent Document 3 proposes a method of analyzing and learning biometric information and a meal image and providing advice on meals without a meal image, but in generating this advice, biometric information ( While estimating the state of eating fast and the state of overeating from the magnitude of the gradient of change in the sugar index) and the magnitude of the amount of change, it was not taken into consideration the amount of food actually felt by the user. Not.

そこで、本発明は、取得された生体信号に基づき、ユーザの食事の多少に係る情報を勘案して、当該ユーザの食事又は健康に関係する情報を提供することができる食事評価装置、システム、プログラム及び方法を提供することを目的とする。 Therefore, the present invention is a dietary evaluation device, system, or program capable of providing information related to the user's diet or health based on the acquired biological signal, taking into consideration the information related to the amount of the user's diet. And to provide methods.

本発明によれば、ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有する食事評価装置が提供される。
According to the present invention, it is a meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the user's head, which is a biological signal information determining means for determining an amount related to chewing and an amount related to a smile of the user.
A meal amount determination means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
A dietary evaluation device is provided having a feedback means for generating or selectively providing information related to the user's diet or health based on the determined value of the amount of the diet.

この本発明による食事評価装置については、当該咀嚼に係る量及び笑みに係る量に対し、少なくとも食事の多少に係る値についての当該ユーザによる申告情報を紐づけて記録した食事ログを複数用いて、当該学習済みの食事量推定モデルを構築する食事量推定モデル構築手段を更に有することも好ましい。 For the meal evaluation device according to the present invention, a plurality of meal logs recorded by associating the user-declared information about at least the value related to the amount of meal with respect to the amount related to chewing and the amount related to smile are used. Therefore, it is also preferable to further have a meal amount estimation model construction means for constructing the learned meal amount estimation model.

また、本発明による食事評価装置における食事量決定手段は、食事時間にも基づいて、食事の多少に係る値を決定することも好ましい。 Further, it is also preferable that the meal amount determining means in the meal evaluation device according to the present invention determines a value related to the amount of meal based on the meal time.

さらに、本発明による食事評価装置の一実施形態として、本食事評価装置は、当該咀嚼に係る量及び/又は当該笑みに係る量に基づき、学習済みの嗜好推定モデルを用いて、食事の嗜好に係る値を決定する食事嗜好決定手段を更に有し、
フィードバック手段は、決定された食事の嗜好に係る値にも基づいて、当該ユーザの食事又は健康に関係する情報を生成又は選択することも好ましい。
Further, as an embodiment of the dietary evaluation device according to the present invention, the present dietary evaluation device uses a learned preference estimation model based on the amount related to the chewing and / or the amount related to the smile to determine the taste of the meal. Further possessing a means for determining a dietary preference to determine such a value,
It is also preferred that the feedback means generate or select information related to the user's diet or health based on the determined dietary preference values.

また、上記の実施形態において、本食事評価装置は、当該咀嚼に係る量及び/又は笑みに係る量に対し、少なくとも食事の嗜好に係る値についての当該ユーザによる申告情報を紐づけて記録した食事ログを複数用いて、当該学習済みの嗜好推定モデルを構築する嗜好推定モデル構築手段を更に有することも好ましい。 Further, in the above embodiment, the present meal evaluation device records the amount related to chewing and / or the amount related to smile by associating at least the value declared by the user with respect to the value related to meal preference. It is also preferable to further have a preference estimation model construction means for constructing the trained preference estimation model by using a plurality of logs.

さらに、本発明による食事評価装置のフィードバック手段は、少なくとも1つの過去の時点に係る当該食事ログにも基づいて、当該ユーザの食事又は健康に関係する情報を生成又は選択することも好ましい。 Further, it is also preferable that the feedback means of the dietary evaluation device according to the present invention generates or selects information related to the diet or health of the user based on the dietary log relating to at least one past time point.

また、本発明に係るフィードバック手段についての一実施形態として、フィードバック手段は、当該咀嚼に係る量から決定される咀嚼における回数、ペース及び時間間隔のうちの少なくとも1つにも基づいて、当該少なくとも1つと当該食事の多少に係る値とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、当該ユーザの食事又は健康に関係する情報とすることも好ましい。 Further, as an embodiment of the feedback means according to the present invention, the feedback means is based on at least one of the number of times, the pace and the time interval in chewing determined from the amount of the chewing. It is also preferable to select at least one of the music or audio contents preset according to the conditions satisfied by the value related to the amount of the meal and the information related to the meal or health of the user.

さらに、本発明によれば、ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、
フィードバック手段は、当該笑みに係る量から決定される笑みの回数及び/又は時間にも基づいて、当該笑みの回数及び/又は時間と当該食事の多少に係る値とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、当該ユーザの食事又は健康に関係する情報とす
を特徴とする食事評価装置が提供される
Further, according to the present invention, it is a meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
Have,
The feedback means is preset according to the condition that the number and / or time of the smile and the value related to the amount of the meal are satisfied, based on the number and / or time of the smile determined from the amount of the smile. Select at least one of the music or audio content and use it as information related to the user's diet or health.
A meal evaluation device characterized by this is provided .

また、本発明に係るフィードバック手段についての更なる他の実施形態として、フィードバック手段は、取得されたユーザに係る位置情報及び/又は食事に係る音声情報にも基づいて、当該ユーザの食事又は健康に関係する情報を、生成又は選択することも好ましい。 Further, as a further other embodiment of the feedback means according to the present invention, the feedback means may be applied to the diet or health of the user based on the acquired position information and / or voice information related to the meal. It is also preferred to generate or select relevant information.

さらに、本発明に係る生体信号情報決定手段についての一実施形態として、生体信号情報決定手段は、生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、当該咀嚼に係る量を決定することも好ましい。 Further, as an embodiment of the biometric signal information determining means according to the present invention, the biometric signal information determining means generates acceleration component data of an input signal that may include a biometric signal, and in a predetermined time interval in the acceleration component data. It is also preferable to calculate a representative value related to the degree of bias of the data and determine the amount related to the chewing based on the periodicity of the representative value.

また、本発明によれば、ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、上記の生体信号情報決定手段は、
生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、生体の繰り返し運動に起因する周期的生体信号の発生を判定し、さらに、
当該入力信号に対し多重解像度解析処理を実施し、多重解像度解析処理後の信号振幅の時系列データが所定のヒステリシスを示す時間区間を、何らかの生体信号が発生した信号発生時間区間に決定し、当該信号発生時間区間において、当該周期的生体信号が発生していないと判定された際、当該入力信号の平均パワー周波数を算出し、当該平均パワー周波数の高さに基づいて、当該笑みに係る量を決定す
を特徴とする食事評価装置が提供される
Further, according to the present invention, it is a meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
The above-mentioned biological signal information determining means has
Acceleration component data of an input signal that can include biological signals is generated, a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data is calculated, and the living body is repeated based on the periodicity of the representative value. Determine the generation of periodic biological signals caused by exercise, and further
Multiple resolution analysis processing is performed on the input signal, and the time interval in which the time-series data of the signal amplitude after the multiple resolution analysis processing shows a predetermined hysteresis is determined as the signal generation time interval in which some biological signal is generated. When it is determined that the periodic biometric signal is not generated in the signal generation time section, the average power frequency of the input signal is calculated, and the amount related to the smile is calculated based on the height of the average power frequency. To decide
A meal evaluation device characterized by this is provided .

また、本発明によれば、ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、上記の生体信号情報決定手段は、
生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、生体の繰り返し運動に起因する周期的生体信号の発生を判定し、さらに、
当該入力信号に対し多重解像度解析処理を実施し、多重解像度解析処理後の信号振幅の時系列データが所定のヒステリシスを示す時間区間を、何らかの生体信号が発生した信号発生時間区間に決定し、当該信号発生時間区間において、当該周期的生体信号が発生していないと判定された際、当該入力信号の標準偏差と平均パワー周波数とを含む特徴量を算出し、当該特徴量について、基準状態に該当する入力信号の当該特徴量によって設定された単位空間から離隔した度合いである離隔度合いを算出し、算出された当該離隔度合いに基づいて、当該笑みに係る量を決定す
を特徴とする食事評価装置が提供される
Further, according to the present invention, it is a meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
The above-mentioned biological signal information determining means has
Acceleration component data of an input signal that can include biological signals is generated, a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data is calculated, and the living body is repeated based on the periodicity of the representative value. Determine the generation of periodic biological signals caused by exercise, and further
Multiple resolution analysis processing is performed on the input signal, and the time interval in which the time-series data of the signal amplitude after the multiple resolution analysis processing shows a predetermined hysteresis is determined as the signal generation time interval in which some biological signal is generated. When it is determined that the periodic biometric signal is not generated in the signal generation time section, the feature amount including the standard deviation and the average power frequency of the input signal is calculated, and the feature amount corresponds to the reference state. The degree of separation, which is the degree of separation from the unit space set by the feature amount of the input signal to be input, is calculated, and the amount related to the smile is determined based on the calculated degree of separation.
A meal evaluation device characterized by this is provided .

さらに、本発明に係る生体信号情報決定手段についての更なる他の実施形態として、生体信号情報決定手段は、
当該ユーザの食事に係る画像情報を取得し、当該画像情報に基づき、学習済みの画像食事種別推定モデル及び/又は画像食事量推定モデルを用いて、当該ユーザの食事における食事種別情報及び/又は食事の多少に係る量を決定し、
決定した食事種別情報及び/又は食事の多少に係る量に基づき、過去の当該咀嚼に係る量及び/又は笑みに係る量によって学習を行い構築した学習済みの生体信号情報推定モデルを用いて、当該ユーザの咀嚼に係る量及び/又は笑みに係る量を決定することも好ましい。
Further, as yet another embodiment of the biological signal information determining means according to the present invention, the biological signal information determining means is used.
Image information related to the user's meal is acquired, and based on the image information, the learned image meal type estimation model and / or image meal amount estimation model is used to provide meal type information and / or meal in the user's meal. Determine the amount related to the amount of
Based on the determined meal type information and / or the amount related to the amount of meal, the learned biological signal information estimation model constructed by learning based on the amount related to the past chewing and / or the amount related to the smile is used. It is also preferable to determine the amount of chewing and / or the amount of smile of the user.

また、本発明による食事評価装置において、当該生体信号は具体的に、ユーザの頭部に付されたデバイスであって、リファレンス用電極が左(又は右)の耳介周辺から頬近傍の1つの皮膚位置に接し、検出用電極が右(又は左)の耳介周辺から頬近傍の1つの皮膚位置に接するような電極構成を有するデバイスによって取得された信号であることも好ましい。 Further, in the dietary evaluation device according to the present invention, the biometric signal is specifically a device attached to the user's head, and the reference electrode is one from around the left (or right) auricle to the vicinity of the cheek. It is also preferred that the signal is obtained by a device having an electrode configuration that is in contact with the skin position and the detection electrode is in contact with one skin position near the cheek from around the right (or left) pinna.

本発明によれば、また、ユーザに係る端末と、当該端末と通信接続された、ユーザの食事を評価する食事評価サーバとを有する食事評価システムであって、
当該端末は、当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段を有し、
前記食事評価サーバは、
当該端末から当該ユーザの食事に係る画像情報を取得し、当該画像情報に基づき、学習済みの画像食事種別推定モデル及び/又は画像食事量推定モデルを用いて、当該ユーザの食事における食事種別情報及び/又は食事の多少に係る量を決定し、さらに、決定した食事種別情報及び/又は食事の多少に係る量に基づき、当該端末から取得した過去の咀嚼に係る量及び笑みに係る量によって学習を行い構築した学習済みの生体信号情報推定モデルを用いて、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する画像情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と
を有し、
当該端末は、前記食事評価サーバから当該食事の多少に係る値を取得し、当該食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段を更に有する
ことを特徴とする食事評価システムが提供される。
According to the present invention, there is also a meal evaluation system including a terminal related to the user and a meal evaluation server for evaluating the user's meal, which is connected to the terminal by communication.
The terminal has a biological signal information determining means that is an amount determined from a biological signal related to the head of the user, and determines an amount related to chewing and an amount related to a smile of the user.
The meal evaluation server is
Image information related to the user's meal is acquired from the terminal, and based on the image information, the trained image meal type estimation model and / or the image meal amount estimation model is used to obtain the meal type information and / or meal type information in the user's meal. / Or determine the amount of food, and based on the determined meal type information and / or the amount of food, the amount of past chewing and the amount of smile obtained from the terminal. Using the trained biometric signal information estimation model constructed by learning, an image information determining means for determining the amount of chewing and the amount of smiling face of the user, and
It has a meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
The terminal acquires a value related to the amount of the meal from the meal evaluation server, and generates or selects and provides information related to the user's meal or health based on the value related to the amount of the meal. A dietary evaluation system characterized by further possession of means is provided.

本発明によれば、さらに、ユーザの食事を評価する装置に搭載されたコンピュータを機能させるプログラムであって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
してコンピュータを機能させる食事評価プログラムが提供される。
According to the present invention, it is a program for operating a computer mounted on a device for evaluating a user's meal.
An amount determined from a biological signal related to the user's head, which is a biological signal information determining means for determining an amount related to chewing and an amount related to a smile of the user.
A meal amount determination means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
A dietary evaluation program is provided that functions the computer as a feedback means to generate or select and provide information related to the user's diet or health based on the determined value of the amount of the diet.

本発明によれば、さらにまた、ユーザの食事を評価する装置に搭載されたコンピュータにおける食事評価方法であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定するステップと、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定するステップと、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するステップと
を有する食事評価方法が提供される。
According to the present invention, further, it is a meal evaluation method in a computer mounted on a device for evaluating a user's meal.
An amount determined from a biological signal related to the user's head, and a step of determining an amount related to chewing and an amount related to smile of the user.
Based on the amount related to the chewing and the amount related to the smile , the step of determining the value related to the amount of the meal using the learned meal amount estimation model, and
A dietary evaluation method is provided that comprises a step of generating or selecting and providing information related to the diet or health of the user based on the determined value of the amount of the diet.

本発明の食事評価装置、システム、プログラム及び方法によれば、取得された生体信号に基づき、ユーザの食事の多少に係る情報を勘案して、当該ユーザの食事又は健康に関係する情報を提供することができる。 According to the dietary evaluation device, system, program and method of the present invention, based on the acquired biological signal, information related to the user's diet or health is provided in consideration of the information related to the amount of the user's diet. be able to.

本発明による食事評価装置を含む食事評価システムの一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment of the meal evaluation system including the meal evaluation apparatus by this invention. 本発明に係る生体信号取得装置の他の実施形態を示す模式図である。It is a schematic diagram which shows the other embodiment of the biological signal acquisition apparatus which concerns on this invention. 処理された生体信号の時系列データにおけるヒステリシスを利用した生体信号計数処理の一実施例を示すグラフである。It is a graph which shows an example of the biological signal counting process using the hysteresis in the time series data of the processed biological signal. 本発明による食事評価方法の一実施形態を概略的に説明するための模式図である。It is a schematic diagram for schematically explaining one Embodiment of the meal evaluation method by this invention. 本発明による食事評価システムの他の実施形態を示す模式図である。It is a schematic diagram which shows the other embodiment of the meal evaluation system by this invention. 本発明による食事評価方法の他の実施形態を概略的に説明するための模式図である。It is a schematic diagram for schematically explaining another embodiment of the meal evaluation method by this invention.

以下では、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[食事評価システム]
図1は、本発明による食事評価装置を含む食事評価システムの一実施形態を示す模式図である。
[Meal evaluation system]
FIG. 1 is a schematic diagram showing an embodiment of a meal evaluation system including a meal evaluation device according to the present invention.

図1に示した本実施形態の食事評価システムは、
(ア)生体信号取得装置としての筋電センサ付メガネ2と、
(イ)(筋電センサ付メガネ2を装着した)ユーザの食事を評価する、本発明による食事評価装置としての携帯端末1と
を備えている。ここで、これら両者はそれぞれ、例えばBluetooth(登録商標)や、Wi-Fi(登録商標)又はその他の近距離無線通信規格に準拠した無線通信手段である信号インタフェース213及び信号インタフェース101を備えており、これにより互いに通信接続されている。なお変更態様として、両者が有線によって通信接続されていてもよい。
The meal evaluation system of the present embodiment shown in FIG. 1 is
(A) Glasses 2 with an EMG sensor as a biological signal acquisition device,
(A) A mobile terminal 1 as a meal evaluation device according to the present invention for evaluating a user's meal (wearing glasses 2 with a myoelectric sensor) is provided. Here, both of them are provided with a signal interface 213 and a signal interface 101, which are wireless communication means compliant with, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark) or other short-range wireless communication standards, respectively. , This allows them to communicate with each other. As a modification, both may be connected by wire.

最初に、上記(ア)の筋電センサ付メガネ2は、生体(例えば人間であるユーザ)の頭部に取り付けて、生体信号を取得可能なメガネ型の装置である。この装置で取得される生体信号は、本実施形態において、顔面内部位の動き又は表情に係る動きに起因して発生する電気信号としての筋電信号となっている。また、取得される生体信号には、このような動きによって発生する、電極ズレに起因する(ノイズ)信号等も混入し得る。 First, the glasses 2 with an myoelectric sensor according to (a) above are glasses-type devices that can be attached to the head of a living body (for example, a human user) to acquire a biological signal. In the present embodiment, the biological signal acquired by this device is a myoelectric signal as an electric signal generated due to the movement of a portion in the face or the movement related to a facial expression. Further, the acquired biological signal may be mixed with a (noise) signal caused by electrode misalignment, which is generated by such a movement.

ここで、検出対象となる顔面内部位の動き又は表情に係る動きとして、本実施形態では特に「咀嚼」に着目し、繰り返し動作に起因するが故に時間的周期性を有するような周期的生体信号である「咀嚼」に係る筋電信号を、効率良く検出することを特徴としている。またさらに、口角上げとして捉えられる「笑み」に係る筋電信号も重要な検出対象としている。 Here, as the movement of the facial part to be detected or the movement related to the facial expression, in the present embodiment, particular attention is paid to "chewing", and a periodic biological signal having a temporal periodicity because it is caused by repeated movements. It is characterized by efficiently detecting the myoelectric signal related to "chewing". Furthermore, the myoelectric signal related to "smile", which is regarded as raising the corner of the mouth, is also an important detection target.

同じく図1において、筋電センサ付メガネ2は具体的に、
(a)生体信号を取り込み処理する部分である信号処理ボック21を備えた、装置本体部としてのフレーム部と、
(b)頭部の皮膚に接触する位置であってフレーム部の重量の少なくとも一部を受け止め可能な位置に配された、生体信号を受信するための電極部としてのプラス電極パッド23及びマイナス電極パッド24と、
(c)プラス電極パッド23及びマイナス電極パッド24を介して受信された生体信号を信号処理ボックス21へ伝えるための導電路を備えた弾性支持部と、
(d)鼻の上部近傍に接触する位置に配され、生体信号受信の際のグランド(GND)電極又はノイズキャンセル用電極を備えた鼻パッド電極部25と
を有している。なお、上記(d)のノイズキャンセル用電極は、商用電源等に起因するコモンモードノイズを低減させるDRL(Driven Right Leg)電極であってもよい。
Similarly, in FIG. 1, the glasses 2 with an EMG sensor are specifically shown.
(A) A frame portion as a device main body portion provided with a signal processing box 21 which is a portion for capturing and processing biological signals, and a frame portion.
(B) A positive electrode pad 23 and a negative electrode as an electrode portion for receiving a biological signal, which are arranged at a position in contact with the skin of the head and capable of receiving at least a part of the weight of the frame portion. Pad 24 and
(C) An elastic support portion provided with a conductive path for transmitting a biological signal received via the positive electrode pad 23 and the negative electrode pad 24 to the signal processing box 21.
(D) It is arranged at a position in contact with the vicinity of the upper part of the nose, and has a nose pad electrode portion 25 provided with a ground (GND) electrode or a noise canceling electrode at the time of receiving a biological signal. The noise canceling electrode (d) may be a DRL (Driven Right Leg) electrode that reduces common mode noise caused by a commercial power source or the like.

また、上記(b)のプラス電極パッド23は、生体信号受信の際の検出電極又はプラス電極として機能し、一方、マイナス電極パッド24は、生体信号受信の際のリファレンス電極又はマイナス電極として機能する。生体信号は、これらプラス電極パッド23とマイナス電極パッド24との間の電位差として検出・取得されることになる。 Further, the positive electrode pad 23 of the above (b) functions as a detection electrode or a positive electrode when receiving a biological signal, while the negative electrode pad 24 functions as a reference electrode or a negative electrode when receiving a biological signal. .. The biological signal is detected and acquired as a potential difference between the positive electrode pad 23 and the negative electrode pad 24.

このように、筋電センサ付メガネ2では、プラス電極パッド23及びマイナス電極パッド24といった電極部が、生体信号を受信する手段としてだけではなく、装置本体部を支持する手段としても機能している。また、弾性支持部は、弾性をもってこれら電極部と装置本体部とを接続している。その結果、例えば装着された頭部が大きく動いたとしても、これらの電極部を、弾性支持部という弾性部位を介して伝わる装置本体部の重量をもって、頭部の皮膚の所定位置近傍に安定して接触させ続けることが可能となる。 As described above, in the glasses 2 with the myoelectric sensor, the electrode portions such as the positive electrode pad 23 and the negative electrode pad 24 function not only as a means for receiving the biological signal but also as a means for supporting the device main body portion. .. Further, the elastic support portion elastically connects these electrode portions and the device main body portion. As a result, for example, even if the mounted head moves significantly, these electrode portions are stabilized in the vicinity of a predetermined position on the skin of the head with the weight of the device main body transmitted through the elastic portion called the elastic support portion. It becomes possible to keep in contact with each other.

ここで、1つの装着例を説明する。人間の頬骨は顔の正面から見ると横に張り出しているが、プラス電極パッド23及びマイナス電極パッド24を、例えばこの頬骨の最も幅広の箇所より若干上方の皮膚に当接させれば、左右の「電極部」の間隔が頬骨の最大幅よりも狭くなっていて頬骨上部の広がった部分に引っ掛かることになるので、これにより、筋電センサ付メガネ2が安定して支持される。 Here, one mounting example will be described. The human cheekbones project laterally when viewed from the front of the face, but if the positive electrode pad 23 and the negative electrode pad 24 are brought into contact with the skin slightly above the widest part of the cheekbone, for example, the left and right sides Since the distance between the "electrode portions" is narrower than the maximum width of the cheekbone and is caught in the widened portion of the upper part of the cheekbone, the glasses 2 with the myoelectric sensor are stably supported.

また、筋電センサ付メガネ2は、図示していないが、電極部から信号処理ボックス21へ生体信号を取り込むための導電路を備えており、電極部で受信された生体信号を、信号処理ボックス21へ安定して確実に取り込むことを可能にする。すなわち、導電路は、左右の信号処理ボックス21と各電極部との間をつなぐ安定した電気的伝送路として機能する。 Further, although the glasses 2 with a myoelectric sensor are not shown, the glasses 2 are provided with a conductive path for taking a biological signal from the electrode portion to the signal processing box 21, and the biological signal received by the electrode portion is used in the signal processing box. It enables stable and reliable uptake to 21. That is, the conductive path functions as a stable electrical transmission path connecting the left and right signal processing boxes 21 and each electrode portion.

なお、変更態様として、GND電極又はノイズキャンセル用電極としての機能を、メガネ2のモダン部に持たせることもできる。この場合、鼻パッド電極部25を省略し、鼻パッドレスとすることも可能となる。また、更なる変更態様として、このモダン部の電極と鼻パッド電極部25とを電気的に導通させ、それら複数の電極をGND電極として機能させてもよい。 As a modification, the modern part of the glasses 2 may have a function as a GND electrode or a noise canceling electrode. In this case, the nasal pad electrode portion 25 can be omitted to make the nasal padless. Further, as a further modification, the electrodes of the modern portion and the nasal pad electrode portion 25 may be electrically conductive, and the plurality of electrodes may function as GND electrodes.

さらに当然ではあるが、プラス電極パッド23及びマイナス電極パッド24がそれぞれ左のテンプル部分及び右のテンプル部分に接続する入れ替わった形であっても構わない。いずれにしても、プラス電極パッド23及びマイナス電極パッド24を左右に分けて配置することによって、正中線に対し左右それぞれに存在する同種の筋肉の活動を捉えることができる。 Further, as a matter of course, the positive electrode pad 23 and the negative electrode pad 24 may be in an interchangeable shape connected to the left temple portion and the right temple portion, respectively. In any case, by arranging the positive electrode pad 23 and the negative electrode pad 24 separately on the left and right, it is possible to capture the activity of the same kind of muscles existing on the left and right with respect to the median plane.

例えば、本実施形態において特に着目している「咀嚼」に係る筋肉活動や、顔表情「笑み」を作る筋肉活動は一般に、左右のいずれか一方ではなく両方で同時に発生する。そのため、1チャンネルを構成する1組の電極を左右のいずれか一方のみであって観測対象の筋肉直上に例えば数cm隔てて配置するよりも、1組をなす電極の各々を左右に分けて配置する方が、左右の筋肉活動の全体を捉えることになるので結局、より安定した大きな筋電信号を得ることができるのである。 For example, the muscle activity related to "chewing" and the muscle activity that creates a facial expression "smile", which are of particular interest in the present embodiment, generally occur simultaneously on both sides, not on either side. Therefore, rather than arranging one set of electrodes constituting one channel on either the left or right side and directly above the muscle to be observed, for example, separated by several centimeters, each set of electrodes is arranged separately on the left and right sides. In the end, it is possible to obtain a more stable and large myoelectric signal because it captures the entire left and right muscle activity.

また、このように左右の電極を離隔させておくことにより、「咀嚼」(口の開閉)に起因する筋電信号や、「咀嚼」に伴って生じる皮膚表面の凹凸を原因とする皮膚と電極との間の接触抵抗の変化に起因する信号をより確実に捉えることも可能となるのである。 In addition, by separating the left and right electrodes in this way, the skin and electrodes caused by the myoelectric signal caused by "chewing" (opening and closing of the mouth) and the unevenness of the skin surface caused by "chewing". It is also possible to more reliably capture the signal caused by the change in contact resistance between the two.

さらに、弾性支持部は、本実施形態において2つ設けられており、それぞれプラス電極パッド23及びマイナス電極パッド24を、こめかみより下側の皮膚の位置であって、顔を正面から見た際の頬骨における最も幅広の個所より少し上の皮膚の位置へ弾性をもって押し当て(当接させ)、これにより筋電センサ付メガネ2を支持する支持構造として機能している。 Further, two elastic support portions are provided in the present embodiment, and the positive electrode pad 23 and the negative electrode pad 24 are located at the positions of the skin below the temples, respectively, when the face is viewed from the front. It elastically presses (contacts) the skin slightly above the widest part of the cheekbone, thereby functioning as a support structure for supporting the glasses 2 with an myoelectric sensor.

また、プラス電極パッド23及びマイナス電極パッド24のいずれも、頬上部からこめかみを介し耳の付け根までの範囲内のいずれかの位置で皮膚に接触することができるように、この弾性支持部のフレーム部に対する位置が調整されている。 Further, both the positive electrode pad 23 and the negative electrode pad 24 can come into contact with the skin at any position within the range from the upper cheek to the base of the ear through the temple, and the frame of the elastic support portion. The position with respect to the part is adjusted.

同じく図1に示すように、右側のテンプル部分に配置された信号処理ボックス21は、処理部駆動用の電池を内蔵しており、左側のテンプル部分に配置された信号処理ボックス21へこの電池の電力を供給する。これら左右の信号処理ボックス21のそれぞれの重量は略(ほぼ)同等に設定されていることも好ましい。これにより、筋電センサ付メガネ2の重量における左右のバランスをとることができ、偏りのない良好な装着感を実現することができる。 Similarly, as shown in FIG. 1, the signal processing box 21 arranged in the temple portion on the right side has a built-in battery for driving the processing unit, and the signal processing box 21 arranged in the temple portion on the left side has a battery of this battery. Supply power. It is also preferable that the weights of the left and right signal processing boxes 21 are set to be substantially (almost) equal. As a result, it is possible to balance the weight of the glasses 2 with the myoelectric sensor on the left and right, and it is possible to realize a good wearing feeling without bias.

ここで、左側のテンプル部分に配置された信号処理ボックス21は、信号変換部211と、前フィルタ処理部212と、信号インタフェース213とを有している。このうち、信号変換部211は、筋電センサとして、
(a)プラス電極パッド23と電気的に接続されたプラス(検出用)電極と、
(b)マイナス電極パッド24と電気的に接続されたマイナス(リファレンス)電極と
の電位差の交流成分を、
(c)鼻パッド電極25と電気的に接続されたGND電極
におけるGND電位との差動増幅によって増幅し、このアナログの生体信号を一定のサンプリング周波数でデジタル化する。ちなみに、この差動増幅は、商用電源等に起因するコモンモードノイズを軽減するためのDRL回路をもって実施されてもよい。
Here, the signal processing box 21 arranged in the temple portion on the left side has a signal conversion unit 211, a pre-filter processing unit 212, and a signal interface 213. Of these, the signal conversion unit 211 serves as a myoelectric sensor.
(A) A positive (detection) electrode electrically connected to the positive electrode pad 23,
(B) The AC component of the potential difference between the negative electrode pad 24 and the electrically connected negative (reference) electrode.
(C) Amplification is performed by differential amplification between the nose pad electrode 25 and the GND potential of the electrically connected GND electrode, and this analog biological signal is digitized at a constant sampling frequency. Incidentally, this differential amplification may be carried out with a DRL circuit for reducing common mode noise caused by a commercial power source or the like.

これにより、例えば、プラスマイナス0.1~数百μVの範囲の皮膚電位検出が可能となる。また、このデジタル化の条件として、サンプリング周波数が500Hz以上であって量子化10bit以上でアナログ/デジタル(A/D)変換を行うことも好ましい。なお、このような回路構成は、例えばNeurosky社製のTGAM1を利用して実現可能となっている。 This makes it possible to detect the skin potential in the range of plus or minus 0.1 to several hundred μV, for example. Further, as a condition for this digitization, it is also preferable to perform analog / digital (A / D) conversion at a sampling frequency of 500 Hz or higher and a quantization frequency of 10 bits or higher. It should be noted that such a circuit configuration can be realized by using, for example, TGAM1 manufactured by Neurosky.

また、前フィルタ処理部212は、ノッチフィルタ機能及びローパスフィルタ(LPF)機能を有している。このうち、ノッチフィルタ機能は、加速度成分データを生成する前の入力信号に対し、(混入する場合の少なくない)商用電源に係る周期的ノイズを低減する帯域除去フィルタ処理を実施する。ちなみに、上述したNeurosky社製のTGAM1は、商用電源由来のノイズを軽減するノッチフィルタを搭載しており、ノッチフィルタ機能としてこれを利用することができる。 Further, the pre-filter processing unit 212 has a notch filter function and a low-pass filter (LPF) function. Of these, the notch filter function performs band-stop filter processing that reduces periodic noise related to the commercial power supply (which is often mixed) with respect to the input signal before the acceleration component data is generated. Incidentally, the above-mentioned TGAM1 manufactured by Neurosky is equipped with a notch filter that reduces noise derived from a commercial power source, and this can be used as a notch filter function.

一方、LPF機能は、帯域除去フィルタ処理の施された入力信号に対し、高周波ノイズを除去するLPF処理を実施する。具体的には、入力信号に対し高域通過フィルタ(HPF,High-Pass Filter)処理を実施し、その結果を元の入力信号から差し引くことによって、LPF処理としてもよい。ここで、HPFとして、例えばDCブロッカ(DC Blocker)を使用することができる。 On the other hand, the LPF function performs LPF processing for removing high frequency noise from the input signal subjected to the band removal filter processing. Specifically, LPF processing may be performed by performing high-pass filter (HPF, High-Pass Filter) processing on the input signal and subtracting the result from the original input signal. Here, for example, a DC blocker can be used as the HPF.

このDCブロッカは、入力信号から直流バイアス成分(超低周波数成分)を除去し、交流成分を取り出すためのフィルタであり、次式
(1) y[n]=x[n]-x[n-1]+r*y[n-1]
のような差分方程式の下で機能する。ここで、nはサンプル位置(サンプル・インデックス)であり、x[n]及びy[n]はそれぞれ、サンプル位置nの入力信号及び出力信号である。また、係数rは0~1の値をとり、r=0の場合、このフィルタは次に説明する差分フィルタと等価になる。ちなみに、このLPF処理を施された後であっても、筋電信号としての交流信号は残留しているのである。
This DC blocker is a filter for removing the DC bias component (ultra-low frequency component) from the input signal and extracting the AC component. The following equation (1) y [n] = x [n] -x [n- 1] + r * y [n-1]
It works under the difference equation like. Here, n is a sample position (sample index), and x [n] and y [n] are an input signal and an output signal at the sample position n, respectively. Further, the coefficient r takes a value of 0 to 1, and when r = 0, this filter is equivalent to the difference filter described below. By the way, even after this LPF processing is performed, the AC signal as a myoelectric signal remains.

ちなみに、以上に説明した前フィルタ処理部212におけるLPF機能、又はノッチフィルタ機能及びLPF機能の両方が、携帯端末1で実施されてもよい。しかしながら本実施形態のようにLPF処理までの前処理を筋電センサ付メガネ2側で施すことによって、携帯端末1へ送信する信号の容量を抑え、良好な通信を確保することができる。また、これらの電池や信号前処理機能を、ボックスにではなくフレーム部に内蔵させ、筋電センサ付メガネ2全体を、外観上通常のメガネと大きく変わらないデザインにすることも可能である。 Incidentally, both the LPF function, the notch filter function, and the LPF function in the pre-filter processing unit 212 described above may be performed in the mobile terminal 1. However, by performing the preprocessing up to the LPF processing on the side of the glasses 2 with the myoelectric sensor as in the present embodiment, the capacity of the signal transmitted to the mobile terminal 1 can be suppressed and good communication can be ensured. Further, it is also possible to incorporate these batteries and the signal preprocessing function into the frame portion instead of the box, so that the entire glasses 2 with the myoelectric sensor have a design that is not significantly different from ordinary glasses in appearance.

同じく図1によれば、上記(イ)の食事評価装置としての携帯端末1は、
(A)ユーザの頭部に係る生体信号、本実施形態では筋電センサ付メガネ2で取得された筋電信号から決定される量であって、ユーザの「咀嚼に係る量」及び「笑みに係る量」のいずれか一方又は両方を決定する生体信号情報決定部111と、
(B)「咀嚼に係る量」及び「笑みに係る量」のいずれか一方又は両方に基づき、学習済みの「食事量推定モデル」を用いて、「食事の多少に係る値」を決定する食事量決定部112と、
(C)決定された「食事の多少に係る値」に基づき、ユーザの「食事又は健康に関係する情報」を、生成又は選択して提供するフィードバック部114と
を有している。
Similarly, according to FIG. 1, the mobile terminal 1 as the meal evaluation device of (a) above is
(A) An amount determined from a biological signal related to the user's head, and in the present embodiment, a myoelectric signal acquired by the glasses 2 with a myoelectric sensor, and is an amount determined from the user's "amount related to chewing" and "smiling". The biological signal information determination unit 111, which determines one or both of the "amounts",
(B) A meal that determines a "value related to the amount of meal" using a learned "meal amount estimation model" based on either or both of "amount related to chewing" and "amount related to smile". The quantity determination unit 112 and
(C) It has a feedback unit 114 that generates or selects and provides "information related to meal or health" of the user based on the determined "value related to the amount of meal".

このように、食事評価装置としての携帯端末1は、取得した生体信号(筋電信号)に基づいてユーザの「食事又は健康に関係する情報」を提供するにあたり、「食事の多少に係る値」を勘案することによって、より適切な情報提供を行うことを可能にしている。 As described above, the mobile terminal 1 as a meal evaluation device is "value related to the amount of meal" in providing "information related to meal or health" of the user based on the acquired biological signal (myoelectric signal). By taking this into consideration, it is possible to provide more appropriate information.

ここで、「食事の多少に係る値」は、食事の物理的絶対量に相当する値とすることも可能ではあるが、そうではなく、例えばユーザが食事についてその量を多いと感じるか又は少ないと感じるかを表すユーザの主観的指標とすることも好ましい。 Here, the "value related to the amount of meal" can be a value corresponding to the physical absolute amount of meal, but it is not so, for example, the user feels that the amount of meal is large or small. It is also preferable to use it as a user's subjective index indicating whether or not the person feels.

このような指標は、現状の食事を評価する上で非常に重要な1つの指標となる。具体的には、ユーザが食事量を多く感じるか少なく感じるかの情報は、当該食事時点でのユーザの心身の調子・状態や食欲の程度を推定する良い指標となるのであり、より適切なユーザの「食事又は健康に関係する情報」を生成又は選択するのに好適な指標となっているのである。 Such an index is one of the very important indexes for evaluating the current diet. Specifically, the information on whether the user feels a large amount or a small amount of food is a good index for estimating the physical and mental condition / state of the user and the degree of appetite at the time of the meal, and is a more appropriate user. It is a suitable index for generating or selecting "dietary or health-related information".

また、携帯端末1は、さらに、
(D)「咀嚼に係る量」及び「笑みに係る量」のいずれか一方又は両方に基づき、学習済みの「嗜好推定モデル」を用いて、「食事の嗜好に係る値」を決定する食事嗜好決定部113
を有することも好ましい。この場合、フィードバック部114は、「食事の多少に係る値」だけでなく「食事の嗜好に係る値」にも基づいて、ユーザの「食事又は健康に関係する情報」を生成又は選択する。
In addition, the mobile terminal 1 further
(D) Dietary preference to determine "value related to dietary preference" using a learned "preference estimation model" based on either or both of "amount related to chewing" and "amount related to smile". Decision unit 113
It is also preferable to have. In this case, the feedback unit 114 generates or selects the user's "information related to meal or health" based not only on "value related to the amount of meal" but also on "value related to meal preference".

ここで、「食事の嗜好に係る値」は、例えば食事評価の専門家による評価値相当の値とすることも可能ではあるが、そうではなく、例えばユーザが食事における食べ物に対し美味しい(好き)と感じるのか不味い(嫌い)と感じるのかの主観的指標とすることも好ましい。 Here, the "value related to the taste of meal" can be, for example, a value equivalent to the evaluation value by a meal evaluation expert, but it is not so, for example, the user tastes (likes) the food in the meal. It is also preferable to use it as a subjective index of whether it feels unpleasant or unpleasant (dislikes).

このような指標も、ユーザの好き嫌いの傾向のみならず、当該食事時点でのユーザの心身の調子・状態や食欲の程度を推定する良い指標となるのであり、より適切なユーザの「食事又は健康に関係する情報」を生成又は選択するのに好適な指標となっている。したがって、「食事の多少に係る値」だけでなく「食事の嗜好に係る値」をも勘案するによって、より適切なユーザ「食事又は健康に関係する情報」を生成又は選択することが可能となるのである。 Such an index is also a good index for estimating not only the tendency of the user's likes and dislikes but also the physical and mental condition / state of the user and the degree of appetite at the time of the meal, and is a more appropriate user's "meal or health". It is a suitable index for generating or selecting "information related to". Therefore, it is possible to generate or select a more appropriate user "information related to diet or health" by considering not only "value related to the amount of meal" but also "value related to dietary preference". It is.

図2は、本発明に係る生体信号取得装置の他の実施形態を示す模式図である。 FIG. 2 is a schematic diagram showing another embodiment of the biological signal acquisition device according to the present invention.

図2(A)には、本発明に係る生体信号取得装置としてのヘッドフォン2’が示されている。ヘッドフォン2’は、食事評価装置としての携帯端末1に連携するウェアラブルデバイスであり、検知された生体信号としての筋電信号を含み得る信号に対し、筋電センサ付メガネ2(図1)と同様に前フィルタ処理(ノッチフィルタ処理及びLPF処理)を行い、前フィルタ処理を施した当該信号を、(Bluetooth(登録商標)やWi-Fi(登録商標)等の)無線、又は(ケーブル接続による)有線を介して携帯端末1に送信する。 FIG. 2A shows a headphone 2'as a biological signal acquisition device according to the present invention. The headphone 2'is a wearable device linked to the mobile terminal 1 as a meal evaluation device, and is the same as the glasses 2 with a myoelectric sensor (FIG. 1) for a signal that may include a myoelectric signal as a detected biometric signal. Pre-filter processing (notch filter processing and LPF processing) is performed, and the pre-filtered signal is transmitted wirelessly (by Bluetooth (registered trademark), Wi-Fi (registered trademark), etc.) or (by cable connection). It is transmitted to the mobile terminal 1 via a wire.

ここで、有線は、例えば携帯端末1のヘッドフォン・マイクロフォン用アナログ音声入出力端子(ジャック)に接続されるものであってもよく、USB(Universal Serial Bus)で接続されるものであってもよい。いずれにしても、当該無線又は有線を介し、携帯端末1からヘッドフォン2’へ、例えばコンテンツの音声信号が伝送されるとともに、ヘッドフォン2’から携帯端末1へ、筋電センサによって検知され前フィルタ処理された筋電信号を含む信号が伝送される。 Here, the wired connection may be connected to, for example, an analog audio input / output terminal (jack) for a headphone / microphone of a mobile terminal 1, or may be connected by a USB (Universal Serial Bus). .. In any case, the audio signal of the content is transmitted from the mobile terminal 1 to the headphone 2', for example, from the headphone 2'to the mobile terminal 1 via the wireless or wire, and is detected by the myoelectric sensor and pre-filtered. A signal including the myoelectric signal is transmitted.

また、ヘッドフォン2’の筋電センサも、筋電センサ付メガネ2(図1)と同様、「検出用+(プラス)電極」、「リファレンス用-(マイナス)電極」、及び「DRL(Driven Right Leg)電極」の3つの電極を有している。また、これらの電極配置についても、筋電センサ付メガネ2(図1)と同様、リファレンス用電極が左(又は右)の耳介周辺から頬近傍の1つの皮膚位置に接し、検出用電極が右(又は左)の耳介周辺から頬近傍の1つの皮膚位置に接するように設定することができる。ちなみに、この場合、検知され得る生体信号には、咀嚼運動や口角上げ運動に起因する筋電信号が含まれる。 In addition, the myoelectric sensor of the headphone 2'also has "detection + (plus) electrode", "reference- (minus) electrode", and "DRL (Driven Right)" as in the case of glasses 2 with myoelectric sensor (FIG. 1). It has three electrodes, "Leg) electrodes". Regarding the arrangement of these electrodes, as in the case of the glasses 2 with myoelectric sensor (FIG. 1), the reference electrode is in contact with one skin position near the cheek from around the left (or right) auricle, and the detection electrode is placed. It can be set to touch one skin position near the cheek from around the right (or left) pinna. Incidentally, in this case, the biological signal that can be detected includes a myoelectric signal caused by a masticatory motion or a mouth angle raising motion.

なお、筋電センサの電極の配置は、当然に上記の形態に限定されるものではない。例えば、ヘッドフォン2’がオープンエア型のイヤカップやイヤパッドを有さない場合、ヘッドフォンを頭部に装着するため支持機構のうち耳周辺の皮膚に当接する面の中から頬に近い位置に電極を配置してもよい。 Of course, the arrangement of the electrodes of the myoelectric sensor is not limited to the above-mentioned form. For example, if the headphone 2'does not have an open-air earcup or earpad, the electrodes are placed near the cheeks from the surface of the support mechanism that contacts the skin around the ears to attach the headphones to the head. You may.

さらに、本発明による生体信号処理装置であって、同様の筋電センサ及びその電極を備えた頭部装着デバイスとして、図2(B)に示したイヤホン2’’も挙げられる。このイヤホン2’’も、検知された生体信号としての筋電信号を含み得る入力信号を処理し、筋電信号発生の有無や、発生した筋電信号の種別を判定して、この判定結果に係る情報を、無線又は有線(ケーブル)を介して携帯端末1に送信する。また、当該無線又は有線を介し、携帯端末1からイヤホン2’’へ、例えばコンテンツの音声信号が伝送される。 Further, as a head-mounted device provided with a similar myoelectric sensor and an electrode thereof, which is a biological signal processing device according to the present invention, the earphone 2 ″ shown in FIG. 2B can also be mentioned. This earphone 2'' also processes an input signal that may include a myoelectric signal as a detected biological signal, determines whether or not a myoelectric signal is generated, and determines the type of the generated myoelectric signal, and uses this determination result as a result. Such information is transmitted to the mobile terminal 1 via wireless or wired (cable). Further, for example, an audio signal of content is transmitted from the mobile terminal 1 to the earphone 2 ″ via the wireless or wired system.

以上に説明したような筋電センサ付メガネ2(図1)、ヘッドフォン2’(図2(A))や、イヤホン2’’(図2(B))を用いることによって、「咀嚼」に起因する筋電信号の発生をより確実に把握することもでき、さらに、「笑み」を含む顔表情に相当する口角上げ運動に係る筋電信号を検知することも可能となる。 Caused by "chewing" by using glasses 2 with a myoelectric sensor (FIG. 1), headphones 2'(FIG. 2 (A)), and earphones 2 "(FIG. 2 (B)) as described above. It is also possible to more reliably grasp the generation of the myoelectric signal to be performed, and further, it is possible to detect the myoelectric signal related to the mouth angle raising movement corresponding to the facial expression including "smile".

ちなみに、このような筋電信号は、ユーザの意識的反応による信号である場合、ユーザインタフェースとして利用可能となる。一方、無意識的反応による信号ならば、ユーザの感情及びその推移の測定結果として利用することも可能となるのである。さらに例えば、ユーザによるヘッドフォン2’やイヤホン2’’の装着/未装着も、筋電信号の検知状況から判断可能となるのである。 Incidentally, such a myoelectric signal can be used as a user interface when it is a signal due to a conscious reaction of the user. On the other hand, if the signal is an unconscious reaction, it can be used as a measurement result of the user's emotion and its transition. Further, for example, the user can determine whether or not the headphones 2 ″ or the earphones 2 ″ are attached / not attached from the detection status of the myoelectric signal.

また、耳を含む位置に装着される筋電センサ付メガネ2(図1)、ヘッドフォン2’(図2(A))や、イヤホン2’’(図2(B))では、乾式電極を用いる筋電センサ等によって検出される信号が交流である性質を利用して検出を実施し、一方で、振幅の小さい交流信号は検出せず、さらに乾式電極のズレによるノイズ(アーチファクト)も生体信号として検出しないので、計算量を小さくしつつより確実に交流信号としての「周期的生体信号」を検出することが可能となるのである。 In addition, a dry electrode is used for the glasses 2 with a myoelectric sensor (FIG. 1), the headphones 2'(FIG. 2 (A)), and the earphones 2'' (FIG. 2 (B)), which are worn at positions including the ears. Detection is performed using the property that the signal detected by the myoelectric sensor etc. is AC, while AC signals with small amplitude are not detected, and noise (artifact) due to the displacement of the dry electrode is also used as a biological signal. Since it is not detected, it is possible to more reliably detect a "periodic biometric signal" as an AC signal while reducing the amount of calculation.

[食事評価装置]
図1の機能ブロック図に戻って、食事評価装置1は、信号インタフェース101と、咀嚼・笑み情報保存部102と、食事ログ保存部103と、フィードバック情報保存部104と、カメラ105と、タッチパネル・ディスプレイ(TP・DP)106と、マイク107と、スピーカ108と、プロセッサ・メモリとを有する。
[Meal evaluation device]
Returning to the functional block diagram of FIG. 1, the meal evaluation device 1 includes a signal interface 101, a chewing / smile information storage unit 102, a meal log storage unit 103, a feedback information storage unit 104, a camera 105, and a touch panel. It has a display (TP / DP) 106, a microphone 107, a speaker 108, and a processor memory.

ここで、このプロセッサ・メモリは、本発明による食事評価プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この食事評価プログラムを実行することによって、食事評価処理を実施する。このことから、食事評価装置1は、本発明による食事評価プログラムを搭載した、例えばパーソナルコンピュータ(PC)、ノート型若しくはタブレット型コンピュータ、又はスマートフォン等であってもよい。 Here, this processor memory stores one embodiment of the meal evaluation program according to the present invention, and also has a computer function, and carries out the meal evaluation process by executing this meal evaluation program. do. For this reason, the meal evaluation device 1 may be, for example, a personal computer (PC), a notebook or tablet computer, a smartphone, or the like equipped with the meal evaluation program according to the present invention.

さらに、プロセッサ・メモリは、画像情報処理部111aを有する生体信号情報決定部111と、食事量決定部112と、食事嗜好決定部113と、フィードバック部114と、食事ログ生成管理部121と、食事量推定モデル構築部122と、嗜好推定モデル構築部123と、通信制御部131と、入出力制御部132とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された食事評価プログラムの機能と捉えることができる。また、図1における食事評価装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による食事評価方法の一実施形態としても理解される。 Further, the processor memory includes a biological signal information determination unit 111 having an image information processing unit 111a, a meal amount determination unit 112, a meal preference determination unit 113, a feedback unit 114, a meal log generation management unit 121, and a meal. It has a quantity estimation model construction unit 122, a preference estimation model construction unit 123, a communication control unit 131, and an input / output control unit 132. It should be noted that these functional components can be regarded as the functions of the meal evaluation program stored in the processor memory. Further, the processing flow shown by connecting the functional components of the meal evaluation device 1 in FIG. 1 with arrows is also understood as an embodiment of the meal evaluation method according to the present invention.

同じく図1の機能ブロック図において、生体信号情報決定部111は、筋電センサ付メガネ2から信号インタフェース101及び通信制御部131を介して取得された、生体信号を含む入力信号から、ユーザの「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)を決定する。ここで、決定された「咀嚼に係る量」及び「笑みに係る量」は、一先ず咀嚼・笑み情報保存部102に保存され、その後適宜読み出されて、食事量決定部112、食事嗜好決定部113や、フィードバック部114へ提供されることも好ましい。 Similarly, in the functional block diagram of FIG. 1, the biological signal information determination unit 111 uses the user's “biological signal” from the input signal including the biological signal acquired from the glasses 2 with the myoelectric sensor via the signal interface 101 and the communication control unit 131. One or both of "amount related to chewing" and "amount related to smile" (both in this embodiment) are determined. Here, the determined "amount related to mastication" and "amount related to smile" are first stored in the mastication / smile information storage unit 102, and then appropriately read out to be a meal amount determination unit 112 and a meal preference determination unit. It is also preferable that it is provided to 113 or the feedback unit 114.

ここで、生体信号情報決定部111は、当該入力信号の加速度成分データを生成し、この加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、この代表値の周期性に基づいて、「咀嚼に係る量」を決定することができる。 Here, the biometric signal information determination unit 111 generates acceleration component data of the input signal, calculates a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data, and has periodicity of this representative value. Based on, the "amount related to chewing" can be determined.

具体的に、生体信号情報決定部111は、2階差分フィルタを有し、LPF処理の施された入力信号の加速度成分データを生成する。この2階差分フィルタは、当該入力信号に対して差分フィルタ処理を2回実施する構成とすることができる。ここで使用される差分フィルタの原理を示す差分方程式は、次式
(2) y[n]=x[n]-x[n-1]
の通りとなる。上式(2)において、nはサンプル位置(サンプル・インデックス)であり、x[n]及びy[n]はそれぞれ、サンプル位置nの入力信号及び出力信号である。
Specifically, the biological signal information determination unit 111 has a second-order difference filter and generates acceleration component data of the input signal subjected to LPF processing. This second-order difference filter can be configured to perform the difference filter processing twice on the input signal. The difference equation showing the principle of the difference filter used here is the following equation (2) y [n] = x [n] -x [n-1].
It becomes the street. In the above equation (2), n is a sample position (sample index), and x [n] and y [n] are an input signal and an output signal at the sample position n, respectively.

なお一般に、上記のようにデジタルフィルタを使用する場合、高度なデジタルフィルタになるほど計算量がより増大することになる。この計算量の増大は、携帯端末1のようなモバイルデバイスにおいてはバッテリーの持続時間の低下をもたらし、大きな問題となる。これに対し、生体信号情報決定部111は、例えば三角関数を含むフィルタを使用したりせず、次数の少ないフィルタを用いて生体信号の処理を行っているので、問題となる計算量の増大を抑制することができるのである。 In general, when a digital filter is used as described above, the amount of calculation increases as the digital filter becomes more sophisticated. This increase in the amount of calculation causes a decrease in battery life in a mobile device such as the mobile terminal 1, which becomes a big problem. On the other hand, the biological signal information determination unit 111 does not use a filter including trigonometric functions, for example, but uses a filter having a low order to process the biological signal. It can be suppressed.

生体信号情報決定部111は次いで、生成した加速度成分データを、所定時間区間(ウィンドウ分析区間)に分割し、各ウィンドウ分析区間でのデータの偏り具合に係る代表値を算出する。一般に、生体センサから出力される時系列データは、逐次リアルタイムに分析することによって、ユーザインタフェースを介し、ユーザにリアルタイムにフィードバック可能となり、非常に利用し易くなる。この際、予めウィンドウ分析区間を設け、この分析区間をずらしながら逐次分析することによって、概ねリアルタイムな分析処理が可能となるのである。 Next, the biological signal information determination unit 111 divides the generated acceleration component data into predetermined time intervals (window analysis sections), and calculates a representative value related to the degree of data bias in each window analysis section. In general, the time-series data output from the biosensor can be fed back to the user in real time via the user interface by sequentially analyzing it in real time, which makes it very easy to use. At this time, by providing a window analysis section in advance and performing sequential analysis while shifting the analysis section, it is possible to perform analysis processing in a substantially real time.

本実施形態においては、筋電センサ付メガネ2の信号変換部211におけるデジタル化のサンプリング周波数が512Hzである場合、加速度成分の時系列データが64サンプル入力される毎に、直近に入力された128サンプルをウィンドウ分析区間として標準偏差SDを算出する。また変更態様として、同じくウィンドウ分析区間を128サンプルとし、加速度成分の時系列データを0.25秒毎(128サンプル毎)に区切りながら、区切った区間毎に、当該区間内の加速度成分データにおける標準偏差SDを算出してもよい。 In the present embodiment, when the sampling frequency of digitization in the signal conversion unit 211 of the glasses 2 with a myoelectric sensor is 512 Hz, the time series data of the acceleration component is input most recently every time 64 samples are input 128. Calculate the standard deviation SD using the sample as the window analysis interval. As a modification, the window analysis section is also set to 128 samples, and the time series data of the acceleration component is divided every 0.25 seconds (every 128 samples), and the standard deviation SD in the acceleration component data in the divided section is divided. May be calculated.

なお、ここで算出される値は当然に、標準偏差SDに限定されるものではなく、ウィンドウ分析区間での加速度成分データの偏り具合に係る値ならば種々の値が採用可能である。 It should be noted that the value calculated here is not limited to the standard deviation SD as a matter of course, and various values can be adopted as long as it is a value related to the degree of deviation of the acceleration component data in the window analysis section.

生体信号情報決定部111はさらに、各ウィンドウ分析区間における加速度成分が所定範囲内に連続して留まっている時間区間の長さ(サンプル数長len_th)について単調減少関数となる重みWを算出する。本願発明者は、筋電信号が発生していない場合に、発生している場合と比較して、この時間区間が相当に長くなることを見出した。 The biological signal information determination unit 111 further calculates a weight W that is a monotonically decreasing function for the length of the time interval (sample number length len_th) in which the acceleration component in each window analysis interval remains continuously within a predetermined range. The inventor of the present application has found that when the myoelectric signal is not generated, this time interval is considerably longer than when it is generated.

そこで、この時間区間が長くなると急速に小さくなるような(又は少なくともこの時間区間について単調減少関数となる)「重みW」を決定し、代表値SDWにそのような特性を盛り込むことによって、筋電信号の無い場合やノイズのみの場合における筋電信号発生との誤判定を、より確実に回避することが可能となるのである。 Therefore, by determining a "weight W" that rapidly decreases (or at least becomes a monotonically decreasing function for this time interval) as this time interval becomes longer, and incorporating such a characteristic into the representative value SD W , it is possible to make a line. It is possible to more reliably avoid the erroneous determination that the myoelectric signal is generated when there is no electric signal or when there is only noise.

以下具体的に、この重みWの導出を説明する。最初に、生成した加速度成分データにおいて、重み算出対象のウィンドウ分析区間の先頭から加速度成分の振幅を走査し、予め設定した閾値th未満の振幅が連続しているサンプル数長len_thを決定しておく。また、ノイズ区間を規定することになる観測サンプル数obsを予め設定しておく。例えば、th=10、及びobs=15と設定することができる。 Specifically, the derivation of this weight W will be described below. First, in the generated acceleration component data, the amplitude of the acceleration component is scanned from the beginning of the window analysis section to be weighted, and the sample number length len_th in which the amplitude less than the preset threshold th is continuous is determined. .. In addition, the number of observation samples obs that will specify the noise interval is set in advance. For example, th = 10 and obs = 15 can be set.

ちなみに、ウィンドウ分析区間内に、閾値th未満の振幅連続区間が複数存在する場合、サンプル数長len_thはそれらの区間の合計サンプル数としてもよい。または、そのうち最も時間区間の長い振幅連続区間におけるサンプル数を、サンプル数長len_thとすることも可能である。 Incidentally, when there are a plurality of amplitude continuous sections less than the threshold value th in the window analysis section, the sample number length len_th may be the total number of samples in those sections. Alternatively, the number of samples in the longest amplitude continuous interval among them can be set as the sample number length len_th.

例えば、サンプル数長len_thの関数としての指数重みWとして、次式
(3) W=exp(1-len_th/obs)
によって規定された重みWを設定することができる。ここで例えば、obs=15であって、len_th=15ならばW=1.0となる。さらに、len_thが大きくなるにつれて指数重みWは急激に減少し、ゼロに漸近する。実際、len_thがウィンドウ分析区間長(128サンプル)相当となると、指数重みWは概ねゼロとなる。
For example, as an exponential weight W as a function of the sample number length len_th, the following equation (3) W = exp (1-len_th / obs)
The weight W specified by can be set. Here, for example, if obs = 15 and len_th = 15, W = 1.0. Furthermore, as len_th increases, the exponential weight W decreases sharply and approaches zero. In fact, when len_th corresponds to the window analysis section length (128 samples), the exponential weight W becomes almost zero.

さらに別の例として、サンプル数長len_thの関数としての反比例重みWとして、次式
(4) W=1/((len_th-obs)/a+1)
によって規定された重みWを設定してもよい。ここで、aはobsを超える値(a>obs)をとって分母を正値にすることが好ましい。この反比例重みWにおいて、例えばa=obs*obs(=225)の場合、len_th=15ならばW=1.0となる。また、len_thが大きくなるにつれて反比例重みWは減少し、ゼロに近づく。
As yet another example, as the inverse proportional weight W as a function of the sample number length len_th, the following equation (4) W = 1 / ((len_th-obs) / a + 1)
The weight W specified by may be set. Here, it is preferable that a takes a value exceeding obs (a> obs) and sets the denominator to a positive value. In this inverse proportional weight W, for example, in the case of a = obs * obs (= 225), if len_th = 15, W = 1.0. Also, as len_th increases, the inverse proportional weight W decreases and approaches zero.

勿論、重みWは、以上に説明したものに限定されるものではない。len_thの単調減少関数であれば重みWとして採用可能であり、また好ましくは、len_thの増加とともにゼロに近づく関数、より好適にはゼロに漸近する関数であれば、種々のものが重みWとして用いることができる。ここで例えば、重みWを負の傾きを有するlen_thの一次関数としてもよいが、上述したような指数重みWの方が、より確実な生体信号発生判定に資することになる。 Of course, the weight W is not limited to that described above. If it is a monotonic decrease function of len_th, it can be adopted as a weight W, and preferably, if it is a function that approaches zero as len_th increases, and more preferably, if it is a function that asymptotics to zero, various functions are used as weight W. be able to. Here, for example, the weight W may be a linear function of len_th having a negative slope, but the exponential weight W as described above contributes to a more reliable determination of the generation of a biological signal.

次いで、生体信号情報決定部111はさらに、算出した標準偏差SDを、同じく算出した重みWによって重み付けした値を代表値SDWに決定する。具体的には、次式
(5) SDW[k]=W[k]*SD[k]
によって代表値SDW[k]を算出する。ここで上式(5)において、kはウィンドウ位置(ウィンドウ・インデックス)であり、SDW[k]、W[k]及びSD[k]における[k]は、それぞれウィンドウ位置kでの値であることを示す。
Next, the biological signal information determination unit 111 further determines the calculated standard deviation SD as the representative value SD W , which is weighted by the similarly calculated weight W. Specifically, the following equation (5) SD W [k] = W [k] * SD [k]
Calculate the representative value SD W [k] by. Here, in the above equation (5), k is the window position (window index), and [k] in SD W [k], W [k], and SD [k] is the value at the window position k, respectively. Indicates that there is.

生体信号情報決定部111は次いで、算出された代表値SDWの時系列データに対し、共振器フィルタ処理を実施する。この共振器フィルタ処理は、算出された代表値SDWの時系列データにおいて予め特定された周期性が存在する場合に、この特定された周期性成分を増幅する処理となっている。このような処理を行うことにより、この後説明する周期的信号発生判定処理、すなわち代表値の時系列データが周期性を有するか否かの判定処理を、より高い判定精度をもって実施することができるのである。 Next, the biological signal information determination unit 111 performs resonator filtering on the calculated time-series data of the representative value SD W. This resonator filter processing is a processing for amplifying the specified periodicity component when the periodicity specified in advance exists in the time series data of the calculated representative value SD W. By performing such processing, it is possible to carry out the periodic signal generation determination processing described later, that is, the determination processing of whether or not the time series data of the representative value has periodicity, with higher determination accuracy. It is.

具体的に、共振器フィルタ処理は、次に示す差分方程式
(6) y[n]=a1*y[n-1]+a2*y[n-2]+b0*x[n]
によって実現される。上式(6)において、nはサンプル位置(サンプル・インデックス)であり、x[n]及びy[n]はそれぞれ、サンプル位置nの入力信号及び出力信号である。また、係数a1、a2及びb0は、次式
(7) a1=2*exp(-π*Q/fs)*cos(2π*f0/fs)
a2=-exp(-2π*Q/fs)
b0=1-a1-a2
をもって算出される。ここで、Qは共振度(Q>0)であり、fsはスライディング・ウィンドウ分析周波数(単位はHz)であって、f0は共振周波数(単位はHz)である。
Specifically, the resonator filter processing is performed by the following difference equation (6) y [n] = a 1 * y [n-1] + a 2 * y [n-2] + b 0 * x [n].
Realized by. In the above equation (6), n is a sample position (sample index), and x [n] and y [n] are an input signal and an output signal at the sample position n, respectively. The coefficients a 1 , a 2 and b 0 are given by the following equation (7) a 1 = 2 * exp (−π * Q / f s ) * cos (2π * f 0 / f s ).
a 2 = -exp (-2π * Q / f s )
b 0 = 1 -a 1 -a 2
Is calculated with. Here, Q is the resonance degree (Q> 0), f s is the sliding window analysis frequency (unit is Hz), and f 0 is the resonance frequency (unit is Hz).

次いで、生体信号情報決定部111は、加速度成分データを生成する前の入力信号に対して多重解像度解析(MRA,MultiResolution Analysis)処理を実施し、MRA処理後の信号振幅の時系列データが所定のヒステリシスを示す時間区間を、何らかの生体信号が発生した信号発生時間区間に決定する。 Next, the biological signal information determination unit 111 performs multi-resolution analysis (MRA) processing on the input signal before generating the acceleration component data, and the time-series data of the signal amplitude after the MRA processing is predetermined. The time interval indicating hysteresis is determined as the signal generation time interval in which some biological signal is generated.

ここで、本願発明者は、センサからの入力信号に対しMRA処理を施すことによって生体信号が発生したか否かを判定可能であることを新たに見出した。この発見に基づき、生体信号情報決定部111は生体信号の発生時間区間を特定できるのである。 Here, the inventor of the present application has newly found that it is possible to determine whether or not a biological signal is generated by performing MRA processing on an input signal from a sensor. Based on this discovery, the biological signal information determination unit 111 can specify the generation time interval of the biological signal.

いずれにしても、この後に実施される信号発生判定処理においては、算出された代表値SDWの周期性だけではなく、この決定された信号発生時間区間をも勘案することによって、周期的生体信号の発生をより確実に判断することが可能となるのである。なお勿論、この発生時間区間決定処理を省略し、代表値SDWの周期性だけで信号発生判定処理を実施することも可能である。 In any case, in the signal generation determination process to be performed after this, not only the periodicity of the calculated representative value SD W but also the determined signal generation time interval is taken into consideration, so that the periodic biological signal It becomes possible to more reliably determine the occurrence of. Of course, it is also possible to omit this generation time interval determination processing and perform the signal generation determination processing only by the periodicity of the representative value SD W.

さらに、生体信号情報決定部111は本実施形態において、共振器フィルタ処理の施された代表値SDWの時系列データの周期性に基づき、周期的生体信号の発生を判定する。ちなみに、本実施形態の場合、発生したと判定される周期的生体信号は、頭部に装着された筋電センサ付メガネ2から取得されるものであることから、「咀嚼」に起因する筋電信号であると判断される。すなわち、生体信号情報決定部111は、咀嚼に係る筋電信号の発生を判定するものとなっているのである。 Further, in the present embodiment, the biological signal information determination unit 111 determines the generation of a periodic biological signal based on the periodicity of the time-series data of the representative value SD W subjected to the resonator filter processing. By the way, in the case of the present embodiment, since the periodic biological signal determined to have been generated is acquired from the glasses 2 with the myoelectric sensor attached to the head, the myoelectric telegraph caused by "chewing". It is judged to be a number. That is, the biological signal information determination unit 111 determines the generation of the myoelectric signal related to mastication.

ここで、代表値SDWの時系列データが周期性を有するか否かの判定処理として、
(a)代表値SDWが所定範囲を超えて変動した際のピーク位置を算出し、
(b)隣接するピーク位置の時間間隔が所定時間範囲内である場合に、代表値SDWの時系列データが周期性を有しているとし、周期的生体信号が発生したと判定する
ことができる。
Here, as a determination process of whether or not the time series data of the representative value SD W has periodicity,
(A) Calculate the peak position when the representative value SD W fluctuates beyond the predetermined range.
(B) When the time interval between adjacent peak positions is within a predetermined time range, it can be determined that the time-series data of the representative value SD W has periodicity and that a periodic biological signal is generated. can.

生体信号情報決定部111は次いで、決定された信号発生時間区間において、周期的生体信号(本実施形態では「咀嚼」に係る筋電信号)が発生していないと判定された際、この信号発生時間区間で発生している生体信号の種別を判定する。例えば、発生した生体信号は口角上げ動作(「笑み」)によるものとの判定を行う。 Next, when the biological signal information determination unit 111 determines that a periodic biological signal (myoelectric signal related to "chewing" in the present embodiment) is not generated in the determined signal generation time interval, this signal is generated. Determine the type of biological signal generated in the time interval. For example, it is determined that the generated biological signal is due to the movement of raising the corner of the mouth (“smile”).

より具体的には、例えば、
(ア)判定対象期間において生体信号発生時間区間が存在し、且つ当該時間区間においてピーク(ピーク位置)が(2以上の)所定数以上検出されている場合、周期的生体信号が発生しているとの判定を行う。
(イ)また、判定対象期間において生体信号発生時間区間が存在しているが、当該時間区間においてピーク(ピーク位置)が検出されていない場合、何らかの(非周期的な)生体信号が発生しているものとして、生体信号の種別判定を行う。ちなみに、この種別判定については、この後、詳細に説明する。
(ウ)さらに、判定対象期間において生体信号発生時間区間が存在しない場合、生体信号は発生していないとの判定を行う。
More specifically, for example,
(A) When a biological signal generation time interval exists in the determination target period and a predetermined number or more of peaks (peak positions) are detected in the time interval, a periodic biological signal is generated. And make a judgment.
(B) Further, when the biological signal generation time interval exists in the determination target period, but the peak (peak position) is not detected in the time interval, some (aperiodic) biological signal is generated. Assuming that there is, the type of the biological signal is determined. Incidentally, this type determination will be described in detail later.
(C) Further, when the biological signal generation time interval does not exist in the determination target period, it is determined that the biological signal is not generated.

ここで上記(ア)の判定を行った場合、さらに、発生している周期的生体信号(例えば咀嚼に係る筋電信号)に基づき、発生している周期的生体現象(例えば咀嚼動作)のカウントを行う(例えば咀嚼回数を算出する)。一方、上記(イ)の判定を行った場合、種別を判定された生体信号の発生回数、すなわち該当生体現象の生起回数をカウントする。このカウントについてもこの後、説明を行う。 Here, when the determination in (a) above is made, the count of the periodic biological phenomena (for example, mastication movement) occurring is further based on the generated periodic biological signal (for example, the myoelectric signal related to mastication). (For example, calculate the number of chews). On the other hand, when the determination in (a) above is performed, the number of occurrences of the biological signal whose type is determined, that is, the number of occurrences of the corresponding biological phenomenon is counted. This count will also be described later.

ここで以下、上述した生体信号種別判定処理及び生体信号計数処理の具体例を説明する。 Here, specific examples of the above-mentioned biological signal type determination processing and biological signal counting processing will be described below.

生体信号情報決定部111は、生体信号種別判定の一実施形態として、(生体信号は発生しているが)周期的生体信号は発生していないとの判定に係る時間区間において、入力信号の平均パワー周波数(MPF,mean power frequency)を算出し、MPFの高さに基づいて、発生した生体信号の種別を判定することも好ましい。 As an embodiment of the biological signal type determination, the biological signal information determination unit 111 averages the input signals in the time interval related to the determination that the periodic biological signal is not generated (although the biological signal is generated). It is also preferable to calculate the power frequency (MPF, mean power frequency) and determine the type of the generated biological signal based on the height of the MPF.

ここで、本願発明者は、筋電センサ付メガネ2を用いて取得した入力信号に対し、高速フーリエ変換(FFT,Fast Fourier Transform)等による周波数解析処理を実施し、各ウィンドウ分析区間においてMPFを算出したところ、このMPF値の閾値判定によって、発生した筋電信号の種別が判断可能であることを見出した。 Here, the inventor of the present application performs frequency analysis processing by fast Fourier transform (FFT, Fast Fourier Transform) or the like on the input signal acquired by using the glasses 2 with a myoelectric sensor, and performs MPF in each window analysis section. As a result of the calculation, it was found that the type of the generated myoelectric signal can be determined by the threshold determination of the MPF value.

具体的には、例えば、MPF値が所定閾値を超えている場合、発生している生体信号は食い縛り動作による筋電信号であると判定し、一方、MPF値がこの所定閾値以下である場合、発生している生体信号は、口角上げ動作(「笑み」)による筋電信号であると判定することができる。 Specifically, for example, when the MPF value exceeds a predetermined threshold value, it is determined that the generated biological signal is a myoelectric signal due to a clenching operation, while the MPF value is equal to or less than this predetermined threshold value. , The generated biological signal can be determined to be a myoelectric signal due to the mouth angle raising motion (“smile”).

さらに、ウィンドウ分析区間において、信号強度、例えば振幅の標準偏差SD’を算出し、この値もMPF値と同様にして発生信号の種別判定に用いることも可能となっている。 Further, in the window analysis section, it is possible to calculate the signal strength, for example, the standard deviation SD'of the amplitude, and use this value for determining the type of the generated signal in the same manner as the MPF value.

ちなみに、一般的にFFT等の周波数解析処理には相当の計算量が必要とされるが、本実施形態では、何らかの生体信号が発生したと判定された時間区間のみにおいてこのような周波数解析を行うので、種別判定において周波数解析処理を実施するにもかかわらず、計算量を大幅に削減することができるのである。 By the way, in general, a considerable amount of calculation is required for frequency analysis processing such as FFT, but in this embodiment, such frequency analysis is performed only in the time interval in which it is determined that some biological signal is generated. Therefore, the amount of calculation can be significantly reduced even though the frequency analysis process is performed in the type determination.

さらに、生体信号情報決定部111は、生体信号種別判定の他の実施形態として、(生体信号は発生しているが)周期的生体信号は発生していないとの判定に係る時間区間において、標準偏差SD’と入力信号のMPF値(MPF)とを含む特徴量、例えば{SD', MPF}を算出し、この特徴量について、基準状態に該当する入力信号の特徴量によって設定された単位空間から離隔した度合いである離隔度合いを算出し、算出された離隔度合いに基づいて、発生した生体信号の種別を判定することも好ましい。 Further, as another embodiment of the biological signal type determination, the biological signal information determination unit 111 is standard in the time interval related to the determination that the periodic biological signal is not generated (although the biological signal is generated). A feature quantity including the deviation SD'and the MPF value (MPF) of the input signal, for example, {SD', MPF} is calculated, and this feature quantity is a unit space set by the feature quantity of the input signal corresponding to the reference state. It is also preferable to calculate the degree of separation, which is the degree of separation from the above, and determine the type of the generated biological signal based on the calculated degree of separation.

この場合具体的に、生体信号情報決定部111は、生体信号が発生していない基準状態に係る単位空間からの離隔度合いから、所定の生体信号が発生した状態及び生体信号が発生していない状態を合わせた基準状態に係る単位空間からの離隔度合いと、所定の生体信号が発生した基準状態に係る単位空間からの離隔度合いとを差し引いた量に基づいて、所定の生体信号の発生を判定することができる。 In this case, specifically, the biological signal information determination unit 111 is in a state in which a predetermined biological signal is generated and a state in which the biological signal is not generated, based on the degree of separation from the unit space related to the reference state in which the biological signal is not generated. The generation of a predetermined biological signal is determined based on the amount obtained by subtracting the degree of separation from the unit space related to the reference state and the degree of separation from the unit space related to the reference state in which the predetermined biological signal is generated. be able to.

ここで、上記の単位空間及び離隔度合いとして、
(a)MT(Mahalanobis Taguchi)法における単位空間、及びマハラノビス距離から算出される値、
(b)MTA(Mahalanobis-Taguchi Adjoint)法における単位空間、及びマハラノビス距離から算出される値、
(c)T法における単位空間、及び特性値から算出される値、又は
(d)RT(Recognition Taguchi)法における単位空間、及びRT距離から算出される値
を採用することができる。ちなみに、このような生体信号種別判定の方法が有効であることも、本願発明者が実験を通して見出したものである。
Here, as the above unit space and the degree of separation,
(A) A value calculated from the unit space in the MT (Mahalanobis Taguchi) method and the Mahalanobis distance.
(B) A value calculated from the unit space in the MTA (Mahalanobis-Taguchi Adjoint) method and the Mahalanobis distance.
(C) A value calculated from the unit space and the characteristic value in the T method, or (d) a value calculated from the unit space and the RT distance in the RT (Recognition Taguchi) method can be adopted. Incidentally, the inventor of the present application has also found through experiments that such a method for determining the type of biological signal is effective.

このうちMT法を用いた場合、例えば口角上げ動作による筋電信号を判別する際には、
(ア)無表情状態及び口角上げ状態(を合わせた状態群)
(イ)無表情状態
(ウ)口角上げ状態
についての3つの単位空間を設計し、入力信号において、これらの単位空間からの離隔度合いをそれぞれ距離1、距離2及び距離3として算出して、(判定用距離)=(距離2)-(距離1)-(距離3)とすることによって、より好適な判定結果が得られることが分かっている。具体的には、このような判定用距離が所定閾値を超えている場合、発生している生体信号は口角上げ動作(「笑み」)による筋電信号であると判定することができるのである。
Of these, when the MT method is used, for example, when discriminating the myoelectric signal due to the operation of raising the angle of the mouth,
(A) Facial expressionless state and mouth angle raised state (combined state group)
(B) Expressionless state (c) Design three unit spaces for the raised mouth angle state, and calculate the degree of separation from these unit spaces in the input signal as distance 1, distance 2, and distance 3, respectively. It is known that a more suitable determination result can be obtained by setting (distance for determination) = (distance 2)-(distance 1)-(distance 3). Specifically, when such a determination distance exceeds a predetermined threshold value, it can be determined that the generated biological signal is a myoelectric signal due to a mouth angle raising operation (“smile”).

次いで以下、生体信号計数処理の好適な一実施形態として、時系列データのヒステリシスを利用する方法を説明する。 Next, as a preferred embodiment of the biological signal counting process, a method of utilizing the hysteresis of time series data will be described.

図3は、処理された生体信号の時系列データにおけるヒステリシスを利用した生体信号計数処理の一実施例を示すグラフである。この図3のグラフは、生体信号種別判定をMT法によって実施した際に算出された判定用距離の時系列データ点を、線分で結んだ折れ線グラフとなっている。 FIG. 3 is a graph showing an embodiment of biological signal counting processing using hysteresis in time-series data of processed biological signals. The graph of FIG. 3 is a line graph connecting time-series data points of the determination distance calculated when the biological signal type determination is performed by the MT method with a line segment.

生体信号情報決定部111(図1)は、
(a)判定用距離(の推移を示す折れ線)が閾値Thhのラインを下方(値の小さい方)から横切って上方(値の大きい方)に向かう点をカウント開始点(丸印)とし、
(b)判定用距離(の推移を示す折れ線)が閾値Thl(<Thh)のラインを上方(値の大きい方)から横切って下方(値の小さい方)に向かう点をカウント終了点(三角印)として、
これらのカウント開始点とそれに次ぐカウント終了点との組毎に1だけカウントを増分する。
The biological signal information determination unit 111 (FIG. 1) is
(A) The point at which the judgment distance (the polygonal line indicating the transition) crosses the threshold Thh line from the lower side (the smaller value) to the upper side (the larger value) is defined as the count start point (circle).
(B) The counting end point (triangle mark) is the point where the judgment distance (the polygonal line indicating the transition) crosses the threshold Thr (<Thh) line from above (larger value) to downward (smaller value). ), As
The count is incremented by 1 for each set of these count start points and the count end points following them.

図3の実施例では、この組が4つ存在しているので、これらの4つの組がグラフで決定された段階で、(用いた判定用距離に係る種別の)生体信号が4回発生したと判定される(生体信号の発生数が4とカウントされる)。ここで、開始点の閾値(thh)及び終了点の閾値(thl)を適切に設定することによって、信号発生判定結果のチャタリングを防止することも可能となるのである。 In the embodiment of FIG. 3, since there are four of these sets, the biological signal (of the type related to the determination distance used) was generated four times at the stage when these four sets were determined by the graph. (The number of biological signals generated is counted as 4). Here, by appropriately setting the threshold value (thh) at the start point and the threshold value (thl) at the end point, it is possible to prevent chattering of the signal generation determination result.

さらに、生体信号情報決定部111は、カウント開始点を決定してから所定の時間閾値Tmaxだけ時間が経過してもカウント終了点が決定されない際、このカウント開始点からその時点までで1回をカウントした上で、この時間閾値Tmax経過後は、判定用距離Wが閾値Thlを下回るまでノイズ判定期間であるとしてもよい。この場合、図3の実施例では、結局、(用いた判定用距離に係る種別の)生体信号の発生回数は5回であると決定されることになる。 Further, when the count end point is not determined even after a predetermined time threshold T max has elapsed after the count start point is determined, the biological signal information determination unit 111 once from this count start point to that point. After counting the time threshold value T max , the noise determination period may be set until the determination distance W falls below the threshold value Thr. In this case, in the embodiment of FIG. 3, it is finally determined that the number of occurrences of the biological signal (of the type related to the determination distance used) is five.

なお変更態様として、生体信号発生判定をSDW値導出によって実施した際には、図3の縦軸をSDW値としたヒステリシスグラフを生成し、(その信号発生判定時のMPFの高さに基づき生体信号種別判定された「笑み」又は「咀嚼」に係る)生体信号の発生回数をカウントすることも可能となる。 As a modification, when the biological signal generation determination is performed by deriving the SD W value, a hysteresis graph with the vertical axis of FIG. 3 as the SD W value is generated (to the height of the MPF at the time of the signal generation determination). It is also possible to count the number of occurrences of a biological signal (related to "smile" or "chewing") for which the biological signal type is determined based on the above.

以上、生体信号情報決定部111における「咀嚼」及び「笑み」の決定処理を詳細に説明したが、以下、生体信号情報決定部111(図1)において決定される「咀嚼に係る量」及び「笑みに係る量」を具体的に説明する。 The process of determining "mastication" and "smile" in the biological signal information determination unit 111 has been described in detail above, but hereinafter, the "amount related to mastication" and "amount related to mastication" determined by the biological signal information determination unit 111 (FIG. 1) The amount of smiles will be explained in detail.

最初に、「咀嚼に係る量」としては、
(S1)総咀嚼回数、(S2)総咀嚼時間、(S3)総口数、(S4)一口と次の一口との間の総インターバル時間、(S5)総インターバル回数、(S6)咀嚼ペース、・・・
のうちの少なくとも1つを採用することができる。また、「笑みに係る量」としては、
(E1)総笑み回数、(E2)総笑み時間、・・・
のうちの少なくとも1つが採用可能である。
First, as the "amount related to chewing",
(S1) Total number of chews, (S2) Total chewing time, (S3) Total number of mouths, (S4) Total interval time between one bite and the next bite, (S5) Total number of intervals, (S6) Chewing pace, ...・ ・
At least one of them can be adopted. In addition, as "amount related to smile",
(E1) Total number of smiles, (E2) Total smile time, ...
At least one of them can be adopted.

ここで、(S1)の総咀嚼回数は、生体信号情報決定部111において、「咀嚼」であると判定された1つの区間を一口として、一口動作の発生毎に、それまでの総咀嚼回数に対し当該一口での咀嚼回数を加算することによって決定可能である。 Here, the total number of chews in (S1) is the total number of chews up to that point for each bite movement, with one section determined to be "chewing" by the biological signal information determination unit 111 as a bite. On the other hand, it can be determined by adding the number of times of chewing in the bite.

また、(S2)の総咀嚼時間は、1口の開始時刻と終了時刻とを記録して一口動作時間を算出し、1口動作の発生毎に、それまでの総咀嚼時間に対し当該一口での一口動作時間を加算することによって決定してもよい。さらに、(S3)の総口数は、一口動作の発生毎に、それまでの総口数に対し1を加算することによって決定可能である。 For the total chewing time of (S2), the start time and end time of one bite are recorded to calculate the bite operation time, and each bite movement occurs with the bite with respect to the total chewing time up to that point. It may be determined by adding the bite operation time. Further, the total number of units in (S3) can be determined by adding 1 to the total number of units up to that point for each bite operation.

また、(S4)の総インターバル時間は、一口の終了時刻と次の一口の開始時刻との間のインターバル時間を、次の一口動作が発生する毎に、それまでの総インターバル時間に対し加算していくことによって決定することができる。さらに、(S5)の総インターバル回数は、当該インターバル時間の発生毎に、それまでの総インターバル回数に対し1を加算することによって決定可能である。 For the total interval time in (S4), the interval time between the end time of one bite and the start time of the next bite is added to the total interval time up to that point each time the next bite operation occurs. It can be decided by going. Further, the total number of intervals in (S5) can be determined by adding 1 to the total number of intervals up to that point for each occurrence of the interval time.

また、(S6)の咀嚼ペースは、咀嚼テンポ又は咀嚼リズムであり、次式
(8) 「咀嚼ペース」=「総咀嚼回数」/「総咀嚼時間」(単位は、回/秒)
を用いて決定することができる。または、一口でのデータを用い、次式
(9) 「咀嚼ペース」=「一口における咀嚼回数」/「当該一口での咀嚼時間」(単位は、回/秒)
によって決定してもよい。
The mastication pace in (S6) is the mastication tempo or mastication rhythm, and the following formula (8) "Mastication pace" = "total number of mastications" / "total mastication time" (unit: times / second)
Can be determined using. Alternatively, using the data from one bite, the following formula (9) "Mastication pace" = "Number of chews in one bite" / "Mastication time in the bite" (unit: times / second)
May be determined by.

さらに、(E1)の総笑み回数は、「笑み」であると判定された1つの区間を笑み区間として、笑み区間の発生回数をカウントする(総笑み回数に対し笑み区間発生毎に1を加算する)ことによって決定してもよい。また、(E2)の総笑み時間は、笑み区間の開始時刻と終了時刻とを記録して笑み時間を算出し、笑み区間の発生毎に当該笑み時間を、それまでの総笑み時間に加算することによって決定することができる。 Further, for the total number of smiles in (E1), the number of occurrences of the smile section is counted with one section determined to be "smile" as the smile section (1 is added to the total number of smiles for each smile section occurrence). It may be decided by. For the total smile time in (E2), the start time and end time of the smile section are recorded to calculate the smile time, and the smile time is added to the total smile time up to that point for each occurrence of the smile section. Can be determined by

同じく図1の機能ブロック図において、食事量決定部112は、「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)に基づき、学習済みの食事量推定モデルを用いて、「食事の多少に係る値」を決定する。 Similarly, in the functional block diagram of FIG. 1, the meal amount determination unit 112 has learned the amount of meal based on one or both of "amount related to chewing" and "amount related to smile" (both in this embodiment). The estimation model is used to determine the "value related to the amount of food".

ここで、「食事の多少に係る値」は、食事の物理的絶対量に相当する値とすることも可能ではあるが、そうではなく、例えばユーザが食事についてその量を多いと感じるか又は少ないと感じるかを表すユーザの主観的指標とすることも好ましい。具体的には例えば、0(少ない)から10(多い)までの食事量値とすることができる。 Here, the "value related to the amount of meal" can be a value corresponding to the physical absolute amount of meal, but it is not so, for example, the user feels that the amount of meal is large or small. It is also preferable to use it as a user's subjective index indicating whether or not the person feels. Specifically, for example, it can be a meal amount value from 0 (less) to 10 (more).

また、使用される食事量推定モデルは、「咀嚼に係る量」、例えば上記(S1)~(S4)の全て、並びに「笑みに係る量」、例えば上記(E1)及び(E2)を入力特徴量とし、出力として、「食事の多少に係る値」、例えば0から10までの食事量値を出力する。なお、この食事量推定モデルの構築処理については、後に説明を行う。 In addition, the meal amount estimation model used is characterized by inputting "amount related to mastication", for example, all of the above (S1) to (S4), and "amount related to smile", for example, the above (E1) and (E2). As the amount, as the output, "value related to the amount of meal", for example, the meal amount value from 0 to 10 is output. The process of constructing this meal amount estimation model will be described later.

食事嗜好決定部113は、「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)に基づき、学習済みの食事嗜好推定モデルを用いて、「食事の嗜好に係る値」を決定する。 The dietary preference determination unit 113 uses a learned dietary preference estimation model based on one or both of "amount related to mastication" and "amount related to smile" (both in the present embodiment), and uses a "meal preference estimation model". "Value related to taste" is determined.

ここで、「食事の嗜好に係る値」は、例えば食事評価の専門家による評価値相当の値とすることも可能ではあるが、そうではなく、例えばユーザが食事における食べ物に対し美味しい(好き)と感じるのか不味い(嫌い)と感じるのかの主観的指標とすることも好ましい。具体的には例えば、0(嫌い)から10(好き)までの食事嗜好値とすることができる。 Here, the "value related to the taste of meal" can be, for example, a value equivalent to the evaluation value by a meal evaluation expert, but it is not so, for example, the user tastes (likes) the food in the meal. It is also preferable to use it as a subjective index of whether it feels unpleasant or unpleasant (dislikes). Specifically, for example, it can be a meal preference value from 0 (dislike) to 10 (like).

また、使用される食事嗜好推定モデルは、「咀嚼に係る量」、例えば上記(S1)~(S6)の全て、並びに「笑みに係る量」、例えば上記(E1)及び(E2)を入力特徴量とし、出力として、「食事の嗜好に係る値」、例えば0から10までの食事嗜好値を出力する。なお、この食事嗜好推定モデルの構築処理についても、後に説明を行う。 In addition, the dietary preference estimation model used is characterized by inputting "amount related to mastication", for example, all of the above (S1) to (S6), and "amount related to smile", for example, the above (E1) and (E2). As an amount, as an output, a "value related to a meal preference", for example, a meal preference value from 0 to 10 is output. The process of constructing this meal preference estimation model will also be described later.

同じく図1の機能ブロック図において、食事ログ生成管理部121は、上述した食事量推定モデル及び食事嗜好推定モデルを構築するのに使用される学習用データを含む「食事ログ」を生成し管理する。 Similarly, in the functional block diagram of FIG. 1, the meal log generation management unit 121 generates and manages a “meal log” including learning data used for constructing the above-mentioned meal amount estimation model and meal preference estimation model. ..

ここで、食事ログは、ユーザによる食事に関するデータを記録したものであり、本実施形態では、上述した(S1)総咀嚼回数、(S2)総咀嚼時間、(S3)総口数、(S4)一口と次の一口との間の総インターバル時間、(S5)総インターバル回数、(S6)咀嚼ペース、(E1)総笑み回数、(E2)総笑み時間とともに、
(A1)ユーザ識別子(ID)、(A2)料理・メニュー名(食事名)、
(B1)食事時間、(B2)食事開始時刻、
(C1)嗜好(食事の嗜好に係る値)、(C2)食事量(食事の多少に係る値)、
(D1)食事形態、(D2)時間的余裕、(D3)心身の調子・状態、
を記録項目として含んでいる。
Here, the meal log records data on meals by the user, and in the present embodiment, the above-mentioned (S1) total number of chews, (S2) total chew time, (S3) total number of mouths, (S4) bite. With the total interval time between and the next bite, (S5) total interval count, (S6) chewing pace, (E1) total smile count, (E2) total smile time,
(A1) User identifier (ID), (A2) Food / menu name (meal name),
(B1) Meal time, (B2) Meal start time,
(C1) Preference (value related to meal preference), (C2) Meal amount (value related to the amount of meal),
(D1) Meal form, (D2) Time allowance, (D3) Mental and physical condition / condition,
Is included as a record item.

ここで、入出力制御部132は、上述した食事ログの記録項目に記録するデータを取得するため、例えばタッチパネル・ディスプレイ106に食事自己評価入力画面を表示させ、ユーザの1回の食事が終了する毎にユーザによるデータ入力を受け取って、食事ログ生成管理部121に提供することも好ましい。 Here, the input / output control unit 132 displays, for example, a meal self-evaluation input screen on the touch panel display 106 in order to acquire the data to be recorded in the above-mentioned meal log recording item, and the user finishes one meal. It is also preferable to receive data input by the user each time and provide it to the meal log generation management unit 121.

具体的に、(A2)の料理・メニュー名は、ユーザによるテキスト入力又は選択によって取得し、(C1)の嗜好(食事の嗜好に係る値)は、ユーザが表示スライダ等を操作することによる、0(嫌い)から10(好き)までの1つの値の設定入力を受け付けて取得することができる。 Specifically, the dish / menu name of (A2) is acquired by text input or selection by the user, and the preference (value related to the meal preference) of (C1) is obtained by the user operating the display slider or the like. It is possible to accept and acquire one value setting input from 0 (dislike) to 10 (like).

また、(B1)の食事時間については、ユーザが食事を開始するにあたり筋電センサ付メガネ2を装着して起動した時刻を、(メガネ2の時計から取得して)食事の開始時刻とし、その後食事を終了するにあたり筋電センサ付メガネ2を停止させた時刻を、(同じくメガネ2の時計から取得して)食事の終了時刻として、これらの時刻の差により食事時間を決定することができる。 Regarding the meal time of (B1), the time when the user wears the glasses 2 with a myoelectric sensor and starts the meal is set as the meal start time (obtained from the clock of the glasses 2), and then the meal time is set. The time when the glasses 2 with a myoelectric sensor are stopped at the end of the meal is set as the end time of the meal (also obtained from the clock of the glasses 2), and the meal time can be determined by the difference between these times.

さらに、(C2)の食事量(食事の多少に係る値)も、ユーザの表示スライダ操作等による、0(少ない)から10(多い)までの1つの値の設定入力を受け付けて取得することができる。 Furthermore, the amount of meal (value related to the amount of meal) in (C2) can also be obtained by accepting the setting input of one value from 0 (less) to 10 (more) by the user's display slider operation or the like. can.

さらにまた、(D1)の食事形態は、ユーザが表示アイコン等を選択して例えばタップ操作することによる、孤食又は会食の設定入力を受け付けて取得し、(D2)の時間的余裕は、ユーザが表示スライダ等を操作することによる、0(急いで食事)から10(ゆったりと食事)までの1つの値の設定入力を受け付けて取得し、(D3)の心身の調子・状態も、ユーザの表示スライダ操作等による、0(絶不調)から10(絶好調)までの1つの値の設定入力を受け付けて取得してもよい。 Furthermore, the meal form of (D1) is acquired by accepting the setting input of lonely meal or dinner by the user selecting a display icon or the like and, for example, tapping, and the time margin of (D2) is the user. Accepts and obtains one value setting input from 0 (quick meal) to 10 (loose meal) by operating the display slider etc., and the physical and mental condition and state of (D3) are also the user's You may accept and acquire the setting input of one value from 0 (absolute condition) to 10 (excellent condition) by operating the display slider or the like.

このように、食事ログ生成管理部121は、生体信号分析結果である(S1)~(S6)、(E1)及び(E2)と、ユーザによる食事自己評価結果である(A1)、(A2)、(B1)、(B2)、(C1)、(C2)、及び(D1)~(D3)とを関連付けて「食事ログ」として記録するのである。 As described above, the meal log generation management unit 121 is the results of biological signal analysis (S1) to (S6), (E1) and (E2), and the results of self-evaluation of meals by the user (A1), (A2). , (B1), (B2), (C1), (C2), and (D1)-(D3) are associated and recorded as a "meal log".

ここで以上に述べた、食事ログに挙げられた記録項目の特徴(食事ログに挙げられる理由)を説明する。(S1)の総咀嚼回数は、嗜好、食事量、時間的余裕、心身の調子・状態等の影響を受けることが考えられる。例えば、食事の量が多ければ噛む回数は増える傾向にある。また、食事が好きな食べ物の場合に、早く食べようとして総咀嚼回数が減る傾向にあったり、逆によく味わおうとして総咀嚼回数が増える傾向にあったり、といったようなユーザの性向にも影響を受けると考えられる。 Here, the characteristics (reasons listed in the meal log) of the recorded items listed in the meal log described above will be described. The total number of chews in (S1) may be affected by taste, amount of food, time allowance, physical and mental condition / condition, and the like. For example, the more food you eat, the more times you chew. It also affects the user's tendency to reduce the total number of chews in order to eat quickly, or to increase the total number of chews in order to taste well. Is considered to receive.

また、(S4)の総インターバル時間は、嗜好、食事形態、時間的余裕、心身の調子・状態の影響を受けることが考えられる。好きな食べ物なら早く食べようとして総インターバル時間が短くなるし、逆に嫌いな食べ物ならば総インターバル時間が長くなることも考えられる。さらに、食事形態が孤食なら会話をしないので短くなり、時間的余裕がなくても短くなるものと考えられる。一方、心身の調子・状態が良くない場合、総インターバル時間は長くなるものと考えられる。 In addition, the total interval time in (S4) may be affected by taste, dietary pattern, time allowance, and mental and physical condition / condition. If you like food, you may try to eat it earlier and the total interval time may be shorter, and if you dislike food, you may want to increase the total interval time. Furthermore, if the eating style is lonely, it will be shorter because there is no conversation, and it will be shorter even if there is no time to spare. On the other hand, if the physical and mental condition is not good, the total interval time is considered to be long.

さらに、(S6)の咀嚼ペースについては、例えば時間的余裕がない場合や、食事形態が孤食であって嗜好が好き(美味い)である場合に早くなることが考えられる。また、(E2)の総笑み時間は、嗜好、食事形態、心身の調子・状態の影響を受けることが考えられる。例えば食事が非常に美味しければ笑顔になるし、また食事中の会話が楽しければ笑顔になるものと考えられる。一方、心身の調子・状態が良くない場合、笑顔が表出しにくいことが考えられる。 Furthermore, it is conceivable that the mastication pace of (S6) will be faster if, for example, there is no time to spare, or if the meal form is lonely and the taste is preferred (delicious). In addition, the total smile time in (E2) may be affected by taste, dietary pattern, and mental and physical condition / condition. For example, if the meal is very delicious, it will make you smile, and if you enjoy the conversation during the meal, you will make a smile. On the other hand, if the physical and mental condition is not good, it may be difficult to express a smile.

また、(B1)の食事時間は、食事量、食事形態、時間的余裕、心身の調子・状態の影響を受けることが考えられる。さらに、(C1)の嗜好(食事の嗜好に係る値)及び(C2)の食事量(食事の多少に係る値)は、食事の際のユーザにおける心身の調子・状態や食欲等に影響を受けると考えられる。 In addition, the meal time of (B1) may be affected by the amount of meal, meal form, time allowance, and mental and physical condition / condition. Furthermore, the preference of (C1) (value related to meal preference) and the amount of meal (value related to the amount of meal) of (C2) are affected by the physical and mental condition / condition and appetite of the user at the time of meal. it is conceivable that.

また、(D1)の食事形態は、食事中に会話がなされる可能性を示す指標となっている。また、(D2)の時間的余裕は、食事に費やしてもよいと思える時間の程度を示す指標である。さらに、(D3)の心身の調子・状態は、ストレス等による精神的不調や、疲労や病気等による身体的不調を表す指標となっている。 In addition, the meal form of (D1) is an index showing the possibility of conversation during meals. In addition, the time margin of (D2) is an index showing the degree of time that can be spent on meals. Furthermore, the mental and physical condition / state of (D3) is an index showing mental disorders due to stress and the like, and physical disorders due to fatigue and illness.

なお、食事ログには、上述した記録項目の他にも、例えば、
(G1)食事に係る画像データ(のID又はファイル名)
(G2)食事に係る音声データ(のID又はファイル名)
(H1)食事位置データ((緯度経度等の)位置データ、住所、店名、自宅か否かの値等)
が記録項目として記録されていることも好ましい。
In addition to the above-mentioned record items, the meal log may contain, for example,
(G1) Image data related to meals (ID or file name)
(G2) Voice data related to meals (ID or file name)
(H1) Meal position data (position data (latitude / longitude, etc.), address, store name, home / non-home value, etc.)
Is also preferably recorded as a record item.

ここで、(G1)の食事に係る画像データは、例えば筋電センサ付メガネ2に、ユーザの視線方向の撮影が可能なカメラ(イメージセンサ)を装着し、食事開始時に食事の食べ物を撮影することによって取得することができる。または、ユーザの携帯する携帯端末1のカメラ105による撮影によって取得されてもよい。 Here, for the image data related to the meal of (G1), for example, a camera (image sensor) capable of taking a picture in the direction of the user's line of sight is attached to the glasses 2 with a myoelectric sensor, and the food of the meal is taken at the start of the meal. Can be obtained by Alternatively, it may be acquired by taking a picture with the camera 105 of the mobile terminal 1 carried by the user.

また、(G2)食事に係る音声データは、例えばユーザの携帯する携帯端末1のマイク107によって、食事中の会話等を録音することによって取得することができる。ここで、取得した音声データに対し、公知の音声認識技術を用い、当該音声がユーザのものであるか否か、当該ユーザ以外の音声が存在しているか否か(会話の相手がいるか否か)を判定し、当該判定結果を紐づけて記録しておくことも好ましい。なお、音声データは、筋電センサ付メガネ2に取り付けられたマイクによって取得されてもよい。 Further, (G2) voice data related to meals can be acquired, for example, by recording a conversation or the like during meals with a microphone 107 of a mobile terminal 1 carried by the user. Here, using known voice recognition technology for the acquired voice data, whether or not the voice belongs to the user, whether or not there is a voice other than the user (whether or not there is a conversation partner). ) Is determined, and it is also preferable to record the determination result in association with each other. The voice data may be acquired by a microphone attached to the glasses 2 with an EMG sensor.

さらに、(H1)の食事位置データは、例えばユーザの携帯する携帯端末1が装備している(GPS等の)測位機能を用いて、食事の際の現在位置(緯度経度)情報を決定することによって取得することができる。例えば、決定した緯度経度情報そのものを食事位置データとしてもよいが、現在位置情報から公知の地図情報検索技術を用いて、現在滞在している場所の飲食店名又は住所情報を取得し、食事位置データとすることもできる。 Further, for the meal position data of (H1), for example, the current position (latitude / longitude) information at the time of meal is determined by using the positioning function (such as GPS) equipped in the mobile terminal 1 carried by the user. Can be obtained by. For example, the determined latitude / longitude information itself may be used as the meal position data, but the restaurant name or address information of the place where the person is currently staying is acquired from the current position information by using a known map information search technique, and the meal position data is obtained. It can also be.

同じく図1の機能ブロック図において、食事量推定モデル構築部122は、「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)に対し、少なくとも「食事の多少に係る値」についてのユーザによる申告情報(食事自己評価結果)を紐づけて記録した「食事ログ」を複数用いて(すなわち「食事ログ」の「食事の多少に係る値」を正解データとして)、学習済みの「食事量推定モデル」を構築する。 Similarly, in the functional block diagram of FIG. 1, the meal amount estimation model construction unit 122 has at least "meal" for one or both of "amount related to chewing" and "amount related to smile" (both in this embodiment). Correct answer data using multiple "meal logs" recorded by associating user-reported information (results of self-evaluation of meals) with respect to "values related to the amount of meals" (that is, "values related to the amount of meals" in the "meal log" As), build a trained "meal estimation model".

また、嗜好推定モデル構築部123は、「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)に対し、少なくとも「食事の嗜好に係る値」についてのユーザによる申告情報(食事自己評価結果)を紐づけて記録した「食事ログ」を複数用いて(すなわち「食事ログ」の「食事の嗜好に係る値」を正解データとして)、学習済みの「食事嗜好推定モデル」を構築する。 In addition, the preference estimation model construction unit 123 has at least a "value related to meal preference" for one or both of "amount related to chewing" and "amount related to smile" (both in the present embodiment). Learned "meal" using multiple "meal logs" recorded by associating user-reported information (meal self-evaluation results) (that is, using the "value related to meal preference" in the "meal log" as correct answer data) Build a "preference estimation model".

ここで、「食事量推定モデル」及び「食事嗜好推定モデル」のいずれも、ニューラルネットワーク等、種々の機械学習アルゴリズムを用いて構築することができる。例えば、0~10の数値となっている記録項目の特徴量について、5以上であるか否かの2値(例えば0又は1)に置き換え、SVM(Support Vector Machine)やランダムフォレスト等の分類器を構築してもよい。 Here, both the "meal amount estimation model" and the "meal preference estimation model" can be constructed by using various machine learning algorithms such as a neural network. For example, the feature amount of the recorded item which is a numerical value of 0 to 10 is replaced with a binary value (for example, 0 or 1) of whether or not it is 5 or more, and a classifier such as SVM (Support Vector Machine) or random forest is used. May be constructed.

また、「食事量推定モデル」及び「食事嗜好推定モデル」のいずれの構築においても、教師データに含まれる特徴量として、上述した(A1)ユーザID、(A2)料理・メニュー名(食事名)、(B1)食事時間、(B2)食事開始時刻、(C1)嗜好(食事の嗜好に係る値)、(C2)食事量(食事の多少に係る値)、(D1)食事形態、(D2)時間的余裕、及び(D3)心身の調子・状態のうちの少なくとも1つが採用されることも好ましい。ここで、特に、(B1)の食事時間を採用することが、推定精度の点でより好ましいことが分かっている。 Further, in the construction of both the "meal amount estimation model" and the "meal preference estimation model", the above-mentioned (A1) user ID and (A2) dish / menu name (meal name) are used as the feature amounts included in the teacher data. , (B1) meal time, (B2) meal start time, (C1) preference (value related to meal preference), (C2) meal amount (value related to the amount of meal), (D1) meal form, (D2) It is also preferable that at least one of the time allowance and (D3) mental and physical condition / state is adopted. Here, in particular, it has been found that it is more preferable to adopt the meal time of (B1) in terms of estimation accuracy.

また当然に、教師データに含まれる特徴量として採用された記録項目は、食事量決定部112において「食事の多少に係る値」を推定する際、さらに、食事嗜好決定部113において「食事の嗜好に係る値」を推定する際、モデルに入力する特徴量として使用されることになる。ここで、「食事の多少に係る値」及び「食事の嗜好に係る値」の推定は、例えば食事毎に(食事ログが生成される度に)実施することができる。 As a matter of course, the recorded item adopted as the feature amount included in the teacher data is, when the meal amount determination unit 112 estimates the "value related to the amount of meal", and further, the meal preference determination unit 113 "meal preference". When estimating "value related to", it will be used as a feature quantity to be input to the model. Here, the estimation of the "value related to the amount of meal" and the "value related to the taste of meal" can be carried out, for example, for each meal (every time a meal log is generated).

また、「食事量推定モデル」及び「食事嗜好推定モデル」のいずれも、生成されて新たに食事ログ保存部103に蓄積された食事ログが所定件数以上となった際に、構築又は更新されることも好ましい。 Further, both the "meal amount estimation model" and the "meal preference estimation model" are constructed or updated when the number of meal logs newly generated and newly stored in the meal log storage unit 103 exceeds a predetermined number. It is also preferable.

なお、食事ログ生成管理部121は、「食事の多少に係る値」及び「食事の嗜好に係る値」の推定結果を含む食事ログを生成してもよい。ここで、例えば当該推定結果を、例えば入出力制御部132を介してタッチパネル・ディスプレイ106に表示させ、ユーザに確認させた上で変更があれば(ユーザによって入力された)変更結果を取得して、食事ログに加える又は食事ログを変更・更新することも好ましい。 The meal log generation management unit 121 may generate a meal log including the estimation results of the "value related to the amount of meal" and the "value related to the taste of meal". Here, for example, the estimation result is displayed on the touch panel display 106 via, for example, the input / output control unit 132, and if there is a change after being confirmed by the user, the change result (input by the user) is acquired. It is also preferable to add to the meal log or change / update the meal log.

これにより、ユーザによる食事ログ項目の入力負担を少なくすることも可能となる。また、食事ログを変更・更新した場合、変更・更新後の食事ログを用いて、「食事量推定モデル」及び「食事嗜好推定モデル」を再構築又は更新することも好ましい。 This also makes it possible to reduce the burden of inputting meal log items by the user. When the meal log is changed / updated, it is also preferable to reconstruct or update the "meal amount estimation model" and the "meal preference estimation model" using the changed / updated meal log.

同じく図1の機能ブロック図において、フィードバック部114は、決定された「食事の多少に係る値」及び「食事の嗜好に係る値」のうちの一方又は両方(本実施形態では両方)に基づき、ユーザの「食事又は健康に関係する情報」を、生成又は選択して提供する。 Similarly, in the functional block diagram of FIG. 1, the feedback unit 114 is based on one or both of the determined “value related to the amount of food” and “value related to food preference” (both in the present embodiment). Generate or select and provide the user's "dietary or health-related information".

例えば、「食事の多少に係る値」が8から10(多い)までに相当する値であれば、予め用意された音声コンテンツから、「食べ過ぎに注意しましょう」等の食事量を減らすことを薦めるコメントを含む音声情報を選択して提供してもよい。この際、予め準備された「***に注意しましょう」との発話テンプレートの「***」部分に、(8から10までに相当する値の場合用に予め設定された)「食べ過ぎ」を選択し挿入して、提供する音声情報を生成することも好ましい。 For example, if the "value related to the amount of food" is a value corresponding to 8 to 10 (more), reduce the amount of food such as "Be careful not to overeat" from the audio content prepared in advance. Audio information, including recommended comments, may be selected and provided. At this time, in the "***" part of the utterance template that says "Be careful of ***" prepared in advance, "Overeating (preset for the case of values corresponding to 8 to 10)" It is also preferable to select and insert "" to generate the audio information to be provided.

また、「食事の多少に係る値」が0(少ない)から3までに相当する値であって「食事の嗜好に係る値」が0(嫌い)から3までに相当する値である場合、予め用意された音声情報から、「メニューを変更してはどうですか」等の食事内容の変更を薦めるコメントを含む音声情報を提供してもよい。ここで勿論、以上に述べた音声情報の代わりに、同内容を提示するテキストを含む画面情報を提供することも好ましい。 In addition, when the "value related to the amount of meal" is a value corresponding to 0 (less) to 3 and the "value related to the taste of meal" is a value corresponding to 0 (dislike) to 3 in advance. From the prepared voice information, voice information including a comment recommending the change of the meal contents such as "How about changing the menu" may be provided. Here, of course, instead of the voice information described above, it is also preferable to provide screen information including a text presenting the same content.

なお、上述した音声情報は、入出力制御部132を介してスピーカ108から出力されてもよく、また画面情報は、入出力制御部132を介してタッチパネル・ディスプレイ106に表示されてもよい。 The above-mentioned voice information may be output from the speaker 108 via the input / output control unit 132, and the screen information may be displayed on the touch panel display 106 via the input / output control unit 132.

いずれにしても、フィードバック部114によって生成又は選択された「食事又は健康に関係する情報」は、一先ずフィードバック情報保存部104に保存され、その後適宜読み出されて、タッチパネル・ディスプレイ106やスピーカ108を介しユーザに提供されることも好ましい。また、通信制御部131及び信号インタフェース101を介し、外部の情報処理装置、例えばスマートスピーカや会話ロボットへ送信され、ユーザに提供されることも可能である。 In any case, the "diet or health-related information" generated or selected by the feedback unit 114 is first stored in the feedback information storage unit 104, and then appropriately read out to display the touch panel display 106 and the speaker 108. It is also preferable that it is provided to the user via. Further, it can be transmitted to an external information processing device such as a smart speaker or a conversation robot via the communication control unit 131 and the signal interface 101 and provided to the user.

ちなみに、この会話ロボットがカメラを有し、ここで撮影された食事画像を、「食事ログ」における(G1)の食事に係る画像データとしてもよい。この場合、会話ロボットがユーザの食事を見て、当該食事に関する会話を当該ユーザとの間で交わす、といったような状況をつくることも可能となるのである。 Incidentally, this conversation robot has a camera, and the meal image taken here may be used as image data related to the meal of (G1) in the "meal log". In this case, it is possible to create a situation in which the conversation robot sees the user's meal and exchanges a conversation about the meal with the user.

さらに、フィードバック部114は、上記の「食事の多少に係る値」及び「食事の嗜好に係る値」だけでなく、少なくとも1つの過去の時点に係る「食事ログ」にも基づいて、ユーザの「食事又は健康に関係する情報」を生成又は選択することも好ましい。 Further, the feedback unit 114 is based on not only the above-mentioned "value related to the amount of meal" and "value related to the taste of meal" but also the "meal log" related to at least one past time point, and the user's "value". It is also preferable to generate or select "dietary or health-related information".

例えば、フィードバック部114は、食事ログにおける上述した(S1)の総咀嚼回数、(S4)の総インターバル時間、及び(S6)咀嚼ペースのうちの「少なくとも1つ」にも基づいて、当該「少なくとも1つ」と「食事の多少に係る値」とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、ユーザの「食事又は健康に関係する情報」とすることも好ましい。 For example, the feedback unit 114 may use the "at least one" of the above-mentioned total number of chews of (S1), total interval time of (S4), and (S6) chewing pace in the meal log. It is also preferable to select at least one from preset music or audio contents according to the conditions satisfied by "one" and "value related to the amount of meal" and use it as "information related to meal or health" of the user.

具体的には、例えば、食事中における(S1)の総咀嚼回数の単位時間当たりの増加分、すなわち咀嚼回数増加率が所定閾値を上回る場合、ユーザの食事のペース(咀嚼ペース)が曲と同調して低くなることを目的として、予め準備された、例えばテンポが1.1~1.2Hz(66~76bpm)程度のAndante(歩く速さで)の曲を再生してもよい。 Specifically, for example, when the increase in the total number of chews of (S1) during a meal per unit time, that is, when the rate of increase in the number of chews exceeds a predetermined threshold, the pace of the user's meal (chewing pace) is synchronized with the song. You may play Andante (at walking speed) songs prepared in advance, for example, with a tempo of about 1.1 to 1.2 Hz (66 to 76 bpm), for the purpose of lowering the temperature.

一方、咀嚼回数増加率が上記の所定閾値を下回る場合、ユーザの食事のペース(咀嚼ペース)が曲と同調して高くなることを目的として、予め準備された、例えばテンポが1.2~1.5Hz(76~96bpm)程度のModerato(モデラート)(中くらいの速さで)の曲を再生してもよい。 On the other hand, when the rate of increase in the number of chews is lower than the above-mentioned predetermined threshold, the tempo prepared in advance, for example, 1.2 to 1.5 Hz (for example,) is prepared in advance for the purpose of increasing the pace of the user's meal (chewing pace) in synchronization with the song. You may play Moderato songs (at medium speed) of around 76-96bpm.

なお、上述した咀嚼回数増加率の所定閾値については、例えば、蓄積した食事ログの集合から、
(10) 「平均咀嚼ペース」=「総咀嚼回数の和」/「総食事時間の和」(単位は、回/秒)
を算出し、この「平均咀嚼ペース」を所定閾値とすることができる。
Regarding the predetermined threshold value of the above-mentioned increase rate of the number of chews, for example, from the set of accumulated meal logs,
(10) "Average chewing pace" = "sum of total chewing frequency" / "sum of total meal time" (unit: times / second)
Can be calculated and this "average chewing pace" can be set as a predetermined threshold value.

ちなみに、食事経過時間に対する「予想総咀嚼回数」は、「予想総咀嚼回数」=「平均咀嚼ペース」×「食事経過時間」(単位は、回)として求めることができる。 By the way, the "estimated total number of chews" for the elapsed meal time can be obtained as "estimated total number of chews" = "average chewing pace" x "elapsed meal time" (unit: times).

また変更態様として、咀嚼回数増加率が(「平均咀嚼ペース」-p1(所定の正値))と(「平均咀嚼ペース」+p2(所定の正値))との間にある場合、ユーザの食事のペースは適切であるとして、ユーザを褒めるための所定のフィードバックコンテンツを再生することも好ましい。 As a modification, when the rate of increase in the number of mastications is between (“average mastication pace” −p 1 (predetermined positive value)) and (“average mastication pace” + p 2 (predetermined positive value)), the user It is also preferable to play a given feedback content to compliment the user, assuming that the pace of the meal is appropriate.

さらに、食事終了後、取得された(B1)の食事時間や(S1)の総咀嚼回数に応じて、目標値との差を示し目標値へ向かうためのアドバイスを含む音声を再生してもよい。またさらに、単に(S1)の総咀嚼回数が500回に達した時点で、例えば目標である1000回の半分に達した旨を示す音声を再生し、次いで目標の1000回に到達した時点で、賞賛を示す音声を再生することもできる。 Furthermore, after the meal is completed, a voice including advice for showing a difference from the target value and moving toward the target value may be played according to the acquired meal time of (B1) and the total number of chews of (S1). .. Furthermore, when the total number of chews of (S1) reaches 500 times, for example, a voice indicating that half of the target of 1000 times is reached is played, and then when the target of 1000 times is reached, the voice is played. You can also play a voice that shows praise.

さらに、「食事の嗜好に係る値」が0(嫌い)から3までに相当する値である場合に、ジョークコンテンツを再生し、笑みを生じさせて味覚に関し肯定的に錯覚させることもできる。 Further, when the "value related to the taste of meal" is a value corresponding to 0 (dislike) to 3, the joke content can be reproduced to cause a smile and give a positive illusion regarding the taste.

また、フィードバック部114は、食事ログにおける上述した(E1)の総笑み回数及び/又は(E2)の総笑み時間にも基づいて、総笑み回数及び/又は総笑み時間と「食事の多少に係る値」とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、ユーザの「食事又は健康に関係する情報」とすることも好ましい。例えば、総笑み回数が所定閾値を下回る場合に、予め用意された「本日のダジャレ」等の音声コンテンツを提供してもよい。 Further, the feedback unit 114 determines the total number of smiles and / or the total smile time and "the amount of meal" based on the total number of smiles (E1) and / or the total smile time of (E2) described above in the meal log. It is also preferable to select at least one of the music or audio contents preset according to the condition that the "value" is satisfied and use it as the user's "information related to diet or health". For example, when the total number of smiles falls below a predetermined threshold value, audio content such as "Today's pun" prepared in advance may be provided.

また、フィードバック部114は、食事ログにおける上述した(G2)の食事に係る音声データ及び/又は(H1)の食事位置データにも基づいて、ユーザの「食事又は健康に関係する情報」を、生成又は選択することも好ましい。 Further, the feedback unit 114 generates "information related to meal or health" of the user based on the above-mentioned voice data related to the meal of (G2) and / or the meal position data of (H1) in the meal log. Alternatively, it is also preferable to select.

例えば、食事に係る音声データの識別結果から、ユーザは会話している(会食中である)と判定した場合、予め用意された会食向きのコンテンツを選択して再生してもよい。ここで、会話の妨げとならない音楽コンテンツを選択したり、会話が途切れた際に例えばお笑いコンテンツを選択したりすることも好ましい。 For example, when it is determined that the user is talking (during a meal) from the identification result of the voice data related to the meal, the content suitable for the meal prepared in advance may be selected and played. Here, it is also preferable to select music content that does not interfere with the conversation, or to select, for example, comedy content when the conversation is interrupted.

また、フィードバック部114は、食事ログ保存部103に保存された過去の食事ログに対し、集計分析する食事履歴評価機能を備えていてもよい。例えば過去1週間分の食事ログを集計し分析することも好ましい。 Further, the feedback unit 114 may have a meal history evaluation function that aggregates and analyzes past meal logs stored in the meal log storage unit 103. For example, it is also preferable to aggregate and analyze meal logs for the past week.

具体的に、フィードバック部114は、例えば連続して2食以上において、「食事の嗜好に係る値」が0(嫌い)から3までに相当する値となった場合、心身の不調の可能性を勘案して、ユーザに対し、体調を気遣う内容の音声コンテンツを再生し提供することも好ましい。その他、咀嚼ペースが平均咀嚼ペースよりも遅い場合や、画像に基づき推定された食事量から想定される咀嚼回数と比較して計測された総咀嚼回数がより少ない場合、逆に、当該食事量から想定される食事時間と比較して計測された食事時間がより長い場合、さらには、ジョークコンテンツを再生しても笑みが全く計測されない場合にも、心身の不調の可能性を勘案したフィードバックを行うことができる。 Specifically, the feedback unit 114 raises the possibility of physical and mental disorders when, for example, in two or more consecutive meals, the "value related to meal preference" becomes a value corresponding to 0 (dislike) to 3. In consideration of this, it is also preferable to reproduce and provide the audio content of the content that cares about the physical condition to the user. In addition, when the mastication pace is slower than the average mastication pace, or when the total number of mastications measured is smaller than the total number of mastications estimated from the amount of meal estimated based on the image, conversely, from the amount of the meal. If the measured meal time is longer than the expected meal time, or even if the mastication is not measured at all when playing the joke content, we will give feedback considering the possibility of physical and mental disorders. be able to.

また、フィードバック部114は、例えば食事の開始時に「1食につき1000回以上咀嚼する」や「食事時間に20分以上を費やす」等の目標を提示し、食事ログの集計結果に基づき、食事毎に、目標達成状況をユーザに提示することも好ましい。ここで、目標達成期間を例えば2週間としてユーザに提示し、当該期間内に目標が達成された場合に、ユーザを賞賛する音声コンテンツを再生してもよい。 In addition, the feedback unit 114 presents goals such as "chewing 1000 times or more per meal" and "spend 20 minutes or more on meal time" at the start of a meal, and based on the aggregated result of the meal log, each meal. It is also preferable to present the achievement status of the goal to the user. Here, the target achievement period may be presented to the user as, for example, two weeks, and if the target is achieved within the period, the audio content praising the user may be played.

さらに、同一の食事位置データ(例えば同一飲食店名)の食事ログを集計し、当該食事位置(当該飲食店)における過去の食事を振り返るための情報を提示してもよい。また、当該食事位置における(B1)の食事時間(の平均値)が所定閾値を下回る場合(例えば行きつけの定食屋において食事時間が総じて短い傾向にある場合)、当該食事位置での食事開始時に、食事により多くの時間をかけることを薦める内容の音声コンテンツを提供することができる。 Further, the meal logs of the same meal position data (for example, the same restaurant name) may be aggregated and information for looking back on the past meals at the meal position (the restaurant) may be presented. In addition, when the meal time (average value) of (B1) at the meal position is below a predetermined threshold (for example, when the meal time tends to be generally short at a favorite set meal shop), at the start of meal at the meal position, It is possible to provide audio content that recommends spending more time on meals.

さらに、飲食店毎に食事時間、咀嚼回数や、嗜好等の統計値をとり、当該飲食店を比較した情報を生成してユーザに提示することも可能である。 Further, it is also possible to take statistical values such as meal time, number of chews, and preferences for each restaurant, generate information comparing the restaurants, and present it to the user.

また、フィードバック部114は、過去の食事ログを集計してランキング情報を生成してユーザに提供することも好ましい。具体的には、総咀嚼回数の多さ、食事時間の長さや、嗜好の高さについて最上位、第2位及び第3位となる3つの食事の情報、例えば(G1)の食事画像をユーザに提示してもよい。これにより、ユーザは過去の食事をふり返って楽しんだり、今後の食生活の参考にしたりすることができる。 It is also preferable that the feedback unit 114 aggregates past meal logs, generates ranking information, and provides it to the user. Specifically, the user obtains information on three meals, for example, (G1), which are the highest, second, and third in terms of the number of total chews, the length of meal time, and the height of preference. May be presented to. As a result, the user can look back on past meals and enjoy them, or use them as a reference for future eating habits.

[食事評価方法]
図4は、本発明による食事評価方法の一実施形態を概略的に説明するための模式図である。
[Meal evaluation method]
FIG. 4 is a schematic diagram for schematically explaining an embodiment of the dietary evaluation method according to the present invention.

図4に示すように、本実施形態の食事評価装置1においては、最初に、筋電センサ付メガネ2から取得された「筋電信号」から、「咀嚼に係る量」及び「笑みに係る量」が生成される。次いでこれらの量から、学習済みの食事量推定モデルを用いて「食事の多少に係る値」が推定され、また同じくこれらの量から、学習済みの食事嗜好推定モデルを用いて「食事の嗜好に係る値」が推定される。 As shown in FIG. 4, in the meal evaluation device 1 of the present embodiment, first, from the "myoelectric signal" acquired from the glasses 2 with a myoelectric sensor, "amount related to mastication" and "amount related to smile". Is generated. Then, from these amounts, the "value related to the amount of meal" is estimated using the learned meal amount estimation model, and also from these amounts, the "diet preference" is estimated using the learned meal preference estimation model. "Relevant value" is estimated.

食事評価装置1はこの後、推定した「食事の多少に係る値」及び「食事の嗜好に係る値」に基づいて、「食事又は健康に関係する情報」を生成又は選択し、ユーザに提供する。すなわち、食事評価装置1は結局、取得した「筋電信号」から、ユーザにとって好適な「食事又は健康に関係する情報」を決定するのである。 After that, the meal evaluation device 1 generates or selects "information related to meals or health" based on the estimated "values related to the amount of meals" and "values related to meal preferences" and provides them to the user. .. That is, the dietary evaluation device 1 eventually determines "information related to diet or health" suitable for the user from the acquired "myoelectric signal".

ここで、本食事評価方法の主要構成要素である食事量推定モデル及び食事嗜好推定モデルは、同じく図4に示すように、生成された「食事ログ」の記録内容を用いて学習処理を実施することによって構築される。なお、この「食事ログ」は、ユーザによる「食事自己評価結果」と、生成された「咀嚼に係る量」及び「笑みに係る量」とから生成されるのである。 Here, the meal amount estimation model and the meal preference estimation model, which are the main components of the present meal evaluation method, carry out the learning process using the recorded contents of the generated "meal log" as also shown in FIG. It is built by. It should be noted that this "meal log" is generated from the "meal self-evaluation result" by the user and the generated "amount related to chewing" and "amount related to smile".

[食事評価システム]
図5は、本発明による食事評価システムの他の実施形態を示す模式図である。
[Meal evaluation system]
FIG. 5 is a schematic diagram showing another embodiment of the dietary evaluation system according to the present invention.

図5に示すように、本実施形態の食事評価システムは、
(a)筋電センサ付メガネ2から生体信号(筋電信号)を取得する携帯端末4と、
(b)携帯端末4と通信接続された食事評価サーバ3と
を備えている。
As shown in FIG. 5, the meal evaluation system of the present embodiment is
(A) A mobile terminal 4 that acquires a biological signal (myoelectric signal) from glasses 2 with a myoelectric sensor, and
(B) A meal evaluation server 3 connected to a mobile terminal 4 by communication is provided.

同じく図5における上側の機能ブロック図において、携帯端末4は、信号インタフェース401と、通信インタフェース402と、咀嚼・笑み情報保存部403と、フィードバック情報保存部404と、カメラ405と、タッチパネル・ディスプレイ(TP・DP)406と、スピーカ407と、プロセッサ・メモリとを有する。 Similarly, in the upper functional block diagram in FIG. 5, the mobile terminal 4 has a signal interface 401, a communication interface 402, a chewing / smile information storage unit 403, a feedback information storage unit 404, a camera 405, and a touch panel display ( It has a TP / DP) 406, a speaker 407, and a processor memory.

ここで、このプロセッサ・メモリは、本発明による端末側の食事評価プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この端末側の食事評価プログラムを実行することによって、端末側での食事評価処理を実施する。このことから、携帯端末4は、本発明による端末側の食事評価プログラムを搭載した、例えばパーソナルコンピュータ(PC)、ノート型若しくはタブレット型コンピュータ、又はスマートフォン等であってもよい。 Here, this processor memory stores one embodiment of the meal evaluation program on the terminal side according to the present invention, and also has a computer function, and by executing the meal evaluation program on the terminal side. , Carry out meal evaluation processing on the terminal side. For this reason, the mobile terminal 4 may be, for example, a personal computer (PC), a notebook or tablet computer, a smartphone, or the like equipped with the terminal-side meal evaluation program according to the present invention.

さらに、プロセッサ・メモリは、生体信号情報決定部411と、フィードバック部412と、通信制御部421と、入出力制御部422とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された、本発明による端末側の食事評価プログラムの機能と捉えることができる。また、図5における携帯端末4の機能構成部間を矢印で接続して示した処理の流れは、本発明による端末側での食事評価方法の一実施形態としても理解される。 Further, the processor memory has a biological signal information determination unit 411, a feedback unit 412, a communication control unit 421, and an input / output control unit 422. It should be noted that these functional components can be regarded as the functions of the meal evaluation program on the terminal side according to the present invention, which are stored in the processor memory. Further, the processing flow shown by connecting the functional components of the mobile terminal 4 in FIG. 5 with arrows is also understood as an embodiment of the meal evaluation method on the terminal side according to the present invention.

また、同じく図5における下側の機能ブロック図において、食事評価サーバ3は、通信インタフェース301と、咀嚼・笑み情報保存部302と、食事ログ保存部303と、プロセッサ・メモリとを有する。 Further, in the lower functional block diagram of FIG. 5, the meal evaluation server 3 has a communication interface 301, a mastication / smile information storage unit 302, a meal log storage unit 303, and a processor memory.

ここで、このプロセッサ・メモリは、本発明によるサーバ側の食事評価プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、このサーバ側の食事評価プログラムを実行することによって、サーバ側での食事評価処理を実施する。このことから、食事評価サーバ3は、本発明によるサーバ側の食事評価プログラムを搭載した、例えばパーソナルコンピュータ(PC)、又はノート型コンピュータ等であってもよい。 Here, this processor memory stores one embodiment of the server-side meal evaluation program according to the present invention, and also has a computer function by executing the server-side meal evaluation program. , Carry out meal evaluation processing on the server side. For this reason, the meal evaluation server 3 may be, for example, a personal computer (PC), a notebook computer, or the like equipped with the server-side meal evaluation program according to the present invention.

さらに、プロセッサ・メモリは、画像情報決定部311と、食事量決定部312と、食事嗜好決定部313と、食事ログ生成管理部321と、食事量推定モデル構築部322と、嗜好推定モデル構築部323と、通信制御部331とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存されたサーバ側の食事評価プログラムの機能と捉えることができる。また、図5における食事評価サーバ3の機能構成部間を矢印で接続して示した処理の流れは、本発明によるサーバ側での食事評価方法の一実施形態としても理解される。 Further, the processor memory includes an image information determination unit 311, a meal amount determination unit 312, a meal preference determination unit 313, a meal log generation management unit 321 and a meal amount estimation model construction unit 322, and a preference estimation model construction unit. It has 323 and a communication control unit 331. It should be noted that these functional components can be regarded as the functions of the server-side meal evaluation program stored in the processor memory. Further, the processing flow shown by connecting the functional components of the meal evaluation server 3 in FIG. 5 with arrows is also understood as an embodiment of the meal evaluation method on the server side according to the present invention.

ここで、携帯端末4及び食事評価サーバ3における機能構成部のうち、図1の携帯端末1の機能構成部の中に同名のものがある機能構成部は、当該同名の機能構成部と概ね同様の機能を有しており、ここでは説明を省略する。以下、本食事評価システムにおいて特徴的な役割を果たす機能構成部について説明を行う。 Here, among the functional component units in the mobile terminal 4 and the meal evaluation server 3, the functional component unit having the same name among the functional component units of the mobile terminal 1 in FIG. 1 is substantially the same as the functional component unit having the same name. It has the function of, and the description is omitted here. Hereinafter, the functional components that play a characteristic role in this meal evaluation system will be described.

ちなみに、本実施形態の食事評価システムにおいては、食事評価サーバ3に対し、複数の携帯端末4が通信接続可能となっている。したがって、食事評価サーバ3の食事ログ生成管理部321が生成し管理する食事ログは、該当するユーザの(A1)ユーザID毎に区分けして保存・管理されており、また、食事量決定部312及び食事嗜好決定部313では、ユーザID毎に「食事の多少に係る量」及び「食事の嗜好に係る量」が決定され、これらの量が、該当するユーザの携帯端末4に宛てて送信される。 Incidentally, in the meal evaluation system of the present embodiment, a plurality of mobile terminals 4 can be connected to the meal evaluation server 3 by communication. Therefore, the meal log generated and managed by the meal log generation management unit 321 of the meal evaluation server 3 is stored and managed separately for each (A1) user ID of the corresponding user, and the meal amount determination unit 312 is also stored and managed. And the meal preference determination unit 313 determines "amount related to the amount of meal" and "amount related to meal preference" for each user ID, and these amounts are transmitted to the mobile terminal 4 of the corresponding user. To.

食事評価サーバ3の画像情報決定部311は、携帯端末4のカメラ405で生成されたユーザの食事に係る「画像情報」を、通信インタフェース301及び通信制御部331を介して取得し、
(a)取得した「画像情報」に基づき、公知の画像認識モデル構築技術を用いて構築された学習済みの「画像食事種別推定モデル」及び「画像食事量推定モデル」のうちの一方又は両方(本実施形態では両方)を用いて、ユーザの食事における「食事種別情報(例えば料理・メニュー名)」及び「食事の多少に係る量」のうちの一方又は両方(本実施形態では両方)を決定し、さらに、
(b)決定した「食事種別情報(料理・メニュー名)」及び「食事の多少に係る量」のうちの一方又は両方(本実施形態では両方)に基づき、学習済みの「生体信号情報推定モデル(本実施形態では、咀嚼関連量推定モデル及び笑み関連量推定モデル)」を用いて、ユーザの「咀嚼に係る量」及び「笑みに係る量」のうちの一方又は両方(本実施形態では両方)を決定する。
The image information determination unit 311 of the meal evaluation server 3 acquires "image information" related to the user's meal generated by the camera 405 of the mobile terminal 4 via the communication interface 301 and the communication control unit 331.
(A) One or both of the trained "image meal type estimation model" and "image meal amount estimation model" constructed by using a known image recognition model construction technique based on the acquired "image information" (a) In this embodiment, both) are used to determine one or both (both in this embodiment) of "meal type information (for example, food / menu name)" and "amount related to the amount of meal" in the user's meal. And then,
(B) A trained "biological signal information estimation model" based on one or both of the determined "meal type information (cooking / menu name)" and "amount related to the amount of meal" (both in this embodiment). (In this embodiment, a mastication-related amount estimation model and a smile-related amount estimation model) ”, one or both of the user's“ mastication-related amount ”and“ smile-related amount ”(both in this embodiment). ) Is determined.

次いで、このように画像情報決定部311で決定された「咀嚼に係る量」及び「笑みに係る量」を入力した食事量決定部312は、図1の携帯端末1での処理と同様、学習済みの「食事量推定モデル」を用いて「食事の多少に係る値」を生成する。さらに、画像情報決定部311で決定された「咀嚼に係る量」及び「笑みに係る量」を入力した食事嗜好決定部313は、図1の携帯端末1での処理と同様、学習済みの「食事嗜好推定モデル」を用いて「食事の嗜好に係る値」を生成するのである。 Next, the meal amount determination unit 312 in which the "amount related to chewing" and the "amount related to smile" determined by the image information determination unit 311 are input, learns in the same manner as the process in the mobile terminal 1 of FIG. Using the completed "meal amount estimation model", a "value related to the amount of food" is generated. Further, the meal preference determination unit 313 in which the “amount related to chewing” and the “amount related to smile” determined by the image information determination unit 311 are input, is the same as the process in the mobile terminal 1 of FIG. The "value related to the meal preference" is generated by using the "meal preference estimation model".

次いで、このように生成された「食事の多少に係る値」及び「食事の嗜好に係る値」は、通信制御部331及び通信インタフェース301を介し、携帯端末4(のフィードバック部412)へ送信される。次いで、携帯端末4のフィードバック部412は、図1の携帯端末1での処理と同様、これらの「食事の多少に係る値」及び「食事の嗜好に係る値」に基づき、ユーザの「食事又は健康に関係する情報」を、生成又は選択してユーザに提供するのである。 Next, the "value related to the amount of meal" and the "value related to the taste of meal" generated in this way are transmitted to the mobile terminal 4 (feedback unit 412) via the communication control unit 331 and the communication interface 301. To. Next, the feedback unit 412 of the mobile terminal 4 is based on the "value related to the amount of meal" and the "value related to the taste of meal" of the user, as in the process of the mobile terminal 1 of FIG. "Health-related information" is generated or selected and provided to the user.

ここで、食事評価サーバ3における「食事量推定モデル」及び「食事嗜好推定モデル」は、図1の携帯端末1での処理と同様、食事ログ生成管理部321で生成された食事ログを用い、過去の「咀嚼に係る量」及び「笑みに係る量」によって学習を行って構築される。 Here, the "meal amount estimation model" and the "meal preference estimation model" in the meal evaluation server 3 use the meal log generated by the meal log generation management unit 321 as in the process of the mobile terminal 1 of FIG. It is constructed by learning from the past "amount related to chewing" and "amount related to smile".

また、「咀嚼関連量推定モデル」及び「笑み関連量推定モデル」も、食事ログ生成管理部321で生成された食事ログを用いて構築することができる。さらに、「画像食事種別推定モデル」及び「画像食事量推定モデル」の学習の際に使用される料理・メニュー名(食事名)や食事量も、食事ログに記録された情報を利用することができる。 Further, the "chewing-related amount estimation model" and the "smile-related amount estimation model" can also be constructed using the meal log generated by the meal log generation management unit 321. Furthermore, the information recorded in the meal log can be used for the food / menu name (meal name) and meal amount used when learning the "image meal type estimation model" and the "image meal amount estimation model". can.

ちなみに、本実施形態において、食事ログ生成管理部321は、携帯端末4の生体信号情報決定部411において(筋電信号から)生成された「咀嚼に係る量」及び「笑みに係る量」を携帯端末4から取得し、さらに携帯端末4に入力されたユーザによる食事自己評価結果を同じく携帯端末4から取得して、食事ログを生成するのである。 By the way, in the present embodiment, the meal log generation management unit 321 carries the "amount related to chewing" and the "amount related to smile" generated (from the myoelectric signal) by the biological signal information determination unit 411 of the mobile terminal 4. The meal self-evaluation result by the user acquired from the terminal 4 and further input to the mobile terminal 4 is also acquired from the mobile terminal 4 to generate a meal log.

ここで、本食事評価システムにおける食事評価の具体例を説明する。最初、携帯端末4は、ユーザの食事開始時に、カメラ405によって生成した食事画像を食事評価サーバ3へ送信する。食事評価サーバ3は、受信した食事画像を処理し、「食事の多少に係る値」及び「食事の嗜好に係る値」を生成して携帯端末4へ返信する。 Here, a specific example of meal evaluation in this meal evaluation system will be described. First, the mobile terminal 4 transmits the meal image generated by the camera 405 to the meal evaluation server 3 at the start of the user's meal. The meal evaluation server 3 processes the received meal image, generates a "value related to the amount of meal" and a "value related to the taste of meal", and returns it to the mobile terminal 4.

次いで、これらの値を取得した携帯端末4のフィードバック部412は、ユーザの「食事又は健康に関係する情報」を、生成又は選択してユーザに提供する。この提供される「食事又は健康に関係する情報」の1つの例として、料理・メニュー名が「カレー」であることを(食事画像から)推定した場合に、「大好きなカレーだね。カレーライスやシチューはあまり咀嚼回数が伸びない傾向があるから、意識して噛むようにしてね」との注意喚起の内容を含む音声コンテンツを生成してもよい。 Next, the feedback unit 412 of the mobile terminal 4 that has acquired these values generates or selects the user's "information related to diet or health" and provides the user with the user. As an example of this "meal or health-related information" provided, when it is estimated (from the meal image) that the dish / menu name is "curry", "it's my favorite curry. Curry rice. And stew tend not to increase the number of chews so much, so be sure to chew consciously. "

また、料理・メニュー名が「ラーメン」であると推定した場合、「今日はラーメンだね。スープは残す方が良いね。」といった注意喚起の内容を含む音声コンテンツを生成することも可能である。さらに、料理・メニュー名が推定できない場合でも、推定した「食事の多少に係る値」から、推定した食事時間に基づきアドバイスを選択又は生成することも好ましく、「量がたくさんあるね。それでも30分くらいかけて、ゆっくり食事を楽しんでね」等の音声コンテンツを生成してフィードバックしてもよい。 Also, if it is estimated that the name of the dish / menu is "ramen", it is possible to generate audio content that includes a warning content such as "Today is ramen. It is better to leave the soup." .. Furthermore, even if the food / menu name cannot be estimated, it is preferable to select or generate advice based on the estimated meal time from the estimated "value related to the amount of meal", and "there is a lot. Still 30 minutes. You may generate audio content such as "Please enjoy your meal slowly" and give feedback.

ちなみに更なる他の実施形態として、携帯端末1(図1)が、画像情報処理部111a(図1)を有し、この画像情報処理部111aは、上記の(食事評価サーバ3の)画像情報決定部311と同様の機能を有し、同様の処理を行って、ユーザの「咀嚼に係る量」及び/又は「笑みに係る量」を決定することも好ましい。すなわちこの場合、携帯端末1は、携帯端末4及び食事評価サーバ3を含む食事評価システム相当の処理を実施することになる。 Incidentally, as still another embodiment, the mobile terminal 1 (FIG. 1) has an image information processing unit 111a (FIG. 1), and the image information processing unit 111a has the above-mentioned image information (of the meal evaluation server 3). It is also preferable to have the same function as the determination unit 311 and perform the same processing to determine the "amount related to chewing" and / or the "amount related to smile" of the user. That is, in this case, the mobile terminal 1 carries out processing equivalent to the meal evaluation system including the mobile terminal 4 and the meal evaluation server 3.

[食事評価方法]
図6は、本発明による食事評価方法の他の実施形態を概略的に説明するための模式図である。
[Meal evaluation method]
FIG. 6 is a schematic diagram for schematically explaining another embodiment of the dietary evaluation method according to the present invention.

図6に示すように、本実施形態の食事評価システム(携帯端末4及び食事評価サーバ3)においては、最初に、筋電センサ付メガネ2から取得された「筋電信号」から、「咀嚼に係る量」及び「笑みに係る量」が生成される。次いでこれらの量と、ユーザによる「食事自己評価結果」とから「食事ログ」が生成され、さらに、生成された「食事ログ」の記録内容を用いて学習処理を実施することによって、咀嚼関連量推定モデル及び笑み関連量推定モデルが構築される。また、図4に示した実施形態と同様、この「食事ログ」から、食事量推定モデル及び食事嗜好推定モデルも構築される。 As shown in FIG. 6, in the meal evaluation system (portable terminal 4 and meal evaluation server 3) of the present embodiment, first, from the "myoelectric signal" acquired from the glasses 2 with a myoelectric sensor, "to chew". "Amount" and "amount related to smile" are generated. Next, a "meal log" is generated from these amounts and the "meal self-evaluation result" by the user, and further, a learning process is performed using the recorded contents of the generated "meal log" to perform a chewing-related amount. An estimation model and a smile-related quantity estimation model are constructed. Further, as in the embodiment shown in FIG. 4, a meal amount estimation model and a meal preference estimation model are also constructed from this “meal log”.

さらに、本食事評価システムにおいては、取得されたユーザの食事に係る「画像情報(食事画像)」から、公知の画像認識技術を用いた画像食事種別推定モデルによって「料理・メニュー名」が推定され、また同じく「画像情報」から、公知の画像認識技術を用いた画像食事量推定モデルによって「食事の多少に係る値」が推定される。 Further, in this meal evaluation system, the "meal / menu name" is estimated from the acquired "image information (meal image)" related to the user's meal by an image meal type estimation model using a known image recognition technology. Also, from the "image information", the "value related to the amount of meal" is estimated by an image meal amount estimation model using a known image recognition technique.

次いで、推定された「料理・メニュー名」及び「食事の多少に係る値」から、学習済みの咀嚼関連量推定モデルを用いて「咀嚼に係る量」が推定され、また同じくこれらのデータから、学習済みの笑み関連量推定モデルを用いて「笑みに係る量」が推定される。 Next, from the estimated "cooking / menu name" and "value related to the amount of meal", the "amount related to mastication" is estimated using the learned mastication-related amount estimation model, and also from these data. The "amount related to mastication" is estimated using the trained mastication-related amount estimation model.

さらに、推定された「咀嚼に係る量」及び「笑みに係る量」から、学習済みの食事量推定モデルを用いて「食事の多少に係る値」が推定され、また同じくこれらの量から、学習済みの食事嗜好推定モデルを用いて「食事の嗜好に係る値」が推定される。 Furthermore, from the estimated "amount related to chewing" and "amount related to smile", "value related to the amount of meal" is estimated using the learned meal amount estimation model, and also learned from these amounts. The "value related to the dietary preference" is estimated using the completed dietary preference estimation model.

本食事評価システムはこの後、推定した「食事の多少に係る値」及び「食事の嗜好に係る値」に基づいて、「食事又は健康に関係する情報」を生成又は選択し、ユーザに提供する。すなわち、本食事評価システムは結局、取得した「筋電信号」から構築した推定モデルを利用し、ユーザにとって好適な「食事又は健康に関係する情報」を決定するのである。 The meal evaluation system subsequently generates or selects "information related to meals or health" based on the estimated "values related to the amount of meals" and "values related to meal preferences" and provides them to the user. .. That is, in the end, this dietary evaluation system uses an estimation model constructed from the acquired "myoelectric signal" to determine "information related to diet or health" suitable for the user.

以上詳細に説明したように、本発明によれば、取得した生体信号に基づいてユーザの「食事又は健康に関係する情報」を提供するにあたり、少なくとも「食事の多少に係る値」を勘案することによって、より適切な情報提供を行うことができる。 As described in detail above, according to the present invention, in providing the user's "information related to diet or health" based on the acquired biological signal, at least "value related to the amount of diet" is taken into consideration. This makes it possible to provide more appropriate information.

したがって、例えば高齢者介護現場や医療現場において、高齢者や患者の食事に対し、適切なアドバイスを行ったり、食事に好適な状況・環境を提供したりすることも可能となるのである。 Therefore, for example, in the elderly care field or the medical field, it is possible to give appropriate advice to the meals of the elderly and patients, and to provide a situation / environment suitable for meals.

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 With respect to the various embodiments of the present invention described above, various changes, modifications and omissions within the scope of the technical idea and viewpoint of the present invention can be easily carried out by those skilled in the art. The above explanation is just an example and does not attempt to limit anything. The present invention is limited only to the scope of claims and their equivalents.

1 携帯端末(食事評価装置)
101、401 信号インタフェース
102、302、403 咀嚼・笑み情報保存部
103、303 食事ログ保存部
104、404 フィードバック情報保存部
105、405 カメラ
106、406 タッチパネル・ディスプレイ(TP・DP)
107 マイク
108、407 スピーカ
111、411 生体信号情報決定部
111a 画像情報処理部
112、312 食事量決定部
113、313 食事嗜好決定部
114、412 フィードバック部
121、321 食事ログ生成管理部
122、322 食事量推定モデル構築部
123、323 嗜好推定モデル構築部
131、331、421 通信制御部
132、422 入出力制御部
2 筋電センサ付メガネ(生体信号取得装置)
2’ ヘッドフォン(生体信号処理装置)
2’’ イヤホン(生体信号処理装置)
21 信号処理ボックス
211 信号変換部
212 前フィルタ処理部
213 信号インタフェース
23 プラス電極パッド
24 マイナス電極パッド
25 鼻パッド電極部
3 食事評価サーバ
301、402 通信インタフェース
4 携帯端末
311 画像情報決定部
1 Mobile terminal (meal evaluation device)
101, 401 Signal interface 102, 302, 403 Chewing / smile information storage unit 103, 303 Meal log storage unit 104, 404 Feedback information storage unit 105, 405 Camera 106, 406 Touch panel display (TP / DP)
107 Mike 108, 407 Speaker 111, 411 Biosignal information determination unit 111a Image information processing unit 112, 312 Meal amount determination unit 113, 313 Meal preference determination unit 114, 412 Feedback unit 121, 321 Meal log generation management unit 122, 322 Meals Quantity estimation model construction unit 123, 323 Preference estimation model construction unit 131, 331, 421 Communication control unit 132, 422 Input / output control unit 2 Glasses with myoelectric sensor (biological signal acquisition device)
2'Headphones (biological signal processor)
2'' Earphone (biological signal processor)
21 Signal processing box 211 Signal conversion unit 212 Pre-filter processing unit 213 Signal interface 23 Positive electrode pad 24 Negative electrode pad 25 Nose pad Electrode unit 3 Meal evaluation server 301, 402 Communication interface 4 Mobile terminal 311 Image information determination unit

Claims (17)

ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有することを特徴とする食事評価装置。
A meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the user's head, which is a biological signal information determining means for determining an amount related to chewing and an amount related to a smile of the user.
A meal amount determination means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
A dietary evaluation device comprising a feedback means for generating or selectively providing information related to the diet or health of the user based on a determined value relating to the amount of the diet.
当該咀嚼に係る量及び笑みに係る量に対し、少なくとも食事の多少に係る値についての当該ユーザによる申告情報を紐づけて記録した食事ログを複数用いて、当該学習済みの食事量推定モデルを構築する食事量推定モデル構築手段を更に有することを特徴とする請求項1に記載の食事評価装置。 The learned meal amount estimation model using a plurality of meal logs recorded by associating the amount related to the chewing and the amount related to the smile with the information reported by the user at least for the value related to the amount of meal. The meal evaluation device according to claim 1, further comprising a means for constructing a meal amount estimation model. 前記フィードバック手段は、少なくとも1つの過去の時点に係る当該食事ログにも基づいて、当該ユーザの食事又は健康に関係する情報を生成又は選択することを特徴とする請求項2に記載の食事評価装置。 The meal evaluation device according to claim 2, wherein the feedback means generates or selects information related to the user's meal or health based on the meal log relating to at least one past time point. .. 前記フィードバック手段は、当該咀嚼に係る量から決定される咀嚼における回数、ペース及び時間間隔のうちの少なくとも1つにも基づいて、当該少なくとも1つと当該食事の多少に係る値とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、当該ユーザの食事又は健康に関係する情報とすることを特徴とする請求項1からのいずれか1項に記載の食事評価装置。 The feedback means is preliminarily based on at least one of the number of times, pace and time interval in mastication determined from the amount of the mastication, according to the condition that the at least one and the value related to the amount of the meal are satisfied. The meal evaluation device according to any one of claims 1 to 3 , wherein at least one of the set music or audio contents is selected and used as information related to the meal or health of the user. 前記生体信号情報決定手段は、生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、当該咀嚼に係る量を決定することを特徴とする請求項1からのいずれか1項に記載の食事評価装置。 The biometric signal information determining means generates acceleration component data of an input signal that may include a biometric signal, calculates a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data, and calculates a period of the representative value. The dietary evaluation device according to any one of claims 1 to 4 , wherein the amount of the chew is determined based on the sex. ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、
前記フィードバック手段は、当該笑みに係る量から決定される笑みの回数及び/又は時間にも基づいて、当該笑みの回数及び/又は時間と当該食事の多少に係る値とが満たす条件別に予め設定された音楽又は音声コンテンツから少なくとも1つを選択し、当該ユーザの食事又は健康に関係する情報とす
とを特徴とする食事評価装置。
A meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
Have,
The feedback means is preset according to the condition that the number and / or time of the smile and the value related to the amount of the meal are satisfied, based on the number and / or time of the smile determined from the amount of the smile. Select at least one of the music or audio content to be information related to the user's diet or health.
A meal evaluation device characterized by that .
前記生体信号情報決定手段は、
当該ユーザの食事に係る画像情報を取得し、当該画像情報に基づき、学習済みの画像食事種別推定モデル及び/又は画像食事量推定モデルを用いて、当該ユーザの食事における食事種別情報及び/又は食事の多少に係る量を決定し、
決定した食事種別情報及び/又は食事の多少に係る量に基づき、過去の当該咀嚼に係る量及び/又は笑みに係る量によって学習を行い構築した学習済みの生体信号情報推定モデルを用いて、当該ユーザの咀嚼に係る量及び/又は笑みに係る量を決定する
ことを特徴とする請求項1からのいずれか1項に記載の食事評価装置。
The biological signal information determining means is
Image information related to the user's meal is acquired, and based on the image information, the learned image meal type estimation model and / or image meal amount estimation model is used to provide meal type information and / or meal in the user's meal. Determine the amount related to the amount of
Based on the determined meal type information and / or the amount related to the amount of meal, the learned biological signal information estimation model constructed by learning based on the amount related to the past chewing and / or the amount related to the smile is used. The meal evaluation device according to any one of claims 1 to 6 , wherein the amount related to the user's chewing and / or the amount related to the smile is determined.
ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、前記生体信号情報決定手段は、
生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、生体の繰り返し運動に起因する周期的生体信号の発生を判定し、さらに、
当該入力信号に対し多重解像度解析処理を実施し、多重解像度解析処理後の信号振幅の時系列データが所定のヒステリシスを示す時間区間を、何らかの生体信号が発生した信号発生時間区間に決定し、当該信号発生時間区間において、当該周期的生体信号が発生していないと判定された際、当該入力信号の平均パワー周波数を算出し、当該平均パワー周波数の高さに基づいて、当該笑みに係る量を決定する
ことを特徴とする事評価装置。
A meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
The biological signal information determining means has
Acceleration component data of an input signal that can include biological signals is generated, a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data is calculated, and the living body is repeated based on the periodicity of the representative value. Determine the generation of periodic biological signals caused by exercise, and further
Multi-resolution analysis processing is performed on the input signal, and the time interval in which the time-series data of the signal amplitude after the multi-resolution analysis processing shows a predetermined hysteresis is determined as the signal generation time interval in which some biological signal is generated. When it is determined that the periodic biometric signal is not generated in the signal generation time section, the average power frequency of the input signal is calculated, and the amount related to the smile is calculated based on the height of the average power frequency. A dietary evaluation device characterized by determining.
ユーザの食事を評価する食事評価装置であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量のうちの少なくとも笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
を有し、前記生体信号情報決定手段は、
生体信号を含み得る入力信号の加速度成分データを生成し、当該加速度成分データにおける所定時間区間でのデータの偏り具合に係る代表値を算出し、当該代表値の周期性に基づいて、生体の繰り返し運動に起因する周期的生体信号の発生を判定し、さらに、
当該入力信号に対し多重解像度解析処理を実施し、多重解像度解析処理後の信号振幅の時系列データが所定のヒステリシスを示す時間区間を、何らかの生体信号が発生した信号発生時間区間に決定し、当該信号発生時間区間において、当該周期的生体信号が発生していないと判定された際、当該入力信号の標準偏差と平均パワー周波数とを含む特徴量を算出し、当該特徴量について、基準状態に該当する入力信号の当該特徴量によって設定された単位空間から離隔した度合いである離隔度合いを算出し、算出された当該離隔度合いに基づいて、当該笑みに係る量を決定する
ことを特徴とする食事評価装置。
A meal evaluation device that evaluates a user's meal.
An amount determined from a biological signal related to the head of the user, and a biological signal information determining means for determining at least an amount related to a smile among the amount related to chewing and the amount related to a smile of the user.
A meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on at least the amount related to smile among the amount related to chewing and the amount related to smile.
A feedback means that generates or selectively provides information related to the user's diet or health based on the determined dietary value.
The biological signal information determining means has
Acceleration component data of an input signal that can include biological signals is generated, a representative value related to the degree of data bias in a predetermined time interval in the acceleration component data is calculated, and the living body is repeated based on the periodicity of the representative value. Determine the generation of periodic biological signals caused by exercise, and further
Multiple resolution analysis processing is performed on the input signal, and the time interval in which the time-series data of the signal amplitude after the multiple resolution analysis processing shows a predetermined hysteresis is determined as the signal generation time interval in which some biological signal is generated. When it is determined that the periodic biometric signal is not generated in the signal generation time section, the feature amount including the standard deviation and the average power frequency of the input signal is calculated, and the feature amount corresponds to the reference state. The food is characterized in that the degree of separation, which is the degree of separation from the unit space set by the characteristic amount of the input signal to be input, is calculated, and the amount related to the smile is determined based on the calculated degree of separation. Thing evaluation device.
前記食事量決定手段は、食事時間にも基づいて、食事の多少に係る値を決定することを特徴とする請求項1から9のいずれか1項に記載の食事評価装置。 The meal evaluation device according to any one of claims 1 to 9, wherein the meal amount determining means determines a value related to a certain amount of meal based on a meal time. 前記食事評価装置は、当該咀嚼に係る量及び/又は当該笑みに係る量に基づき、学習済みの嗜好推定モデルを用いて、食事の嗜好に係る値を決定する食事嗜好決定手段を更に有し、
前記フィードバック手段は、決定された食事の嗜好に係る値にも基づいて、当該ユーザの食事又は健康に関係する情報を生成又は選択する
ことを特徴とする請求項1から10のいずれか1項に記載の食事評価装置。
The meal evaluation device further has a meal preference determination means for determining a value related to a meal preference by using a learned preference estimation model based on the amount related to the chewing and / or the amount related to the smile.
13 . The described dietary evaluation device.
当該咀嚼に係る量及び/又は笑みに係る量に対し、少なくとも食事の嗜好に係る値についての当該ユーザによる申告情報を紐づけて記録した食事ログを複数用いて、当該嗜好推定モデルを構築する嗜好推定モデル構築手段を更に有することを特徴とする請求項11に記載の食事評価装置。 A preference estimation model is constructed by using a plurality of meal logs recorded by associating at least the value declared by the user with respect to the amount related to chewing and / or the amount related to smile. The meal evaluation device according to claim 11 , further comprising a means for constructing a preference estimation model. 前記フィードバック手段は、取得されたユーザに係る位置情報及び/又は食事に係る音声情報にも基づいて、当該ユーザの食事又は健康に関係する情報を、生成又は選択することを特徴とする請求項1から12のいずれか1に記載の食事評価装置。 The feedback means is characterized in that it generates or selects information related to the diet or health of the user based on the acquired location information relating to the user and / or voice information relating to the meal. The dietary evaluation device according to any one of 12 to 12 . 当該生体信号は、ユーザの頭部に付されたデバイスであって、リファレンス用電極が左(又は右)の耳介周辺から頬近傍の1つの皮膚位置に接し、検出用電極が右(又は左)の耳介周辺から頬近傍の1つの皮膚位置に接するような電極構成を有するデバイスによって取得された信号であることを特徴とする請求項1から13のいずれか1項に記載の食事評価装置。 The biometric signal is a device attached to the user's head, with the reference electrode in contact with one skin position near the cheek from around the left (or right) pinna, and the detection electrode on the right (or left). ), The dietary evaluation device according to any one of claims 1 to 13, wherein the signal is acquired by a device having an electrode configuration such that it is in contact with one skin position near the cheek from the periphery of the auricle. .. ユーザに係る端末と、当該端末と通信接続された、ユーザの食事を評価する食事評価サーバとを有する食事評価システムであって、
当該端末は、当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段を有し、
前記食事評価サーバは、
当該端末から当該ユーザの食事に係る画像情報を取得し、当該画像情報に基づき、学習済みの画像食事種別推定モデル及び/又は画像食事量推定モデルを用いて、当該ユーザの食事における食事種別情報及び/又は食事の多少に係る量を決定し、さらに、決定した食事種別情報及び/又は食事の多少に係る量に基づき、当該端末から取得した過去の咀嚼に係る量及び笑みに係る量によって学習を行い構築した学習済みの生体信号情報推定モデルを用いて、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する画像情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と
を有し、
当該端末は、前記食事評価サーバから当該食事の多少に係る値を取得し、当該食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段を更に有する
ことを特徴とする食事評価システム。
A meal evaluation system having a terminal related to a user and a meal evaluation server for evaluating the user's meal, which is connected to the terminal by communication.
The terminal has a biological signal information determining means that is an amount determined from a biological signal related to the head of the user, and determines an amount related to chewing and an amount related to a smile of the user.
The meal evaluation server is
Image information related to the user's meal is acquired from the terminal, and based on the image information, the trained image meal type estimation model and / or the image meal amount estimation model is used to obtain the meal type information and / or meal type information in the user's meal. / Or determine the amount of food, and based on the determined meal type information and / or the amount of food, the amount of past chewing and the amount of smile obtained from the terminal. Using the trained biometric signal information estimation model constructed by learning, an image information determining means for determining the amount of chewing and the amount of smiling face of the user, and
It has a meal amount determining means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
The terminal acquires a value related to the amount of the meal from the meal evaluation server, and generates or selects and provides information related to the user's meal or health based on the value related to the amount of the meal. A dietary evaluation system characterized by having more means.
ユーザの食事を評価する装置に搭載されたコンピュータを機能させるプログラムであって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定する生体信号情報決定手段と、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定する食事量決定手段と、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するフィードバック手段と
してコンピュータを機能させることを特徴とする食事評価プログラム。
A program that activates a computer installed in a device that evaluates a user's diet.
An amount determined from a biological signal related to the user's head, which is a biological signal information determining means for determining an amount related to chewing and an amount related to a smile of the user.
A meal amount determination means for determining a value related to the amount of meal using a learned meal amount estimation model based on the amount related to chewing and the amount related to smile .
A dietary evaluation program characterized in that a computer functions as a feedback means for generating or selecting and providing information related to the user's diet or health based on the determined value of the amount of diet.
ユーザの食事を評価する装置に搭載されたコンピュータにおける食事評価方法であって、
当該ユーザの頭部に係る生体信号から決定される量であって、当該ユーザの咀嚼に係る量及び笑みに係る量を決定するステップと、
当該咀嚼に係る量及び笑みに係る量に基づき、学習済みの食事量推定モデルを用いて、食事の多少に係る値を決定するステップと、
決定された食事の多少に係る値に基づき、当該ユーザの食事又は健康に関係する情報を、生成又は選択して提供するステップと
を有することを特徴とする食事評価方法。
It is a meal evaluation method in a computer installed in a device that evaluates a user's meal.
An amount determined from a biological signal related to the user's head, and a step of determining an amount related to chewing and an amount related to smile of the user.
Based on the amount related to the chewing and the amount related to the smile , the step of determining the value related to the amount of the meal using the learned meal amount estimation model, and
A dietary evaluation method comprising: a step of generating or selecting and providing information related to the diet or health of the user based on a determined value relating to the amount of the diet.
JP2018181733A 2018-09-27 2018-09-27 Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling Active JP7009342B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018181733A JP7009342B2 (en) 2018-09-27 2018-09-27 Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181733A JP7009342B2 (en) 2018-09-27 2018-09-27 Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling

Publications (2)

Publication Number Publication Date
JP2020048917A JP2020048917A (en) 2020-04-02
JP7009342B2 true JP7009342B2 (en) 2022-01-25

Family

ID=69994683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181733A Active JP7009342B2 (en) 2018-09-27 2018-09-27 Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling

Country Status (1)

Country Link
JP (1) JP7009342B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7501614B2 (en) * 2020-04-20 2024-06-18 日本電気株式会社 Price Calculation Device
CN111709282A (en) * 2020-05-07 2020-09-25 中粮营养健康研究院有限公司 Method for characterizing food oral processing
JP7395423B2 (en) * 2020-05-26 2023-12-11 Kddi株式会社 Lifestyle monitoring device, system, program, and method capable of providing information related to meals, sleep, and exercise
JP7251804B2 (en) * 2020-09-15 2023-04-04 国立大学法人岩手大学 Wearing device around the ear
WO2022264818A1 (en) * 2021-06-14 2022-12-22 パナソニックホールディングス株式会社 Physical condition detection method, physical condition detection device, and program
JP7350210B1 (en) * 2022-09-09 2023-09-25 三菱電機株式会社 Intraoral sensing system, mouthpiece, control device, and control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320735A (en) 2000-03-14 2006-11-30 Toshiba Corp Wearable life support apparatus and method
US20110276312A1 (en) 2007-06-08 2011-11-10 Tadmor Shalon Device for monitoring and modifying eating behavior
JP2017140198A (en) 2016-02-09 2017-08-17 Kddi株式会社 Apparatus for identifying facial expression with high accuracy by using myoelectric signal, and device, program and method thereof
US20170270820A1 (en) 2016-03-18 2017-09-21 Icon Health & Fitness, Inc. Eating Feedback System
JP2018033624A (en) 2016-08-30 2018-03-08 キヤノン株式会社 Information processing device, information processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320735A (en) 2000-03-14 2006-11-30 Toshiba Corp Wearable life support apparatus and method
US20110276312A1 (en) 2007-06-08 2011-11-10 Tadmor Shalon Device for monitoring and modifying eating behavior
JP2017140198A (en) 2016-02-09 2017-08-17 Kddi株式会社 Apparatus for identifying facial expression with high accuracy by using myoelectric signal, and device, program and method thereof
US20170270820A1 (en) 2016-03-18 2017-09-21 Icon Health & Fitness, Inc. Eating Feedback System
JP2018033624A (en) 2016-08-30 2018-03-08 キヤノン株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2020048917A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7009342B2 (en) Devices, programs and methods that can evaluate meals based on the amount of chewing and smiling
CN111758229B (en) Digitally representing user engagement targeted content based on biometric sensor data
RU2672684C2 (en) Sensory stimuli to increase accuracy of sleep staging
Kalantarian et al. A survey of diet monitoring technology
CN112005311B (en) Systems and methods for delivering sensory stimuli to a user based on a sleep architecture model
US20130245396A1 (en) Mental state analysis using wearable-camera devices
US20170143246A1 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
EP3738230A1 (en) Content generation and control using sensor data for detection of neurological state
JP6521778B2 (en) Program, terminal and system for giving emotional identifier to application using myoelectric signal
JP6244292B2 (en) Mastication detection system, method and program
JP7207468B2 (en) Output control device, output control method and program
US11494001B2 (en) Gesture detection system for personal head wearable device
US20210082056A1 (en) Information processing apparatus and information processing method
US20230390608A1 (en) Systems and methods including ear-worn devices for vestibular rehabilitation exercises
JP7082956B2 (en) Biological signal processing device, program and method for counting biological signals based on reference values according to signal data.
WO2022042924A1 (en) Method and device for determining a mental state of a user
JP6821549B2 (en) Biological signal processing device, program and method for determining the generation of biological signals based on the representative values of acceleration components
JP7405357B2 (en) Elderly person monitoring system
JP6810682B2 (en) Biological signal processing device, program and method for determining periodic biosignal generation based on representative values of acceleration components
WO2024009944A1 (en) Information processing method, recording medium, and information processing device
WO2023074656A1 (en) Program, information processing method, and information processing apparatus
WO2021210652A1 (en) Information processing device, system, method, and program
TW202432059A (en) Information processing device, information processing method and program
Omata et al. Electro-oculographic Discrimination of Gazing Motion to a Smartphone Notification Tone
JP2022097293A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112

R150 Certificate of patent or registration of utility model

Ref document number: 7009342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150