JP6881082B2 - 食事検知プログラム、食事検知方法及び食事検知システム - Google Patents

食事検知プログラム、食事検知方法及び食事検知システム Download PDF

Info

Publication number
JP6881082B2
JP6881082B2 JP2017123759A JP2017123759A JP6881082B2 JP 6881082 B2 JP6881082 B2 JP 6881082B2 JP 2017123759 A JP2017123759 A JP 2017123759A JP 2017123759 A JP2017123759 A JP 2017123759A JP 6881082 B2 JP6881082 B2 JP 6881082B2
Authority
JP
Japan
Prior art keywords
section
meal
unit
heartbeat
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017123759A
Other languages
English (en)
Other versions
JP2019005232A (ja
Inventor
森 達也
達也 森
一穂 前田
一穂 前田
真路 堀田
真路 堀田
明大 猪又
明大 猪又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017123759A priority Critical patent/JP6881082B2/ja
Priority to US16/003,871 priority patent/US10952670B2/en
Priority to EP18176939.9A priority patent/EP3417767B1/en
Publication of JP2019005232A publication Critical patent/JP2019005232A/ja
Application granted granted Critical
Publication of JP6881082B2 publication Critical patent/JP6881082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4866Evaluating metabolism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0255Recording instruments specially adapted therefor

Description

本発明は、食事検知プログラム、食事検知方法及び食事検知システムに関する。
ユーザの心拍数や腕の動きなどをセンサで検知することにより、ユーザの食行動を判定する技術が知られている。例えば、ユーザの両腕の下腕部に取り付けられる少なくとも相直交する3軸の加速度を加速度センサで検出し、検知されたセンサ信号を、記憶された食行動判定基準に照らし、ユーザの食行動の有無を判定する技術が知られている。
また、心拍数の時系列データを取得し、時系列データに含まれる部分データごとに、食事開始後に心拍数のピークが先行して現れる第1ピークよりも後続して現れる第2ピークに関する特徴量を算出する技術も知られている。当該技術では、部分データごとに算出された第2ピークに関する特徴量を用いて、部分データにおける食事の有無を判定し、食事が有りと判定された部分データから食事時刻を推定する。さらに、心拍数の時系列データから食事終了時に現れる心拍変化の特徴との類似度が指標化された特徴量を算出して、当該特徴量から食事時間を推定する技術も知られている。
特開2011−115508号公報 国際公開第2016/092707号 国際公開第2016/143074号
例えば、腕の動作を用いて食事を検出する場合、顔に触れるなどの他の動作や、実際には食事をしていないのに食事をするふりをする動作であっても、食事の動作であると誤検出される場合がある。また、心拍は、気温などの外部環境、及び健康状態や精神状態などの内的要因など、食事以外の要因によっても影響が出るため、心拍だけでは食事の検出精度が十分ではない場合がある。
一つの側面では、ユーザによる食事行動を検知できる食事検知プログラム、食事検知方法及び食事検知システムを提供することを目的とする。
一つの態様において、本実施例における検知装置は、対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得する。検知装置は、第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定する。検知装置は、動作区間に対応する前記第二のセンシングデータと、食事時における前記特定動作の単位動作に対応する学習情報とに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する。
一つの態様によれば、ユーザによる食事行動を検知できる。
図1は、システム構成の一例を示す図である。 図2は、心拍と腕動作区間との組み合わせの一例を示す図である。 図3は、動作と心拍との応答関係の一例を示す図である。 図4は、特定動作と応答パラメータとの関係の一例を示す図である。 図5は、実施例1における検知装置の一例を示す図である。 図6は、実施例1における検知処理の一例を示すフローチャートである。 図7は、実施例2における動作区間の一例を示す図である。 図8は、実施例2における複数の特定動作に対応する波形の重ね合わせの一例を示す図である。 図9は、実施例2における検知装置の一例を示す図である。 図10は、実施例2における検知処理の一例を示すフローチャートである。 図11は、実施例3における教師データの一例を示す図である。 図12は、実施例3における検知装置の一例を示す図である。 図13は、実施例3における学習処理の一例を示すフローチャートである。 図14は、実施例3における検知処理の一例を示すフローチャートである。 図15は、実施例4における相対区間の一例を示す図である。 図16は、実施例4における検知装置の一例を示す図である。 図17は、実施例4における学習処理の一例を示すフローチャートである。 図18は、実施例4における検知処理の一例を示すフローチャートである。 図19は、実施例5における判定時刻の前後の時間帯との検知結果の比較の一例を示す図である。 図20は、実施例5における教師データの一例を示す図である。 図21は、食事検知プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に、本願の開示する食事検知プログラム、食事検知方法及び食事検知システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、以下に示す各実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。なお、以下の実施例において、先に説明した図面に示す部位と同一の部位には同一の符号を付し、重複する説明は省略する。
[システム構成]
本実施例における検知システムについて、図1を用いて説明する。図1は、システム構成の一例を示す図である。図1に示す検知システム1は、動作測定装置10と、心拍測定装置20と、検知装置100と、端末装置200とを有する。検知装置100の構成については、後に詳しく説明する。
本実施例において、検知装置100と端末装置200、並びに動作測定装置10及び心拍測定装置20と端末装置200とは、無線又は有線のネットワークを通じて通信可能に接続される。かかるネットワークの一態様としては、有線または無線を問わず、携帯電話などの移動体通信、インターネット(Internet)、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。なお、図1には、動作測定装置10及び心拍測定装置20並びに端末装置200がそれぞれ1つである場合を図示したが、検知システム1には、複数の動作測定装置10及び心拍測定装置20並びに端末装置200が収容されることとしてもかまわない。
図1に示す動作測定装置10は、例えばリストバンド型の測定装置であり、対象者の利き腕等に装着される。動作測定装置10は、例えば相直交する3軸の加速度を検出するモーションセンサ11を用いて、所定のサンプリング周期で対象者の腕の動きを測定する。動作測定装置10は、測定した腕の動きに関するデータを、通信I/F(Interface)部13により端末装置200に送信する。なお、動作測定装置10は、第一のセンサの一例であり、腕の動きに関するデータは、第一のセンシングデータの一例である。
これによって、動作測定装置10は、サンプリング点ごとにモーションセンサ11によりセンシングされる上下左右前後の加速度の時系列データを加速度データとして取得する。かかる加速度データには、一例として、時間及び加速度などの項目が対応付けられたデータを採用できる。ここで言う「時間」は、上記の心拍データと同様、動作測定装置10上でローカルに管理されるシステム時間、例えば任意の開始時点からの経過時間であってもよいし、年月日時分秒等のカレンダ上の暦で表現される時間であってもかまわない。また、「加速度」には、上下方向、左右方向および前後方向の3軸の加速度を含めることができる。例えば、3軸の加速度のうち一部の方向の加速度に絞って検知装置100に使用させる場合、検知装置100で使用されない方向の加速度は加速度データから除去することもできる。
図1に示す心拍測定装置20は、心拍取得部21として、ユーザの生体部位、例えば胸、腕、手首などに装着する装着型の心拍センサを採用することができる。例えば光電脈波センサによる脈拍を採用することもできる。心拍測定装置20は、心拍取得部21が測定した心拍に関するデータを、通信I/F部23により端末装置200に送信する。なお、心拍測定装置20は、第二のセンサの一例であり、心拍に関するデータは、第二のセンシングデータの一例である。
図1に示す端末装置200は、例えば動作測定装置10及び心拍測定装置20を装着する対象者により利用される。なお、端末装置200は、例えばスマートフォンやタブレット、ノート型コンピュータなどの携帯可能なコンピュータであるが、これに限られず、据置型のコンピュータなどであってもよい。
端末装置200は、通信I/F部210を通じて、動作測定装置10及び心拍測定装置20から腕の動作に関するデータ及び心拍に関するデータを受信し、検知装置100に送信する。端末装置200は、検知装置100から食事判定結果に関する情報を受信し、表示操作部220に表示させる。
図1に示す検知装置100は、端末装置200から受信した腕の動作に関するデータ及び心拍に関するデータを用いて、対象者が食事中であるか否かを検知する。検知装置100は、例えば対象者の腕の動作に関するデータから、後に説明する処理により、食事動作に起因する可能性の高い特定の動作が連続または頻発する区間を抽出する。また、検知装置100は、後に説明する処理により、抽出した特定の動作の発生時刻の前後における心拍に関するデータを抽出する。そして、検知装置100は、抽出したデータと学習情報とに基づき、ユーザによる食事行動を検知する。なお、以下において、特定の動作を「特定動作」と表記する場合がある。
図2は、心拍と腕動作区間との組み合わせの一例を示す図である。図2は、食事時に発生する特定動作2111に対応する動作区間2121と、当該期間における心拍の変化とを、組み合わせてグラフ化された一例を示す。なお、動作区間は、1度の腕の昇降(特定動作)に対応する単位区間を、少なくとも2以上含む。図2に示す縦軸2001は心拍数を指し、横軸2101は経過時刻(時間)を指す。
そして、本実施例における検知装置100は、腕の動作に心拍の変化を付与したデータが所定の条件を満たす場合に、対象者が食事中であると判定する。なお、以下において、対象者が食事中であると判定することを「食事と判定する」と表記する場合がある。また、以下において、対象者が食事中ではないことを単に「非食事」と表記する場合がある。
ところで、食事中に生じる動作においては、図3に示すように、食事以外の動作とは異なる心拍パターンが現れる場合が多い。図3は、動作と心拍との応答関係の一例を示す図である。図3において、食事中に生じる特定動作2111に対応する心拍パターン2191は、動作後も心拍が高い状態を持続する。一方、例えば鼻を掻くなどの食事以外の動作2911に対応する心拍パターン2991は、一時的に心拍が上昇するものの、すぐに安静時の心拍に回復する。これは、食事動作においては、腕の昇降等に伴う心拍の上昇に加えて、食事行為により摂取された摂取物、すなわち食物等に対する食道の蠕動運動や消化器官(胃腸等)内の消化活動に起因して、心拍が上昇するためである。
このように、食事動作に応答する心拍数の変化は、心拍の上昇速度及び上昇時間、心拍の振幅、心拍の下降速度及び下降時間、及び心拍が上昇してから安静時の状態に戻るまでのグラフの面積等のパラメータが、特定のパターンに類似する場合が多い。なお、以下において、食事動作に応答する心拍数の変化のパターンを規定する各パラメータを、「応答パラメータ」と表記する場合がある。また、以下において、「振幅」は、安静時の状態の心拍数と、食事動作に伴い心拍が上昇した状態の心拍数との差分に該当し、「面積」は、食事動作を開始してから心拍が安静時の状態に戻るまでの間の、上昇した心拍数と安静時の状態の心拍数との差分の累計に該当する。また、心拍の「上昇時間」は、心拍が安静時の状態から上昇した状態までに要する時間を示し、心拍の「下降時間」は、心拍が上昇した状態から安静時の状態へ下降するまでに要する時間を示す。
図4は、特定動作と応答パラメータとの関係の一例を示す図である。図4の矢印2201は、特定動作2111に対応する応答パラメータの振幅の大きさを示す。図4のグラフの傾き2202は心拍の上昇速度を示し、矢印2203は心拍の上昇時間を示す。同様に、図4のグラフの傾き2204は心拍の下降速度を示し、矢印2205は心拍の下降時間を示す。また、図4のグラフの面積2206は、特定動作に応答して増加した心拍数の累計を示す。
図4に示す応答パラメータ2201乃至2206は、例えば過去の食事時における、特定の動作に対する心拍の変動の平均値等を用いて算出するが、これに限られない。例えば、1回の特定の動作に対する心拍の変動を用いて算出してもよい。また、機械学習において用いるモデルは、例えば特定の動作に対応する心拍の変動から算出した応答パラメータ2201乃至2206に、各判定時刻において実際に食事をしていたか否かの情報をさらに紐づけたデータから生成される。なお、機械学習には、例えばディープラーニングやSVM(Support Vector Machine)、決定木やランダムフォレスト、ニアレストネイバーといったアルゴリズムを用いることができる。
本実施例における検知装置100は、例えば、動作区間に対応する心拍データと食事時の特定動作の単位動作に対応する学習情報に基づき、前記動作区間の一部を少なくとも含む区間 が食事であるか否かを判定する。例えば、動作区間に対応する心拍データは、図2に示す特定動作2111に応答する心拍の変動を示す心拍の波形のグラフ2011である。例えば、単位動作は、一つ一つの特定動作である。例えば、動作区間の一部を少なくとも含む区間 は動作区間そのものである。例えば、食事時の特定動作の単位動作に対応する学習情報は、図4に示す食事時の応答パラメータ2201乃至2206である。例えば、検知装置100は、図2に示す特定動作2111に応答する心拍の変動を示す心拍の波形のグラフ2011と、図4に示す食事時の応答パラメータ2201乃至2206とを比較して、類似度を算出する。そして、検知装置100は、算出した類似度に基づいて、対象者が食事中か否かを判定する。
以上説明したように、本実施例における検知装置は、特定の腕の動作を検出し、動作を含む区間の心拍の波形のグラフと、食事時の心拍の応答特性を示す応答パラメータとを比較して対象者が食事中か否かを判定するので、精度よく食事を検知できる。
[機能ブロック]
次に、本実施例における検知装置100について、図5を用いて説明する。図5は、実施例1における検知装置の一例を示す図である。図5に示す検知装置100は、通信I/F部110と、記憶部120と、制御部130とを有する。なお、本実施例における検知装置100は、例えば端末装置200から処理要求を受け付けるサーバコンピュータ等のコンピュータであるが、これに限られない。検知装置100は、例えばパーソナルコンピュータ等のスタンドアロン型コンピュータであってもよく、またスマートフォンやタブレット、ノート型コンピュータなどの携帯可能なコンピュータであってもよい。
通信I/F部110は、有線又は無線を問わず、端末装置200など、その他のコンピュータ等との通信を制御する。通信I/F部110は、例えばNIC(Network Interface Card)等の通信インタフェース等である。
記憶部120は、例えば制御部130が実行するプログラムや、各種データなどを記憶する。また、記憶部120は、応答パラメータ121を有する。記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
応答パラメータ121は、例えば図4に示すような応答パラメータ2201乃至2206に対応する数値を記憶する。応答パラメータ121に記憶される数値は、例えば通信I/F部110及び入出力部131を通じて、外部のコンピュータから予め取得される。なお、応答パラメータ121が、制御部130が算出した応答パラメータ2201乃至2206に対応する数値を記憶するような構成であってもよい。
制御部130は、検知装置100の全体的な処理を司る処理部である。制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
制御部130は、入出力部131、特定動作検出部132、応答波形算出部133、類似度推定部134及び行動検知部135を有する。なお、入出力部131、特定動作検出部132、応答波形算出部133、類似度推定部134及び行動検知部135は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
入出力部131は、通信I/F部110を通じて、端末装置200との間において情報の入出力を行う。入出力部131は、端末装置200等のその他のコンピュータから、食事検知処理の開始指示を受け付ける。入出力部131は、端末装置200から、腕の動作に関するデータ及び心拍に関するデータの入力を受け、特定動作検出部132及び応答波形算出部133に出力する。また、入出力部131は、行動検知部135による食事判定結果を、端末装置200等のその他のコンピュータに出力する。なお、入出力部131は、第一取得部及び第二取得部の一例である。
特定動作検出部132は、入出力部131から出力された腕の動作に関するデータを用いて、腕の特定の動作を算出する。特定動作検出部132は、例えば特定の動作として腕の回転を検出する場合、判定時刻における過去5秒間の角加速度の積算値が所定以上の場合、特定の動作を検出する。なお、特定動作検出部132は、動作抽出部の一例である。
特定動作検出部132は、例えば、動作の前後における、所定の時間の幅を有する「窓」を設定し、この窓の幅を満たす期間分の腕の動作に関するデータを取得するまで、入出力部131から腕の動作に関するデータの取得を繰り返す。そして、特定動作検出部132は、判定時刻を逐次後ろに動かしながら、取得した腕の動作に関するデータを用いて、各判定時刻に対応する窓内の腕の動作が、特定の動作に該当するか否かを判定する。
特定動作検出部132は、特定の動作に該当する動作が検出された場合、当該特定の動作が少なくとも2回以上実行された区間を動作区間として設定する。特定動作検出部132は、例えば特定の動作の前後数秒間を動作区間として設定する。そして、特定動作検出部132は、特定の動作であると判定された動作、並びに当該動作に対応する判定時刻及び動作区間を、応答波形算出部133に出力する。なお、以下において、食事かどうかを判定する時刻を「判定時刻」と表記する場合がある。
応答波形算出部133は、入出力部131から出力された心拍に関するデータを用いて、判定時刻における特定動作に対応する動作区間における、心拍の変動を示す心拍の波形を算出する。応答波形算出部133は、算出した心拍の波形を、類似度推定部134に出力する。
類似度推定部134は、応答波形算出部133から取得した心拍の波形が、応答パラメータ121に記憶された各応答パラメータに類似するか否かを示す類似度を算出する。例えば、類似度推定部134は、応答パラメータ121を参照して、例えば図4に示すような応答パラメータが示す波形を生成する。次に、類似度推定部134は、生成した応答パラメータが示す波形と、応答波形算出部133から取得した心拍の波形との類似度を算出する。類似度推定部134は、例えば2つ波形の差の絶対値の平均値を、2つの波形それぞれで算出した最大値−最小値のうち小さい方で割った値を1から引いた値を類似度とする。類似度推定部134は、算出した類似度を、行動検知部135に出力する。
行動検知部135は、類似度を用いて、判定時刻が食事に該当するか否かを判定する。例えば、行動検知部135は、類似度推定部134から出力された類似度が所定の閾値以上であるか否かを判定し、所定の閾値以上であると判定した場合に、判定時刻が食事に該当すると判定する。行動検知部135は、食事判定結果を、例えば入出力部131を通じて端末装置200に出力する。
[処理の流れ]
次に、本実施例における処理について、図6を用いて説明する。図6は、実施例1における検知処理の一例を示すフローチャートである。図6に示すように、検知装置100の入出力部131は、例えば通信I/F部110を通じて、端末装置200又はその他のコンピュータから開始指示を受け付けるまで待機する(S100:No)。
入出力部131は、開始指示を受け付けたと判定した場合(S100:Yes)、特定動作及び波形を算出する対象とする判定時刻を設定する(S101)。次に、入出力部131は、通信I/F部110を通じて、端末装置200から腕の動作に関するセンサデータ及び心拍の変化に関するセンサデータを取得する(S102)。次に、特定動作検出部132は、特定動作の検出に必要な量のセンサデータが得られたか否かを判定する(S110)。特定動作検出部132は、必要な量のセンサデータが得られていないと判定した場合(S110:No)、S102に戻って処理を繰り返す。
一方、特定動作検出部132は、必要な量のセンサデータが得られたと判定した場合(S110:Yes)、センサデータを用いて特定動作を検出する(S111)。次に、特定動作検出部132は、検出された特定動作に対応する動作区間を特定し、応答波形算出部133に出力する(S112)。応答波形算出部133は、動作区間における心拍の波形を算出し、類似度推定部134に出力する(S113)。類似度推定部134は、応答パラメータ121を参照して、動作区間における心拍の波形と、応答パラメータが規定する波形との類似度を算出し、行動検知部135に出力する(S114)。
そして、行動検知部135は、類似度が一定以上、例えば所定の値以上であるか否かを判定する(S140)。行動検知部135は、類似度が所定の値以上であると判定した場合(S140:Yes)、判定時刻を食事であると判定し(S141)、S150へ移行する。一方、行動検知部135は、類似度が所定の値未満であると判定した場合(S140:No)、判定時刻を非食事であると判定し(S142)、S150へ移行する。
そして、入出力部131は、例えば通信I/F部110を通じて、端末装置200又はその他のコンピュータから終了指示を受け付けたか否かを判定する(S150)。入出力部131は、終了指示を受け付けていないと判定した場合(S150:No)、判定時刻を進めて(S151)、S102に戻って処理を繰り返す。一方、入出力部131は、終了指示を受け付けたと判定した場合(S150:Yes)、処理を終了する。
[効果]
以上説明したように、本実施例における検知装置は、対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得する。検知装置は、第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定する。検知装置は、動作区間に対応する前記第二のセンシングデータと、食事時における前記特定動作の単位動作に対応する学習情報とに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する。これにより、腕の動きと心拍の反応との応答関係に基づいて、ユーザによる食事行動を検知できる。また、本実施例における検知装置は、対象者の頸部に集音マイクを装着する構成等と比べると、対象者によるセンサ装着の負担を軽減できる。
また、本実施例における検知装置において、第一のセンサは慣性センサであり、特定動作は、食事中に繰り返される腕の単位動作であり、動作区間は、単位動作が少なくとも2回以上繰り返された区間である。これにより、繰り返し発生する腕の動作と心拍の変化とを組み合わせて食事を検知する際における誤検知を抑制できる。
ところで、食事は一回の特定動作で終わるとは限らず、複数回の特定動作が継続して発生し、又は短期間に頻発することが多い。特定動作が継続し又は頻発すると、応答する心拍パターンも相互に重複し、単発の応答パラメータと合致しなくなる場合がある。
例えば、食事においては、腕の昇降等の特定動作が、ある程度の時間継続する場合が多い。また、食事においては、複数の特定動作が、例えば数分間のうちに頻発する場合が多い。図7は、実施例2における動作区間の一例を示す図である。図7において、特定動作2111乃至2113の各特定動作は、互いに2分以上の間隔を空けることなく、継続して発生している。一方、特定動作2114は、特定動作2113から2分以上の間隔の後に発生している。
このような場合において、本実施例においては、特定動作2111乃至2113の期間が動作区間2121として特定される。動作区間2121のように、所定の期間において特定動作が継続し又は頻発するような場合、各特定動作に応答する心拍の変動が重なりあうことで、単発での動作とは心拍の変動が異なる場合がある。図8は、実施例2における複数の特定動作に対応する波形の重ね合わせの一例を示す図である。図8において、波形2321乃至2325は、それぞれ特定動作2311乃至2315に対応する応答パラメータを示す。かかる波形2321乃至2325を重ね合わせると、グラフ2333に示すような波形となる。なお、以下において、特定動作に対応する応答パラメータが示す波形(応答波形)を重ね合わせた波形を、「重ね合わせ波形」と表記する場合がある。また、重ね合わせ波形は、例えば以下のような式(1)により算出される。
Figure 0006881082
式(1)において、F(t)は波形2321乃至2325に示すような応答波形を示し、τは特定動作2311乃至2315の時間差を示す。なお、式(1)により算出される重ね合わせ波形は、応答パラメータが示す波形を累計した時系列データの一例である。本実施例においては、特定動作が連発し又は頻発する場合において、グラフ2333のような各特定動作に対応する応答波形を重ね合わせた波形を用いて、食事を検知する構成について説明する。
[機能ブロック]
本実施例における検知装置500について、図9を用いて説明する。図9は、実施例2における検知装置の一例を示す図である。図9に示す検知装置500は、通信I/F部110と、記憶部120と、制御部530とを有する。
制御部530は、検知装置500の全体的な処理を司る処理部である。制御部530は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部530は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。
制御部530は、入出力部131、特定動作検出部532、応答波形算出部133、類似度推定部534及び行動検知部135に加えて、波形重ね合わせ部536をさらに有する。なお、特定動作検出部532、類似度推定部534及び波形重ね合わせ部536も、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
本実施例における特定動作検出部532は、腕の特定の動作を算出し、特定の動作であると判定された動作及び当該動作に対応する判定時刻を、応答波形算出部133及び波形重ね合わせ部536に出力する。
波形重ね合わせ部536は、特定動作に対応する複数の応答パラメータの波形を重ね合わせる。波形重ね合わせ部536は、応答パラメータ121を参照して、例えば式(1)を用いて、特定動作検出部532から出力された特定動作に対応する応答パラメータが規定する波形を重ね合わせて、重ね合わせ波形を生成する。波形重ね合わせ部536は、生成した重ね合わせ波形を、類似度推定部534に出力する。
本実施例における類似度推定部534は、応答波形算出部133から取得した心拍の波形が、波形重ね合わせ部536から出力された重ね合わせ波形に類似するか否かを示す類似度を算出する。類似度推定部534は、例えば、図2のグラフ2011に示すような心拍の波形と、図8のグラフ2333に示すような重ね合わせ波形との類似度を算出する。類似度推定部534は、算出した類似度を、行動検知部135に出力する。
[処理の流れ]
次に、本実施例における処理について、図10を用いて説明する。図10は、実施例2における検知処理の一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
図10に示すように、検知装置500の波形重ね合わせ部536は、特定動作検出部532から特定の動作に対応する判定時刻の出力を受けると、応答パラメータ121から応答パラメータを抽出する。そして、動作区間の各判定時刻に対応する応答パラメータの波形を重ね合わせ、類似度推定部534に出力する(S214)。
次に、類似度推定部534は、応答波形算出部133から出力された動作区間における心拍の波形と、重ね合わせ波形との類似度を算出し、行動検知部135に出力する(S215)。その後、S140に移行する。
[効果]
以上説明したように、本実施例における検知装置は、学習情報である応答パラメータが示す波形を累計した時系列データと、動作区間に対応する第二のセンシングデータとに基づき、動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する。これにより、特定動作が連続することにより、特定動作と応答パラメータとの関係を特定することが難しい場合においても、よりユーザによる食事行動を検知できる。
実施例1及び2においては、特定動作に対応する心拍パターンを、既知の応答パラメータと比較する構成について説明したが、実施の形態はこれに限られない。例えば、食事時の前記特定動作の単位動作に対応する学習情報として、検出された心拍の変動が、食事の際における心拍の変動と類似するか否かを判定する判定モデルを用いてもよい。例えば、判定モデルを機械学習により生成し、特定動作に対応する心拍の変動と生成された判定モデルとに基づいて、対象者が食事中であるか否かを判定してもよい。例えば、対応データの心拍波形と特定動作から単一動作に対応する心拍応答の特性を表す特徴量を計算し、機械学習により生成した判定モデルを用いて、食事か否かを判定しても良い。
本実施例において、判定モデルは、例えば腕動作特徴量と、心拍特徴量と、食事か非食事かを少なくとも含む教師データを用いて生成される。本実施例における心拍特徴量は、例えば心拍の変動を示す心拍の波形のうち、応答パラメータ2201乃至2206に対応する数値に基づいて算出される。また、本実施例における腕動作特徴量は、例えば判定時刻における過去5秒間の角加速度の積算値など、腕の動作に関するデータに基づいて算出される。
図11は、実施例3における教師データの一例を示す図である。図11に示すように、本実施例における教師データは、「判定時刻」における「食事」の有無と「心拍特徴量」及び「腕動作特徴量」とを、「判定時刻」ごとに対応付けて記憶する。
[機能ブロック]
本実施例における検知装置600について、図12を用いて説明する。図12は、実施例3における検知装置の一例を示す図である。図12に示す検知装置600は、通信I/F部110と、記憶部620と、制御部630とを有する。
記憶部620は、例えば制御部630が実行するプログラムや、各種データなどを記憶する。また、記憶部620は、動作区間判定モデル622を有する。記憶部620は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
動作区間判定モデル622は、判定時刻に対応する動作区間の一部を少なくとも含む区間が食事か否かを判定するためのモデルを記憶する。動作区間判定モデル622は、例えば「判定時刻」における「食事」の有無と「心拍特徴量」及び「腕動作特徴量」に関する各項目を用いて、公知の機械学習により生成される。なお、動作区間判定モデル622は、例えば後に説明する学習部639により登録され又は更新される。また、動作区間判定モデル622は、例えば技術者により初期値を登録され、又は更新されるような構成であってもよい。
制御部630は、検知装置600の全体的な処理を司る処理部である。制御部630は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部630は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。
制御部630は、入出力部131、特定動作検出部632、類似度推定部634及び行動検知部135に加えて、特徴量算出部637及び学習部639をさらに有する。なお、特定動作検出部632、類似度推定部634、特徴量算出部637及び学習部639も、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
本実施例における特定動作検出部632は、腕の特定の動作を算出し、特定の動作であると判定された動作、並びに当該動作に対応する判定時刻及び動作区間を、特徴量算出部637に出力する。また、特定動作検出部632は、学習処理の際に、特定の動作であると判定された動作、並びに当該動作に対応する判定時刻及び動作区間を、学習部639に出力する。
特徴量算出部637は、入出力部131から出力された心拍に関するデータを用いて、判定時刻を含む動作区間に対応する心拍の変動を示す心拍特徴量を算出する。特徴量算出部637は、入出力部131から出力された腕の動作に関するデータを用いて、判定時刻を含む動作区間に対応する腕の動作を示す腕動作特徴量を算出する。特徴量算出部637は、心拍特徴量と腕動作特徴量を類似度推定部634に出力する。また、特徴量算出部637は、学習処理の際に、判定時刻を含む動作区間における心拍特徴量と動作特徴量とを、学習部639に出力する。
類似度推定部634は、動作区間判定モデル622を参照し、特徴量算出部637から取得した心拍特徴量と動作特徴量とから、食事の確からしさを算出し、それを類似度として算出する。類似度推定部634は、算出した類似度を、行動検知部135に出力する。
学習部639は、図11に示すような教師データを用いて、動作区間判定モデル622を更新する。学習部639は、例えば端末装置200若しくは図示しないその他の外部のコンピュータから通信I/F部110を通じて、食事の有無に関するデータを取得する。学習部639は、取得したデータと、特徴量算出部637から出力された特徴量とを用いて、例えば公知の教師あり機械学習の手法により、動作区間判定モデル622を登録し、又は更新する。
[処理の流れ]
本実施例における処理について、図13及び図14を用いて説明する。図13は、実施例3における学習処理の一例を示すフローチャートである。図13に示す学習処理は、例えば新たな教師データを取得する度に実行される。
まず、図13に示すように、検知装置600の入出力部131は、例えば通信I/F部110を通じて外部のコンピュータ又は図示しない検知装置600の管理者から、過去の時点におけるセンサデータを取得するまで待機する(S500:No)。
入出力部131は、センサデータを取得したと判定した場合(S500:Yes)、取得したセンサデータを特定動作検出部632及び特徴量算出部637に出力する。特定動作検出部632は、センサデータを用いて特定動作を検出する(S501)。次に、学習部639は、各判定時刻に対応する動作区間を特定する(S502)。特徴量算出部637は、取得したセンサデータを用いて、各判定時刻での心拍特徴量と動作特徴量とを算出し、学習部639に出力する(S503)。
次に、行動検知部135は、各判定時刻での食事の有無に関するデータを取得する(S504)。そして、行動検知部135は、各判定時刻での心拍特徴量と、腕動作特徴量と、食事の有無とを少なくとも含む教師データを用いて教師あり機械学習を行い、学習モデルを生成して動作区間判定モデル622に登録し(S505)、処理を終了する。
次に、本実施例における検知処理について、図14を用いて説明する。図14は、実施例3における検知処理の一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
図14に示すように、検知装置600の特徴量算出部637は、判定時刻に対応する動作区間における心拍特徴量と腕動作特徴量とを算出し、類似度推定部634に出力する(S313)。類似度推定部634は、特徴量算出部637から動作区間における心拍特徴量と腕動作特徴量との出力を受けると、動作区間判定モデル622から判定モデルを読み出す(S314)。そして、類似度推定部634は、心拍特徴量と腕動作特徴量と判定モデルとに基づいて類似度を算出し、行動検知部135に出力する(S315)。その後、S140に移行する。
[効果]
以上説明したように、本実施例における検知装置は、学習情報として、食事時の人間の心拍応答の特性を示す食事推定モデルである学習情報を用いる。検知装置は、動作区間に対応する第二のセンシングデータと、学習情報とに基づく類似度が所定の条件を満たす場合に、動作区間の一部を少なくとも含む区間において食事が行われたと判定する。これにより、応答パラメータを予め設定することなく、ユーザによる食事行動を検知できる。
実施例3において、動作区間における最初の特定動作から最後の特定動作までを一つの区間として、特定動作に対応する心拍パターンと生成されたモデルとを用いて、対象者が食事中であるか否かを判定する構成について説明した。しかし、動作区間においても、心拍数が安静時の状態から上昇する期間と、心拍が上昇した状態が継続する定常状態の心拍数を維持する期間と、定常状態の心拍数から安静時の状態へと回復していく期間とでは、心拍特徴量の現れ方に違いがある。そこで、本実施例においては、動作区間を細分化して、細分化された各区間において異なる特徴量や判定モデルを用いる構成について説明する。なお、以下において、動作区間を細分化した各区間を、「相対区間」と表記する場合がある。なお、定常状態は所定の状態の一例である。
図15は、実施例4における相対区間の一例を示す図である。図15に示すように、本実施例における心拍の変動期間は、動作開始区間8001と、定常区間8002と、動作終了区間8003という3つの相対区間に細分化される。
図15において、動作開始区間8001は、動作区間2121の最初の特定動作2111の前後において、心拍数が安静状態から定常状態に上昇するまでの区間を示す。定常区間8002は、全区間が動作区間2121に含まれており、心拍が定常状態にある区間を示す。動作終了区間8003は、動作区間2121の最後の特定の動作2119の前後において、心拍数が定常状態から安静時の状態に回復するまでの区間を示す。なお、定常区間は、動作中区間の一例である。
各相対区間8001乃至8003の長さは、例えば、特定の動作の動作時刻を基準として、その前後の所定時間である。また、各相対区間8001乃至8003の長さは、例えば、動作区間2121の長さの前後の所定の割合を除外した区間としてもよい。例えば、動作開始区間8001を、特定動作2111の前後2分間としてもよい。また、定常区間8002を、動作区間2121の長さの前後10%を除外した区間としてもよい。
動作開始区間8001においては、特定動作2111及びこれに続く各特定の動作のそれぞれに伴う心拍上昇の重ね合わせが生じる。また、動作区間8001の前においては、特定の動作に伴う心拍応答が存在しないため、動作区間8001の開始時点においては安静時の心拍に近い場合が多い。そのため、動作開始区間8001における心拍の変動は、例えば実施例1の図4に示すような応答パラメータが規定する波形とは異なる場合がある。
例えば、動作開始区間8001においては、単位動作に伴う心拍の変動と比べて、心拍数の振幅、心拍変化の上昇速度及び下降速度に基づいて変化する心拍の傾きといった特徴量が異なる。また、動作開始区間8001においては、特定動作2111の時点から所定の心拍数を超えるまでに要する時間及び心拍数が一定のレベルに達するまでの時間といった特徴量も異なる。これらの特徴量は、動作開始区間8001において発生する特定の動作の間隔に応じて変化する。
また、定常区間8002においては、応答パラメータに示すような心拍の変動の重ね合わせによる、心拍数の変化が定常状態に近づく。このため、定常区間8002においては、動作区間2121における1回の特定の動作に対する心拍の応答を特定することができる。
例えば、安静時の心拍数と、定常区間8002内の心拍数の平均値との差は、動作区間2121に含まれる特定の動作の発生間隔と、図4に示す応答パラメータのうち主にグラフの面積2206とに影響される。定常状態から安静時の状態への心拍数の変化の傾きは、図4に示す応答パラメータのうち主にグラフの傾き2204に示される心拍の下降速度に影響される。また、定常区間8002における、心拍数の時間変化と、特定の動作の回数の動作区間2121に占める時間密度変化との相関係数に基づいて、判定結果が学習モデルに合致しているか否かを判定できる。また、定常区間8002においては、単発での特定の動作に対する応答と類似する心拍数の変化を観察できるので、特定の動作の直後の心拍変化に基づいて、図4に示すような応答パラメータに相当する数値を算出することができる。このように、心拍特徴量は単位動作に対応する心拍応答の特徴を示す。
また、動作終了区間8003においては、図4に示すような特定の動作に対する応答パラメータのうち、グラフの傾き2202及び矢印2203に示されるような心拍数の上昇に関するパラメータをほぼ無視することができる。そのため、心拍数の定常状態から安静時への回復速度等、応答パラメータの立下りの特性を反映した波形が得られる。
例えば、図4のグラフの傾き2204に示すような心拍変化の傾きは、心拍の回復速度が早ければ急になる。また、動作終了区間8003においては、特定の動作2119の時点から安静時の心拍数に回復するまでに要する時間といった特徴量も異なる。これらの特徴量は、動作終了区間8003において発生する特定の動作の間隔に応じて変化する。
[機能ブロック]
次に、本実施例における検知装置700について説明する。図16は、実施例4における検知装置の一例を示す図である。図16に示す検知装置700は、通信I/F部110と、記憶部720と、制御部730とを有する。
記憶部720は、例えば制御部730が実行するプログラムや、各種データなどを記憶する。また、記憶部720は、相対区間判定モデル723を有する。記憶部720は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
相対区間判定モデル723は、図15に示すような各区間が食事か否かを判定するためのモデルを記憶する。相対区間判定モデル723は、例えば「判定時刻」における「食事」の有無と「心拍特徴量」及び「腕動作特徴量」に関する各項目を用いて、公知の機械学習により生成される。なお、相対区間判定モデル723は、例えば後に説明する学習部739により登録され又は更新される。また、相対区間判定モデル723は、例えば技術者により初期値を登録され、又は更新されるような構成であってもよい。
相対区間判定モデル723は、例えば動作開始区間8001と、定常区間8002と、動作終了区間8003とで、それぞれ異なる判定モデルを保有する。例えば、動作開始区間8001においては、図4のグラフに示すような応答パラメータのうち、心拍の上昇速度や心拍の上昇時間に重み付けされたモデルとしてもよい。また、特定の動作の判定時刻に基づく特定の動作の発生間隔を判定モデルに反映させてもよい。
制御部730は、検知装置700の全体的な処理を司る処理部である。制御部730は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部730は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。
制御部730は、入出力部131、特定動作検出部732、類似度推定部734及び行動検知部135に加えて、特徴量算出部737、相対区間特定部738及び学習部739をさらに有する。なお、特定動作検出部732、類似度推定部734、特徴量算出部737、相対区間特定部738及び学習部739も、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
本実施例における特定動作検出部732は、腕の特定の動作を算出し、特定の動作であると判定された動作、並びに当該動作に対応する判定時刻及び動作区間を、特徴量算出部737に出力する。また、特定動作検出部732は、学習処理の際に、特定の動作であると判定された動作、並びに当該動作に対応する判定時刻及び動作区間を、学習部739に出力する。
相対区間特定部738は、特定動作検出部732から出力された動作区間に対応する各相対区間を特定する。相対区間特定部738は、例えば動作区間2121の最初の特定動作2111の前後の所定の時間を、動作開始区間8001として特定する。同様に、相対区間特定部738は、動作区間2121における特定の動作に基づいて、定常区間8002及び動作終了区間8003を特定する。相対区間特定部738は、特定した相対区間に関する情報を、特徴量算出部737に出力する。
特徴量算出部737は、入出力部131から出力された心拍に関するデータを用いて、判定時刻における特定動作に対応する心拍の変動である心拍特徴量を算出する。特徴量算出部737は、特徴量算出部737は、相対区間特定部738から出力された各相対区間における心拍特徴量を算出し、類似度推定部734に出力する。また、特徴量算出部737は、学習処理の際に、判定時刻に対応する心拍特徴量を、学習部739に出力する。
類似度推定部734は、相対区間判定モデル723を参照し、特徴量算出部737から取得した心拍特徴量と、食事の際に発生する心拍特徴量との類似度を算出する。類似度推定部734は、算出した類似度を、行動検知部135に出力する。
学習部739は、図11に示すような教師データを用いて、各相対区間に対応する相対区間判定モデル723を更新する。学習部739は、例えば端末装置200若しくは図示しないその他の外部のコンピュータから通信I/F部110を通じて、食事の有無に関するデータを取得する。学習部739は、取得したデータと、特定動作検出部732から出力された腕動作特徴量と、特徴量算出部737から出力された特徴量とを用いて、例えば公知の教師あり機械学習の手法により、相対区間判定モデル723を登録し、又は更新する。
[処理の流れ]
本実施例における処理について、図17及び図18を用いて説明する。図17は、実施例4における学習処理の一例を示すフローチャートである。図17に示す学習処理は、例えば新たな教師データを取得する度に実行される。なお、以下の説明において、図13に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
図17に示すように、検知装置700の相対区間特定部738は、特定動作検出部732から特定動作の出力を受けると、相対区間を検出し、特徴量算出部737に出力する(S611)。次に、特徴量算出部737は、各相対区間における特徴量を算出し(S612)、その後S504に移行する。
次に、本実施例における検知処理について、図18を用いて説明する。図18は、実施例4における検知処理の一例を示すフローチャートである。なお、以下の説明において、図14に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
図18に示すように、検知装置700の相対区間特定部738は、特定動作検出部732から出力された動作区間に対応する各相対区間を特定し、特徴量算出部737に出力する(S413)。特徴量算出部737は、各相対区間における心拍特徴量と腕動作特徴量とを算出し、類似度推定部734に出力する(S414)。類似度推定部734は、相対区間判定モデル723から判定モデルを読み出す(S415)。そして、類似度推定部734は、心拍特徴量と腕動作特徴量と判定モデルとに基づいて類似度を算出し、行動検知部135に出力する(S416)。その後、S140に移行する。
また、行動検知部135は、判定時刻を食事と判定した場合(S140)及び非食事と判定した場合(S141)のいずれにおいても、全ての相対区間について判定を完了したか否かを判定する(S443)。行動検知部135は、全ての相対区間について判定を完了していないと判定した場合(S443:No)、S414に戻って処理を繰り返す。一方、行動検知部135は、全ての相対区間について判定を完了したと判定した場合(S443:Yes)、S150に移行する。
[効果]
以上説明したように、本実施例における学習情報は、心拍が通常の状態から所定の状態まで変化するまでの区間である動作開始区間と、心拍が所定の状態を持続する動作中区間と、心拍が所定の状態から通常の状態に戻るまでの区間である動作終了区間とのそれぞれに対応する。本実施例における判定する処理は、動作区間に対応する前記第二のセンシングデータを、前記動作開始区間、前記動作中区間及び前記動作終了区間に分割された各区間に対応するセンシングデータと、分割された区間に対応する学習情報とに基づき行われる。これにより、食事動作の開始や終了などの時点に応じて、よりユーザによる食事行動を検知できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。また、図示した各処理は、上記の順番に限定されるものではなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
例えば、実施例1乃至4においては、特定の動作として食事動作について説明したが、これに限られず、腕の動作と心拍の変動とに一定のパターンが見られるその他の動作を検出してもよい。
また、実施例1乃至4において、特定動作が検出された判定時刻における心拍変動に基づいて食事か否かを判定する構成を説明したが、これに限られない。例えば、応答パラメータに類似する心拍が測定された時点を判定時刻として特定し、判定時刻における腕の動作が特定の動作に該当するか否かに応じて食事か否かを判定するような構成であってもよい。
また、実施例2に示した、特定の動作が頻発し又は継続する区間を、実施例4に示すような動作開始区間、定常区間及び動作終了区間に細分化してもよい。これにより、学習モデルを用いずに応答パラメータとの類比を判定するような構成においても、食事動作の開始や終了などの時点に応じて、よりユーザによる食事行動を検知できる。
なお、特定の判定時刻における食事の有無の判定結果が、当該判定時刻の前後の時刻での判定結果と異なる場合、当該特定の判定時刻における食事の有無の判定結果が誤検知又は検知漏れによるものである可能性が高い。図19は、実施例5における判定時刻の前後の時間帯との検知結果の比較の一例を示す図である。図19は、判定時刻5001の「×」は、当該時刻において非食事であると判定されたことを示す。同様に、判定時刻5002の「○」は、当該時刻が食事であると判定されたことを示す。
この場合において、期間5100は、対象者が食事をとっている期間であると考えられる。しかし、期間5100に含まれる判定時刻5011においては、非食事であると判定されている。この場合において、本実施例における検知装置は、判定時刻5011は、検知結果にかかわらず、「食事である」と判定してもよい。このように、前後の判定時刻における検知結果に応じて食事判定結果を更新することにより、誤検知又は検知漏れによる判定制度の低下を抑制することができる。
また、実施例2では、機械学習により、判定時刻において対象者が食事中であるか否かを判定する構成について説明したが、これに限られず、対象者の食事の内容又は種類等をさらに判定するような構成であってもよい。このような構成は、図11に示すような項目に加えて、食事の分類又は内容をさらに含む教師データを用意することにより実現できる。
図20は、実施例5における教師データの一例を示す図である。図20に示すように、本実施例における教師データは、「判定時刻」における「食事」の有無、「心拍特徴量」及び「腕動作特徴量」に加えて、さらに食事の「分類」及び「内容」を対応付けて記憶する。
図20において、「分類」は、「菓子」や「主食」など、食事をカテゴリ分けする。「内容」は、対象者が食べた食料の内容を示す。本実施例において、行動検知部135は、図20に示すような教師データを用いて、学習モデルを生成する。これにより、食事の有無に加えて、食事の分類や内容についても精度よく検知できる。なお、教師データとして、食事の分類や内容に加えて、食事のカロリー量などを与えて、腕動作特徴量及び心拍特徴量を用いて摂取カロリー量を検知するような構成であってもよい。
また、実施例4における図15に示す相対区間は一例である。例えば、図15においては、動作開始区間8001と、定常区間8002と、動作終了区間8003との間に空白期間が設けられているが、実施の形態はこれに限られない。例えば、各相対区間が空白区間を介さずに隣接していてもよく、また各相対区間が重複する期間があってもよい。また、動作区間2121前後の心拍数又は腕の動作に基づいて、相対区間を選択してもよい。例えば、特定の時刻の一分後に心拍数が3bpm以上減少した場合、又は当該特定の時刻に所定の腕の動作が検出された場合に、当該特定の時刻を相対区間の開始時刻として、当該開始時刻の5分後を相対区間の終了時刻としてもよい。さらに、相対区間の数は一例であり、相対区間が2つであったり、4つ以上であったりしてもよい。
また、動作測定装置10及び心拍測定装置20は、上記した例に限られない。例えば、動作測定装置10は、モーションセンサ11として、加速度センサの代わりにジャイロセンサを用いることができる。この場合、動作測定装置10は、ジャイロセンサによりセンシングされた慣性データを用いて、対象者の腕の動きを取得する。
また、心拍センサには、必ずしも装着型のものを採用せずともかまわない。例えば、ユーザの生体の一部が所定のサンプリング周波数で撮像される画像に関する輝度の時系列変化から心拍数を検出したり、RF(Radio Frequency)モーションセンサを用いて拍動に伴うドップラ周波数を検出したりすることにより、心拍数の検出をユーザの生体部位に非接触の状態で実現することとしてもかまわない。
[システム]
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
[スタンドアロン]
上記の実施例1では、動作測定装置10、心拍測定装置20及び検知装置100を含むクライアントサーバシステムとして構築される場合を例示したが、これに限定されない。例えば、心拍データの取得から食事時刻の推定までの一連の処理を動作測定装置10、心拍測定装置20、検知装置100、あるいはその他のコンピュータにスタンドアロンで実行させることとしてもかまわない。
[システムの応用例]
上記の実施例1では、検知システム1に検知装置100が含まれることとしたが、必ずしも検知装置100が含まれずともかまわない。すなわち、端末装置200がウェアラブルガジェット等として実装される場合、ウェアラブルガジェットにより近距離無線通信等で接続されるスマートフォンやタブレット端末で心拍データの取得以外の各種の処理、例えば食事時刻の推定を実行させることとしてもかまわない。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入出力部131、特定動作検出部132、応答波形算出部133、類似度推定部134及び行動検知部135を検知装置100の外部装置としてネットワーク経由で接続するようにしてもよい。
[食事検知プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図21を用いて、上記の実施例と同様の機能を有する食事検知プログラムを実行するコンピュータの一例について説明する。なお、図21においては実施例1における検知装置100について説明するが、実施例2乃至4における検知装置500、600及び700についても、同様の構成により実現できる。
図21は、食事検知プログラムを実行するコンピュータのハードウェア構成例を示す図である。図21に示すように、コンピュータ1000は、操作部1100aと、スピーカ1100bと、カメラ1100cと、ディスプレイ1200と、通信部1300とを有する。さらに、このコンピュータ1000は、CPU1500と、ROM1600と、HDD1700と、RAM1800とを有する。これら1100〜1800の各部はバス1400を介して接続される。
HDD1700には、図21に示すように、上記の実施例1で示した入出力部131、特定動作検出部132、応答波形算出部133、類似度推定部134及び行動検知部135と同様の機能を発揮する食事検知プログラム1700aが記憶される。この食事検知プログラム1700aは、図5に示した入出力部131、特定動作検出部132、応答波形算出部133、類似度推定部134及び行動検知部135の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD1700には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD1700に格納されればよい。
このような環境の下、CPU1500は、HDD1700から食事検知プログラム1700aを読み出した上でRAM1800へ展開する。この結果、食事検知プログラム1700aは、図21に示すように、食事検知プロセス1800aとして機能する。この食事検知プロセス1800aは、RAM1800が有する記憶領域のうち食事検知プロセス1800aに割り当てられた領域にHDD1700から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、食事検知プロセス1800aが実行する処理の一例として、図6に示す処理などが含まれる。なお、CPU1500では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の食事検知プログラム1700aは、必ずしも最初からHDD1700やROM1600に記憶されておらずともかまわない。例えば、コンピュータ1000に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ1000がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ1000に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ1000がこれらから各プログラムを取得して実行するようにしてもよい。
1 検知システム
10 動作測定装置
20 心拍測定装置
100、500、600、700 検知装置
110 通信I/F部
120、620、720 記憶部
121 応答パラメータ
622 動作区間判定モデル
723 相対区間判定モデル
130、530、630、730 制御部
131 入出力部
132、532、632、732 特定動作検出部
133 応答波形算出部
134、534、634、734 類似度推定部
135 行動検知部
536 波形重ね合わせ部
637、737 特徴量算出部
738 相対区間特定部
200 端末装置

Claims (10)

  1. 対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、
    前記対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得し、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定し、
    前記動作区間に対応する前記第二のセンシングデータと、食事時における前記特定動作の単位動作に対応する学習情報であって食事時の人間の心拍応答の特性を示す応答パラメータが示す波形を累計した時系列データ、に基づく類似度が所定の条件を満たすか否かに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する
    処理をコンピュータに実行させることを特徴とする食事検知プログラム。
  2. 前記第一のセンサは慣性センサであって、前記特定動作は、食事中に繰り返される前記腕の前記単位動作であって、前記動作区間は、前記単位動作が少なくとも2回以上繰り返された区間であることを特徴とする請求項1に記載の食事検知プログラム。
  3. 前記応答パラメータは、前記心拍の振幅、前記心拍の上昇速度及び上昇時間、前記心拍の下降速度及び下降時間、並びに心拍グラフに占める前記心拍の上昇から下降までの面積のうち少なくとも一つに関することを特徴とする請求項1又は2に記載の食事検知プログラム。
  4. 前記学習情報は、前記心拍が通常の状態から所定の状態まで変化するまでの区間である動作開始区間と、前記心拍が前記所定の状態を持続する動作中区間と、前記心拍が前記所定の状態から前記通常の状態に戻るまでの区間である動作終了区間とのそれぞれに対応し、
    前記判定する処理は、前記動作区間に対応する前記第二のセンシングデータを、前記動作開始区間、前記動作中区間及び前記動作終了区間に分割し、
    前記動作開始区間、前記動作中区間及び前記動作終了区間に対応する前記第二のセンシングデータと、前記動作開始区間、前記動作中区間及び前記動作終了区間に対応する前記学習情報とに基づき、行われることを特徴とする請求項1〜3のいずれか一項に記載の食事検知プログラム。
  5. 対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、
    前記対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得し、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定し、
    食事時における前記特定動作の単位動作に対応し、前記心拍が通常の状態から所定の状態まで変化するまでの区間である動作開始区間と、前記心拍が前記所定の状態を持続する動作中区間と、前記心拍が前記所定の状態から前記通常の状態に戻るまでの区間である動作終了区間とのそれぞれに対応する学習情報、及び、前記動作開始区間、前記動作中区間及び前記動作終了区間に分割した前記動作区間に対応する、それぞれの前記第二のセンシングデータに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する、
    処理をコンピュータに実行させることを特徴とする食事検知プログラム。
  6. 前記学習情報は、前記動作区間内の少なくとも一部を含む区間内の前記特定動作の頻度と、前記動作区間内の少なくとも一部を含む区間内の心拍データの増減との関係に関する情報であることを特徴とする請求項に記載の食事検知プログラム。
  7. コンピュータが、
    対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、
    前記対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得し、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定し、
    前記動作区間に対応する前記第二のセンシングデータと、食事時における前記特定動作の単位動作に対応する学習情報であって食事時の人間の心拍応答の特性を示す応答パラメータが示す波形を累計した時系列データ、に基づく類似度が所定の条件を満たすか否かに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する
    処理を実行することを特徴とする食事検知方法。
  8. 対象者の腕の動作を検知する第一のセンサと、
    前記対象者の心拍を検知する第二のセンサと、
    前記第一のセンサ及び前記第二のセンサから取得されたデータを用いて食事を検知する検知装置と、
    を有する食事検知システムであって、前記検知装置は、
    前記第一のセンサから第一のセンシングデータを取得する第一取得部と、
    前記第二のセンサから第二のセンシングデータを取得する第二取得部と、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定する動作抽出部と、
    前記動作区間に対応する前記第二のセンシングデータと、食事時における前記特定動作の単位動作に対応する学習情報であって食事時の人間の心拍応答の特性を示す応答パラメータが示す波形を累計した時系列データ、に基づく類似度が所定の条件を満たすか否かに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する行動検知部と
    を有することを特徴とする食事検知システム。
  9. 対象者の腕の動作を検知可能な第一のセンサから第一のセンシングデータを取得し、
    前記対象者の心拍を検知可能な第二のセンサから第二のセンシングデータを取得し、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定し、
    食事時における前記特定動作の単位動作に対応し、前記心拍が通常の状態から所定の状態まで変化するまでの区間である動作開始区間と、前記心拍が前記所定の状態を持続する動作中区間と、前記心拍が前記所定の状態から前記通常の状態に戻るまでの区間である動作終了区間とのそれぞれに対応する学習情報、及び、前記動作開始区間、前記動作中区間及び前記動作終了区間に分割した前記動作区間に対応する、それぞれの前記第二のセンシングデータに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する、
    処理をコンピュータが実行することを特徴とする食事検知方法。
  10. 対象者の腕の動作を検知する第一のセンサと、
    前記対象者の心拍を検知する第二のセンサと、
    前記第一のセンサ及び前記第二のセンサから取得されたデータを用いて食事を検知する検知装置と、
    を有する食事検知システムであって、前記検知装置は、
    前記第一のセンサから第一のセンシングデータを取得する第一取得部と、
    前記第二のセンサから第二のセンシングデータを取得する第二取得部と、
    前記第一のセンシングデータに基づき、前記対象者の前記腕による特定動作が少なくとも2回以上実行された動作区間を設定する動作抽出部と、
    食事時における前記特定動作の単位動作に対応し、前記心拍が通常の状態から所定の状態まで変化するまでの区間である動作開始区間と、前記心拍が前記所定の状態を持続する動作中区間と、前記心拍が前記所定の状態から前記通常の状態に戻るまでの区間である動作終了区間とのそれぞれに対応する学習情報、及び、前記動作開始区間、前記動作中区間及び前記動作終了区間に分割した前記動作区間に対応する、それぞれの前記第二のセンシングデータに基づき、前記動作区間の一部を少なくとも含む区間において食事が行われたか否かを判定する行動検知部と、
    を有することを特徴とする食事検知システム。
JP2017123759A 2017-06-23 2017-06-23 食事検知プログラム、食事検知方法及び食事検知システム Active JP6881082B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017123759A JP6881082B2 (ja) 2017-06-23 2017-06-23 食事検知プログラム、食事検知方法及び食事検知システム
US16/003,871 US10952670B2 (en) 2017-06-23 2018-06-08 Meal detection method, meal detection system, and storage medium
EP18176939.9A EP3417767B1 (en) 2017-06-23 2018-06-11 Meal detection method, meal detection system, and meal detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123759A JP6881082B2 (ja) 2017-06-23 2017-06-23 食事検知プログラム、食事検知方法及び食事検知システム

Publications (2)

Publication Number Publication Date
JP2019005232A JP2019005232A (ja) 2019-01-17
JP6881082B2 true JP6881082B2 (ja) 2021-06-02

Family

ID=62778666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123759A Active JP6881082B2 (ja) 2017-06-23 2017-06-23 食事検知プログラム、食事検知方法及び食事検知システム

Country Status (3)

Country Link
US (1) US10952670B2 (ja)
EP (1) EP3417767B1 (ja)
JP (1) JP6881082B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022091341A (ja) * 2020-12-09 2022-06-21 日本電気株式会社 送信装置照合装置、学習装置、送信装置照合方法、学習方法、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701039B2 (ja) * 2005-08-12 2011-06-15 順明 山井 体に良い食事摂取をナビゲートする装置
JP2011107768A (ja) 2009-11-12 2011-06-02 Sharp Corp 食行動改善支援システム
JP2011115508A (ja) 2009-12-07 2011-06-16 Sharp Corp 食行動検知システム
US10130277B2 (en) 2014-01-28 2018-11-20 Medibotics Llc Willpower glasses (TM)—a wearable food consumption monitor
US9168000B2 (en) 2013-03-13 2015-10-27 Ethicon Endo-Surgery, Inc. Meal detection devices and methods
US9685097B2 (en) * 2013-06-25 2017-06-20 Clemson University Device and method for detecting eating activities
JP6557952B2 (ja) * 2014-09-03 2019-08-14 富士通株式会社 対象者特定装置、対象者特定プログラム及び対象者特定方法
WO2016038585A1 (en) 2014-09-12 2016-03-17 Blacktree Fitness Technologies Inc. Portable devices and methods for measuring nutritional intake
JP6489130B2 (ja) 2014-12-12 2019-03-27 富士通株式会社 食事推定プログラム、食事推定方法及び食事推定装置
JP6390783B2 (ja) 2015-03-10 2018-09-19 富士通株式会社 食事時間推定方法及び食事時間推定装置
US20170116391A1 (en) * 2015-10-26 2017-04-27 Sk Planet Co., Ltd. Health management service system according to eating habit pattern and method thereof
JP6544438B2 (ja) 2015-11-05 2019-07-17 富士通株式会社 食事検知装置、食事検知方法および食事検知プログラム

Also Published As

Publication number Publication date
US10952670B2 (en) 2021-03-23
EP3417767B1 (en) 2022-08-10
EP3417767A1 (en) 2018-12-26
JP2019005232A (ja) 2019-01-17
US20180368764A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6489130B2 (ja) 食事推定プログラム、食事推定方法及び食事推定装置
JP6356616B2 (ja) 逐次姿勢識別装置および自律神経機能情報取得装置、方法ならびにプログラム
JP6439729B2 (ja) 睡眠状態推定装置
JP5674766B2 (ja) 着用位置を検出するためのセンシングデバイス
JP6362521B2 (ja) 行動分類システム、行動分類装置及び行動分類方法
JP6638734B2 (ja) 食事時間推定方法、食事時間推定プログラム及び食事時間推定装置
JP2007229218A (ja) 覚醒度推定装置及びシステム並びに方法
JP6048242B2 (ja) 食動作検出装置、食動作検出方法及びプログラム
JP6953831B2 (ja) 食事検知プログラム、食事検知方法及び食事検知システム
US10595789B2 (en) Meal time estimation method, meal time estimation device, and recording medium
JPWO2010143361A1 (ja) 作業認識装置
JP6881082B2 (ja) 食事検知プログラム、食事検知方法及び食事検知システム
JP6589994B2 (ja) 行動検知装置、行動検知方法及び行動検知プログラム
JP6969177B2 (ja) 特定行動検知プログラム、特定行動検知方法及び特定行動検知システム
JP6385398B2 (ja) 活動量処理装置、活動量処理方法、及び、活動量処理プログラム
JP2018000230A (ja) 逐次姿勢識別装置、逐次姿勢識別方法および逐次姿勢識別プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6881082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150