JP3923035B2 - Biological condition analysis apparatus and biological condition analysis method - Google Patents
Biological condition analysis apparatus and biological condition analysis method Download PDFInfo
- Publication number
- JP3923035B2 JP3923035B2 JP2003191213A JP2003191213A JP3923035B2 JP 3923035 B2 JP3923035 B2 JP 3923035B2 JP 2003191213 A JP2003191213 A JP 2003191213A JP 2003191213 A JP2003191213 A JP 2003191213A JP 3923035 B2 JP3923035 B2 JP 3923035B2
- Authority
- JP
- Japan
- Prior art keywords
- section
- data
- feature amount
- biological
- length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 0 C*CCN(C)C(C*(C)C)*(C)C Chemical compound C*CCN(C)C(C*(C)C)*(C)C 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、生体の状態を計測して得られたデータを分析する生体状態分析装置及び生体状態分析方法に関し、さらに詳しくは、生体の状態を計測して得られたデータから生体の状態を認識する生体状態分析装置及び生体状態分析方法に関する。
【0002】
【従来の技術】
生体の状態を計測して得られた時系列データから生体の行動や状況を自動的に認識することは、人体の健康管理や、異常の発生を即座に察知する人体監視などの分野において重要な技術である。この技術は、例えば、食事や運動を管理することにより健康維持や適切な治療を実現する場合や、健康状態の急変を察知する場合などへ適用され得る。また、生体の状態に応じたきめ細やかなサービスの提供などへこの技術を応用することも考えられる。
【0003】
そこで、身体に装着した加速度センサを用いて生体の行動を認識する技術が、特開平10-113343号公報(特許文献1)に開示されている。
【0004】
この技術では、計測された加速度データから当該データに含まれている周波数成分を抽出し、別途記憶してある基準値との相関の高さに応じて行動を認識する。
【0005】
また、特開平8-292939号公報(特許文献2)では、時系列データの分析方法として、特に時間的な収集間隔が一定でないような時系列データの分析方法として、時間変化や個体差を補正した後に統計処理を行なう技術が開示されている。
【0006】
また、特開平9-294727号公報(特許文献3)では、脈拍数と、加速度による体動とから、安静時や運動時の消費カロリーを計測する装置が開示されている。
【0007】
【特許文献1】
特開平10-113343号公報
【特許文献2】
特開平8-292939号公報
【特許文献3】
特開平9-294727号公報
【0008】
【発明が解決しようとする課題】
1番目の従来技術に代表される、加速度データを用いた行動の認識技術では、データに含まれる周波数成分を抽出している。周波数成分を抽出するには、フーリエ変換またはウェーブレット変換を用いる。これらフーリエ変換及びウェーブレット変換は、周波数成分ごとのスペクトル強度を得ることができ、行動を周波数特性で特徴づけるために有効であるが、計算量が大きい。従って、処理時間が多くかかり、行動の認識がリアルタイムにはできないという問題があった。また、フーリエ変換やウェーブレット変換を行なう際に多くのメモリ容量を要することになるため、小型の機器での実現には適さないという問題があった。
【0009】
2番目の従来技術においても、時間的変化を表すのに周波数成分を用いるため、やはり処理速度が遅くなる問題や多くのメモリ容量を必要とする問題があり、小型の機器でのリアルタイムの認識には適さなかった。また、本技術では、時間変化が特定の関数で近似できる場合にはその関数の特徴を表すパラメータを用いることにしているが、近似すべき関数が未知である場合には適用できなかった。
【0010】
3番目の従来技術では、主に健康管理を目的として人体の消費カロリーを算出するための技術であるため、人体が歩行中なのか食事中なのか、あるいはデスクワーク中なのか、などの行動等を認識することはできなかった。
【0011】
本発明は、上記問題点に鑑みてなされたものであり、その目的は、生体の行動や状況等の状態を、少ない計算量で、高精度に認識できる生体状態分析装置及び生体状態分析方法を提供することにある。
【0012】
【課題を解決するための手段】
本発明の一態様としての生体状態分析装置は、
生体の状態を計測して、時系列の加速度データ及び時系列の生体データを取得する生体状態計測部と、
前記加速度データおよび前記生体データをそれぞれ複数の区間に分割し、区間ごとに特徴量を抽出する特徴量抽出部と、
前記加速度データの各区間から抽出された特徴量及び前記生体データの各区間から抽出された特徴量を用いて、前記生体の状態を認識する生体状態認識部と、
を備え、
前記特徴量抽出部は、前記生体データに対する区間の長さを、前記加速度データに対する区間の長さよりも長く設定することを特徴とする。
【0013】
本発明の一態様としての方法は、
生体の状態を計測して取得された、時系列の加速度データ及び時系列の生体データを生体状態分析装置において処理する方法であって、
特徴量抽出部において前記加速度データおよび前記生体データをそれぞれ複数の区間に分割し区間ごとに特徴量を抽出する特徴量抽出ステップと、
前記加速度データの各区間から抽出された特徴量、及び前記生体データの各区間から抽出された特徴量を用いて、生体状態認識部において前記生体の状態を認識する生体状態認識ステップと、
を備え、
前記特徴量抽出ステップは、前記特徴量抽出部により前記生体データに対する区間の長さを前記加速度データに対する区間の長さよりも長く設定することを含むことを特徴とする方法。
【0014】
本発明で用いる生体データとは、例えば脈波、皮膚温度、GSR(Galvanic Skin Response/皮膚電気反射)、心拍数、筋電、心電、呼吸、脳波、血流、血圧等のデータである。
【0015】
特徴量としては、フーリエ(Fourier)変換やウェーブレット(wavelet)変換を必要とする周波数成分を用いず、計算量を小さく抑えることのできる統計量を用いることが好ましい。
【0016】
本発明において用いる統計量とは、例えば、平均、分散、最大値、最小値、階差、区間の最初の値と最後の値の差、区間内の変動の和、などの他これらの組み合わせが考えられる。
【0017】
特徴量抽出の際の区間の長さは、生体データに対する区間の長さが加速度データに対する区間の長さよりも長いことが好ましい。また、その区間の長さは処理中に動的に変化させることが好ましい。
【0018】
【発明の実施の形態】
以下、図面を参照して、本発明の一実施の形態について説明する。
【0019】
図1は、本発明の一実施の形態としての生体状態分析装置(行動認識装置)の構成図を示す。
【0020】
本実施の形態による行動認識装置は、信号計測部1、前処理部(ノイズ除去部)2、特徴量抽出部3、行動認識部4を備える。特徴量抽出部3は、区間サイズ決定部5と特徴量算出部6から成る。
【0021】
信号計測部1は、生体に装着させたセンサから、時系列の加速度データと、時系列の生体データとを計測するものである。
【0022】
ここで、生体データとは、例えば脈波、皮膚温度、GSR(Galvanic Skin Response)(皮膚電気反射)、心拍数、筋電、心電、呼吸、脳波、血流、血圧等のデータである。これらのデータを計測する各種センサを生体の複数箇所に装着することも可能であり、その場合にはより多様な行動(例えば食事中、音楽鑑賞中等)や状況(例えばストレス度等)等の状態の認識を実現できる。生体に関するデータの他、生体が存在する環境の温度や湿度なども同時に計測してもよい。
【0023】
前処理部(ノイズ除去部)2は、極端な外れ値が計測データにあった場合にそれらを除去する。また、前処理部2は、データ信号の通信エラーなどにより、値が欠損している場合には欠損していることを示す値を欠損部分に付加する。
【0024】
特徴量抽出部3は、前処理後のデータ(前処理後データ)から種々の統計量を特徴量として抽出する。
【0025】
より詳しくは、区間サイズ決定部5が、前処理後データにおいて、特徴量を抽出する区間の長さを決定し、特徴量算出部6が、決定された各区間ごとに統計量等の特徴量を抽出する。
【0026】
統計量は、平均値、分散、最大値、最小値、階差、区間の最初の値と最後の値の差、区間内の変動の和、などのほか、これらの組み合わせも考えられる。
【0027】
特徴量としては、生体データと、他の系から得られたデータとの演算による特徴量も考えられる。例えば、生体が存在する環境温度と生体の皮膚温度のデータが得られている場合にはそれらの差を特徴量としてもよい。
【0028】
行動認識部4は、算出された特徴量を用いて生体の行動や状況を認識する。認識には、特徴量に基づき行動等を出力するモデルを予め用意しておき、特徴量をモデルへの入力として、行動を分類する。モデルには、決定木、分類木、ニューラルネットワーク、回帰式、などを用いることが可能である。
【0029】
その他、行動毎に特徴量のパターンを用意しておいて、算出された特徴量と各パターンとの相関度や類似性を求め、最も相関度や類似性の高い行動を認識結果として求めてもよい。
【0030】
次に、上述のように構成された行動認識装置の処理動作について、具体例を用いて、説明する。
【0031】
以下では、人体の手首1つにセンサを装着し、このセンサにより、2軸の加速度、皮膚温度、脈波、GSR(皮膚電気反射)のデータを計測する。
【0032】
図2は、行動認識装置による処理ステップを示すフローチャートである。
【0033】
まず、信号計測部1が、上述のセンサを用いて、2軸の加速度データ、皮膚温度、脈波、GSRのデータを取得する(ステップS1)。
【0034】
図3は、計測された2軸の加速度(加速度1及び加速度2)のデータ例、図4は、計測された皮膚温度のデータ例、図5は、計測された脈波のデータ例、図6は、GSRのデータ例を示す図である。図3〜図6は、例えば50ms−1のサンプリング期間により取得された各データをそれぞれ直線で結んだものである。
【0035】
次に、前処理部2が、計測されたデータから、ノイズ除去、欠損値検知などの処理を行う(ステップS2)。ノイズは、計測の段階や、信号の通信の段階で、例えばミスや外乱などによって発生する。
【0036】
図7は、データ欠損及びノイズを説明するための図である。
【0037】
図7の部分Aに示すように、極端に基準値からはずれた値はノイズとし、前処理部2は、このような値をノイズとして除去する。
【0038】
また、部分Bに示すように、値が計測されずに欠損している場合には、欠損が分かるように、前処理部2は、例えば「−1」など、正常データと区別可能な、欠損を識別する値をいれておく。ここで、計測された信号を単に記録しているだけであると欠損を見逃す恐れがあるので、信号の計測と同時に、通し番号やデータの計測時刻などを所定の間隔で付加していき、それらの付加情報が連続していない場合には欠損があったと見なすようにしてもよい。
【0039】
次に、図2に示すように、特徴量抽出部3が、前処理後のデータから特徴量を抽出する(ステップS3)。
【0040】
この特徴量抽出処理(ステップS3)は、区間サイズ決定処理(ステップS3−A)と特徴量算出処理(ステップS3−B)とから成る。
【0041】
区間サイズ決定処理(ステップS3−A)は、区間サイズ決定部5が、特徴量を算出する連続した区間の長さを決定する処理である。特徴量算出処理(ステップS3−B)は、特徴量算出部6が、決定された各区間内での特徴量を求める処理である。
【0042】
区間サイズ決定処理(ステップS3−A)において、区間サイズは、基本的には、加速度データの場合は10秒以下、特に初期値としては10秒程度を用いることとする(後述するように区間サイズは動的に変化する)。一方、生体データ(皮膚温度、脈波、GSRのデータ)の場合は40秒〜2分、特に初期値としては40秒程度を用いることとする。これは、加速度データは動作に直結してすぐに変動するのに対し、生体データは一般的に変化が緩やかなためである。
【0043】
例えばジョギングの場合、加速度はジョギングを始めた瞬間から変化が表れるが、脈拍(脈波)や皮膚温度が上昇(変化)するのはジョギングを開始してしばらく続けてからである。
【0044】
また、特に生体データの場合の区間サイズを加速度よりも長く、40秒程度としたのは、実験結果に基づくものである。これについてもう少し詳しく説明する。
【0045】
図8は、生体データの区間サイズをさまざまに変更して特徴量を算出し、その特徴量を用いて人体の食事動作を認識する実験を行った結果に基づく誤分類率(誤認識率)を示すグラフ図である。
【0046】
実験状況によって若干の変動があるが、同図によれば、区間の長さが60秒を超えたところで誤りが減ることが確認できる。従って、60秒以上にすることが精度の面からは望ましいが、区間サイズを長く設定すると、認識対象の行動によってはデータの変化を抽出できずに精度に悪影響を与える場合があると思われる。そこで、本実施の形態では、上述のように、区間サイズを40秒以上にすることとした。
【0047】
ただし、対象となる生体や認識したい行動の特徴によっては、より適切な区間サイズを定めるよう配慮することが好ましい。例えば、行動の認識の目的が、行動における動作と瞬間的な心拍数の変化との関連を調査することである場合には、心拍数データの特徴量を抽出する区間を短く、例えば15秒程度とすることも考えられる。
【0048】
また、区間サイズは固定ではなく、状況に応じて区間サイズを動的に変更可能とする。特に生体データの場合にはデータの変化が緩やかなため、ある程度区間サイズを長くした方が特徴を抽出しやすいが、長過ぎる場合には状況の短い変化を見逃す恐れがある。他方、区間サイズを短くし過ぎた場合には、状況の長い変化を見逃す恐れもある。例えば睡眠時と日中に活動している時とでは生体データの変化の周期が異なる。そこで、例えば睡眠時には、一般的に変化の周期が長いため、区間サイズを長くすることとする。
【0049】
図9は、特徴量抽出処理(ステップS3)の詳細な処理ステップを示すフローチャートである。
【0050】
まず、特徴量算出部6(図1参照)は、1つ前と同じ区間サイズで区間内の特徴量を算出する(ステップS11)。ここでは、特徴量として、加速度の平均、加速度の分散、脈波から変換された脈拍、皮膚温度の差(区間内の最初の値と最後の値の差)、を求めることとする。
【0051】
次に、区間サイズ決定部6は、算出された特徴量について、1つ前の区間の特徴量と比較して所定の幅以上の変化があるかどうかを調べる(ステップS12)。ここで「前の区間」とは、直前の区間、5区間前や10区間前、1時間前の区間などが考えられるが、通常は、直前の区間〜5分程度前の区間のいずれか、あるいはこれらの組み合わせが適当な場合が多い。
【0052】
区間サイズ決定部6は、特徴量に変化があったと判断した場合には(ステップS12のYes)、生体の様子が変化していると判断し、生体の変化を捉えやすくするため、前の区間サイズよりも区間サイズを短くする(ステップS13)。そして、特徴量算出部6は、新たな区間サイズ内での特徴量を算出し、区間サイズ決定部6は、上述のステップS11で得られた特徴量に代えて、この特徴量を採用し、行動認識部4に送出する(ステップS14)。
【0053】
一方、区間サイズ決定部6は、特徴量に変化がなかったと判断した場合には(ステップS12のNo)、現在の特徴量が所定の範囲(異常範囲)内の値であるかどうかをチェックする(ステップS15)。これは、前の区間との変化がない場合でも生体が異状な場合には長期的に見て生体データに変化が起こる可能性が高いと考えられるからである。
【0054】
区間サイズ決定部6は、特徴量が所定の範囲内であったと判断した場合には(ステップS15のYes)、生体の変化が緩やかであると考えることができるので、区間サイズを長く変更する(ステップS16)。そして、特徴量算出部6は、新たな区間サイズ内での特徴量を算出し、区間サイズ決定部6は、上述のステップS11で算出された特徴量に代えて、この特徴量を採択し、行動認識部4に送出する(ステップS14)。
【0055】
一方、区間サイズ決定部6は、特徴量が所定の範囲外であったと判断した場合には(ステップS15のNo)、ステップS11で算出した特徴量を利用することとする。
【0056】
上述のステップS13及びステップ16における区間の長さの変更処理は、例えば±10%程度の幅で行なうことが考えられる。
【0057】
上では、区間サイズを動的に変更する処理を含んだ特徴量抽出処理について説明したが、区間サイズの変更方法については、上で説明したものに限られない。例えば、計測した時刻や生体の行動に関する知識が得られている場合には、これらのデータを補助的に用いて区間サイズを変更してもよい。例えば、明らかに睡眠中と思われる時刻には区間を長くすることなども可能である。
【0058】
以上に説明した特徴量抽出処理(図2のステップS3)によって、前処理後のデータから特徴量が算出される。
【0059】
図10は、算出された特徴量の一部例を示す図表である。
【0060】
上述したように、区間サイズは、動的に変化するので、図10に示すように、特徴量は、例えば単位時間(例えば1分)当たりの時間に変換されて用いられる。
【0061】
次に、図2に示すように、行動認識部4が、抽出された特徴量に基づいて、行動認識を行ない、認識結果を出力する(ステップS4)。
【0062】
本実施の形態では、行動認識のために分類木型のモデルを用いることとする。表形式のデータから分類木または決定木を構築する方法はさまざまな提案がされているが、例えば本実施の形態では、CARTと呼ばれる2進分類木を用いる。CARTについては「CARTによる応用2進木解析法」(大滝厚、堀江宥、Dan Steinberg著、日科技連出版社、1997年発行)などの書籍に詳しい。
【0063】
分類木による行動認識では、根本から順に、特徴量の値によって決まる枝を、最後の末端(葉)までたどる。末端には行動の種別が割り当てられている。従って、この特徴量を持つデータは、この行動や認識であるとの解釈をすることができる。
【0064】
図11は、本実施の形態において用いる分類木の例を示した図である。
【0065】
例えば、図10の表における1行目の特徴量データは、図11の分類木によると、音楽鑑賞という行動の際に得られたデータであると解釈することができる。ただし、図11の分類木は、本実施の形態を説明するために抜粋したものであり、実際に用いる値や用語はこれに限るものではない。
【0066】
行動等の認識処理に用いる手法として、分類木は、構築されたモデルを用いてデータを分類するタイプの中で、計算量が小さく、また、利用者にとって構成を理解しやすいという利点がある。しかし、本発明による行動等の認識の実現は分類木に限るものではない。図10に示すような表形式のデータからモデルを構築し、それを用いて分類を行なう手法は多く提案されており、例えばニューラルネットワークや回帰式などを行動等の認識処理に用いることも当然に考えられる。また、算出された特徴量を、各行動の典型的な特徴量と比較することによって類似度や相関度を算出し、類似度や相関度の高い行動を認識結果とする方法も可能である。
【0067】
このように生体の行動や状況を認識することは、さまざまな応用が考えられる。特に、本実施の形態では計算量の削減と高精度な認識を両立させているため、小型の機器を生体に装着することができる。それ故、生体への負担を最小限にし、多くの場面で利用することが可能となっている。一つには、健康管理の面での利用が有効であると考えられる。例えば食事や運動、睡眠時等の状態を知ることにより、生体の健康維持または治療やリハビリテーションのためのアドバイスを発することが実現できる。また、生体の監視装置という面では、生体の状況の急な変化を感知して他者に警告を発したり、ネットワークを介して遠方の関係者に連絡を送ったりすることが実現できる。特に、本実施の形態によればリアルタイムに生体の状況を判断することができるので、監視装置には適しているといえる。その他、生体の行動に依存したきめ細やかなサービスへの応用も考えられる。例えば、外出先において生体が疲れていることを認識した場合に、座れる場所やなにか飲み物を取れる場所を示すなどのサービスが考えられる。また、本発明では生体の精神的な状況(例えばストレス度等)の認識も対象としているので、例えば生体の興味の方向を知り、生体が望むコンテンツを提供するなどのサービスも考えられる。
【0068】
以上のように、本実施の形態によれば、加速度データと生体データの両方を用いるようにしたので、高精度に、さまざまな生体の行動や状況を認識することができる。即ち、加速度データのみを用いて行動や状況を認識する場合に比べ、生体データと合わせて用いる場合には、食事などの生体の変化を伴う状況を正しく認識することが可能となる。また、加速度データのみからは精神的な状況、例えば緊張しているとかリラックスしているなどの状況を認識することは困難であったが、生体データも用いることにより、精神的な状況も認識することが可能である。一方、生体データのみを用いた場合には、認識できる行動や状況が少なく、例えば発汗が計測された場合に、それが運動によるものか緊張によるものかを区別することが困難であったが、加速度データと合わせて分析することにより、日常生活におけるさまざまな行動や状況を認識できる。
【0069】
また、本実施の形態によれば、区間ごとの統計量を特徴量として用いるようにしたので、計算量の少ない、ノイズや欠損値による影響を少なくした処理をすることができる。
【0070】
さらに、本実施の形態によれば、生体データに対する区間の長さを、加速度データに対する区間よりも長く設定するようにしたので高精度な生体の認識が可能となる。
【0071】
また、本実施の形態によれば、区間の長さを動的に変化させるようにしたので高精度な生体の認識が可能となる。
【0072】
【発明の効果】
本発明によれば、加速度データと生体データの両方を用いるようにしたので、高精度に、さまざまな行動や状況を容易に認識することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態としての行動認識装置の一例を示すブロック図である。
【図2】行動認識装置による処理ステップを示すフローチャートである。
【図3】加速度データの例を示すグラフ図である。
【図4】皮膚温度のデータの例を示すグラフ図である。
【図5】脈波のデータの例を示すグラフ図である。
【図6】GSR(皮膚電気反射)のデータの例を示すグラフ図である。
【図7】ノイズや欠損値を説明するための図である。
【図8】区間サイズと誤認識率との関係を説明するための図である。
【図9】特徴量抽出部による処理ステップを示すフローチャートである。
【図10】本実施の形態において算出された特徴量の一例を示す図表である。
【図11】行動認識部において用いる分類木の一例である。
【符号の説明】
1 信号計測部
2 前処理部(ノイズ除去部)
3 特徴量算出部
4 行動認識部
5 区間サイズ決定部
6 特徴量算出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a biological state analysis device and a biological state analysis method for analyzing data obtained by measuring a biological state, and more specifically, recognizing the biological state from data obtained by measuring the biological state. The present invention relates to a living body state analyzing apparatus and a living body state analyzing method.
[0002]
[Prior art]
Automatically recognizing biological behaviors and situations from time-series data obtained by measuring biological conditions is important in fields such as human health management and human body monitoring that immediately detects abnormalities. Technology. This technique can be applied to, for example, realizing health maintenance and appropriate treatment by managing meals and exercise, and detecting sudden changes in health. It is also possible to apply this technology to the provision of detailed services according to the state of the living body.
[0003]
Therefore, a technique for recognizing a behavior of a living body using an acceleration sensor attached to the body is disclosed in Japanese Patent Laid-Open No. 10-113343 (Patent Document 1).
[0004]
In this technique, a frequency component contained in the data is extracted from the measured acceleration data, and an action is recognized according to the level of correlation with a separately stored reference value.
[0005]
Japanese Patent Laid-Open No. 8-292939 (Patent Document 2) corrects temporal changes and individual differences as a time-series data analysis method, particularly as a time-series data analysis method in which the temporal collection interval is not constant. After that, a technique for performing statistical processing is disclosed.
[0006]
Japanese Patent Laid-Open No. 9-294727 (Patent Document 3) discloses an apparatus for measuring calorie consumption during rest or exercise from the pulse rate and body movement due to acceleration.
[0007]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-113343 [Patent Document 2]
JP-A-8-292939 [Patent Document 3]
JP-A-9-294727 [0008]
[Problems to be solved by the invention]
In the action recognition technology using acceleration data represented by the first prior art, frequency components included in the data are extracted. In order to extract the frequency component, Fourier transform or wavelet transform is used. These Fourier transform and wavelet transform can obtain the spectrum intensity for each frequency component, and are effective for characterizing the behavior by frequency characteristics, but the calculation amount is large. Therefore, there is a problem that it takes a lot of processing time and the action cannot be recognized in real time. Further, since a large memory capacity is required when performing Fourier transform or wavelet transform, there is a problem that it is not suitable for realization with a small device.
[0009]
Even in the second prior art, since frequency components are used to represent temporal changes, there are still problems that the processing speed is slow and a large amount of memory is required. Was not suitable. Further, in the present technology, when the time change can be approximated by a specific function, a parameter representing the feature of the function is used. However, this technique cannot be applied when the function to be approximated is unknown.
[0010]
The third conventional technique is a technique for calculating the calorie consumption of the human body mainly for the purpose of health management, so actions such as whether the human body is walking, eating, or desk work, etc. I couldn't recognize it.
[0011]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a biological state analysis apparatus and a biological state analysis method capable of accurately recognizing a state such as a behavior or a state of a living body with a small amount of calculation. It is to provide.
[0012]
[Means for Solving the Problems]
The biological state analyzer as one aspect of the present invention is:
A biological state measurement unit that measures a biological state and acquires time-series acceleration data and time-series biological data;
A feature quantity extraction unit that divides the acceleration data and the biological data into a plurality of sections, and extracts a feature quantity for each section;
A biological state recognizing unit that recognizes the state of the living body using the feature amount extracted from each section of the acceleration data and the feature amount extracted from each section of the biological data;
With
The feature amount extraction unit sets a length of a section for the biological data to be longer than a length of a section for the acceleration data.
[0013]
The method as one aspect of the present invention includes:
A method for processing time-series acceleration data and time-series biological data acquired by measuring a biological state in a biological state analyzer,
A feature quantity extraction step of dividing the acceleration data and the biological data into a plurality of sections in a feature quantity extraction unit, and extracting feature quantities for each section;
A biological state recognition step of recognizing the state of the biological body in the biological state recognition unit using the feature amount extracted from each section of the acceleration data and the feature amount extracted from each section of the biological data;
With
The feature amount extraction step includes setting the length of the section for the biometric data longer than the length of the section for the acceleration data by the feature amount extraction unit.
[0014]
The biological data used in the present invention is data such as pulse wave, skin temperature, GSR (Galvanic Skin Response), heart rate, myoelectricity, electrocardiogram, respiration, brain wave, blood flow, blood pressure, and the like.
[0015]
As the feature amount, it is preferable to use a statistic that can reduce the calculation amount without using a frequency component that requires Fourier transform or wavelet transform.
[0016]
The statistics used in the present invention include, for example, mean, variance, maximum value, minimum value, difference in level, difference between first and last values in a section, sum of fluctuations in a section, and other combinations thereof. Conceivable.
[0017]
As for the length of the section when extracting the feature amount, the length of the section for the biometric data is preferably longer than the length of the section for the acceleration data. Moreover, it is preferable to change the length of the section dynamically during processing.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0019]
FIG. 1 shows a configuration diagram of a biological state analysis apparatus (behavior recognition apparatus) as an embodiment of the present invention.
[0020]
The behavior recognition apparatus according to the present embodiment includes a signal measurement unit 1, a preprocessing unit (noise removal unit) 2, a feature
[0021]
The signal measuring unit 1 measures time-series acceleration data and time-series biological data from a sensor attached to the living body.
[0022]
Here, the biological data is data such as pulse wave, skin temperature, GSR (Galvanic Skin Response), heart rate, myoelectricity, electrocardiogram, respiration, brain wave, blood flow, blood pressure, and the like. Various sensors that measure these data can be attached to multiple locations on the living body, in which case more various behaviors (for example, while eating, listening to music) and situations (for example, stress levels) Can be recognized. In addition to data related to a living body, the temperature and humidity of the environment in which the living body exists may be simultaneously measured.
[0023]
The preprocessing unit (noise removal unit) 2 removes extreme outliers in the measurement data. In addition, when the value is missing due to a data signal communication error or the like, the preprocessing unit 2 adds a value indicating that the value is missing to the missing part.
[0024]
The feature
[0025]
More specifically, the section
[0026]
The statistic may be an average value, variance, maximum value, minimum value, step difference, difference between the first value and the last value in the interval, the sum of fluctuations in the interval, and combinations thereof.
[0027]
As the feature value, a feature value obtained by calculating biometric data and data obtained from another system is also conceivable. For example, when the data of the environmental temperature where the living body exists and the skin temperature of the living body are obtained, the difference between them may be used as the feature amount.
[0028]
The behavior recognition unit 4 recognizes the behavior and situation of the living body using the calculated feature amount. For recognition, a model that outputs an action or the like based on a feature value is prepared in advance, and the action is classified using the feature value as an input to the model. As the model, a decision tree, a classification tree, a neural network, a regression equation, or the like can be used.
[0029]
In addition, it is possible to prepare feature quantity patterns for each action, obtain the degree of correlation and similarity between the calculated feature quantity and each pattern, and obtain the action with the highest degree of correlation and similarity as the recognition result. Good.
[0030]
Next, the processing operation of the action recognition device configured as described above will be described using a specific example.
[0031]
In the following, a sensor is attached to one wrist of a human body, and biaxial acceleration, skin temperature, pulse wave, and GSR (skin electrical reflection) data are measured by this sensor.
[0032]
FIG. 2 is a flowchart showing processing steps by the action recognition device.
[0033]
First, the signal measuring unit 1 acquires biaxial acceleration data, skin temperature, pulse wave, and GSR data using the above-described sensor (step S1).
[0034]
3 is a data example of measured biaxial acceleration (acceleration 1 and acceleration 2), FIG. 4 is a data example of measured skin temperature, FIG. 5 is a data example of measured pulse wave, FIG. FIG. 4 is a diagram illustrating an example of GSR data. 3 to 6 are obtained by connecting the respective data acquired in a sampling period of 50 ms −1 with straight lines, for example.
[0035]
Next, the preprocessing unit 2 performs processing such as noise removal and missing value detection from the measured data (step S2). Noise is generated, for example, by mistakes or disturbances at the measurement stage or signal communication stage.
[0036]
FIG. 7 is a diagram for explaining data loss and noise.
[0037]
As shown in part A of FIG. 7, a value extremely deviating from the reference value is regarded as noise, and the preprocessing unit 2 removes such a value as noise.
[0038]
Further, as shown in the part B, when the value is missing without being measured, the pre-processing unit 2 is able to distinguish the normal data such as “−1” so that the missing can be recognized. Enter a value that identifies Here, if the measured signal is simply recorded, there is a risk of missing data. Therefore, at the same time as the signal measurement, serial numbers and data measurement times are added at predetermined intervals. If the additional information is not continuous, it may be considered that there is a defect.
[0039]
Next, as shown in FIG. 2, the feature
[0040]
This feature amount extraction process (step S3) includes a section size determination process (step S3-A) and a feature amount calculation process (step S3-B).
[0041]
The section size determination process (step S3-A) is a process in which the section
[0042]
In the section size determination process (step S3-A), the section size is basically set to 10 seconds or less, particularly about 10 seconds as the initial value in the case of acceleration data (section size as will be described later). Change dynamically). On the other hand, in the case of biometric data (skin temperature, pulse wave, GSR data), 40 seconds to 2 minutes, especially about 40 seconds is used as an initial value. This is because acceleration data generally changes immediately after the movement, whereas biometric data generally changes slowly.
[0043]
For example, in the case of jogging, the acceleration changes from the moment when jogging starts, but the pulse (pulse wave) and skin temperature rise (change) only after jogging is started and continued for a while.
[0044]
In particular, the section size in the case of biometric data is longer than the acceleration and is set to about 40 seconds based on experimental results. I will explain this in more detail.
[0045]
FIG. 8 shows the misclassification rate (misrecognition rate) based on the result of an experiment in which the feature amount is calculated by changing the section size of the biometric data and the human body's meal motion is recognized using the feature amount. FIG.
[0046]
Although there are some fluctuations depending on the experimental situation, according to the figure, it can be confirmed that the error decreases when the length of the section exceeds 60 seconds. Therefore, although it is desirable from the aspect of accuracy to set it to 60 seconds or more, it seems that if the section size is set to be long, the change in data cannot be extracted depending on the behavior of the recognition target, and the accuracy may be adversely affected. Therefore, in the present embodiment, as described above, the section size is set to 40 seconds or more.
[0047]
However, depending on the target living body and the characteristics of the action to be recognized, it is preferable to consider so as to determine a more appropriate section size. For example, if the purpose of behavior recognition is to investigate the relationship between behavior in action and instantaneous heart rate changes, the interval for extracting feature values of heart rate data is short, for example about 15 seconds It can also be considered.
[0048]
The section size is not fixed, and the section size can be dynamically changed according to the situation. In particular, in the case of biometric data, since the data change is gradual, it is easier to extract features if the section size is increased to some extent, but if it is too long, there is a risk that a short change in the situation may be overlooked. On the other hand, if the section size is too short, there is a risk of overlooking a long change in the situation. For example, the period of change in biometric data differs between sleeping and active during the day. Therefore, for example, during sleep, since the period of change is generally long, the section size is increased.
[0049]
FIG. 9 is a flowchart showing detailed processing steps of the feature amount extraction processing (step S3).
[0050]
First, the feature amount calculation unit 6 (see FIG. 1) calculates a feature amount in a section with the same section size as the previous one (step S11). Here, the average acceleration, the dispersion of acceleration, the pulse converted from the pulse wave, and the difference in skin temperature (difference between the first value and the last value in the section) are obtained as feature amounts.
[0051]
Next, the section
[0052]
If the section
[0053]
On the other hand, when the section
[0054]
When the section
[0055]
On the other hand, when the section
[0056]
It is conceivable that the section length changing process in step S13 and step 16 is performed with a width of about ± 10%, for example.
[0057]
Although the feature amount extraction process including the process of dynamically changing the section size has been described above, the section size changing method is not limited to that described above. For example, when knowledge about the measured time and the behavior of the living body is obtained, the section size may be changed using these data as supplementary information. For example, it is possible to lengthen the section at the time when it is apparently sleeping.
[0058]
The feature amount is calculated from the preprocessed data by the feature amount extraction process (step S3 in FIG. 2) described above.
[0059]
FIG. 10 is a chart showing a partial example of the calculated feature amount.
[0060]
As described above, since the section size dynamically changes, as shown in FIG. 10, the feature amount is used after being converted into a time per unit time (for example, 1 minute), for example.
[0061]
Next, as shown in FIG. 2, the action recognition unit 4 performs action recognition based on the extracted feature amount and outputs a recognition result (step S4).
[0062]
In this embodiment, a classification tree model is used for action recognition. Various methods for constructing a classification tree or a decision tree from tabular data have been proposed. For example, in this embodiment, a binary classification tree called CART is used. CART is well-known for books such as “Applied binary tree analysis method by CART” (Atsushi Otaki, Satoshi Horie, Dan Steinberg, published by Nikka Techen Publishers, 1997).
[0063]
In action recognition using a classification tree, the branch determined by the value of the feature amount is traced in order from the root to the last end (leaf). The type of action is assigned to the end. Therefore, data having this feature amount can be interpreted as this behavior or recognition.
[0064]
FIG. 11 is a diagram showing an example of a classification tree used in the present embodiment.
[0065]
For example, the feature amount data on the first line in the table of FIG. 10 can be interpreted as data obtained in the event of music appreciation according to the classification tree of FIG. However, the classification tree in FIG. 11 is extracted for explaining the present embodiment, and values and terms actually used are not limited thereto.
[0066]
As a method used for recognition processing of actions and the like, the classification tree has an advantage in that the amount of calculation is small and the configuration is easy for the user to understand among types in which data is classified using the constructed model. However, the realization of recognition of actions and the like according to the present invention is not limited to the classification tree. Many methods have been proposed for constructing a model from tabular data as shown in FIG. 10 and performing classification using the model. For example, a neural network or a regression equation may be used for recognition processing of actions or the like. Conceivable. Also, it is possible to calculate a similarity or correlation by comparing the calculated feature quantity with a typical feature quantity of each action, and to make an action with a high similarity or correlation degree as a recognition result.
[0067]
In this way, various applications can be considered for recognizing the behavior and situation of a living body. In particular, in the present embodiment, since a reduction in calculation amount and high-accuracy recognition are compatible, a small device can be attached to a living body. Therefore, the burden on the living body can be minimized and used in many situations. For one thing, it is considered effective in terms of health management. For example, by knowing the state of meals, exercise, sleep, etc., it is possible to provide advice for maintaining the health of the living body or for treatment or rehabilitation. Further, in terms of a living body monitoring device, it is possible to detect a sudden change in the state of the living body and issue a warning to another person, or to communicate with a distant party via a network. In particular, according to the present embodiment, it is possible to determine the state of the living body in real time, so it can be said that it is suitable for the monitoring device. In addition, it can be applied to fine-grained services that depend on biological behavior. For example, a service such as showing a place where a person can sit or take a drink when he / she recognizes that his / her living body is tired in the place of going out can be considered. In addition, since the present invention also targets the recognition of the mental state of the living body (for example, the degree of stress), for example, services such as knowing the direction of interest of the living body and providing the content desired by the living body can be considered.
[0068]
As described above, according to the present embodiment, since both acceleration data and biological data are used, it is possible to recognize various biological actions and situations with high accuracy. That is, compared to the case of recognizing actions and situations using only acceleration data, it is possible to correctly recognize situations involving changes in the living body such as meals when used together with biological data. In addition, it is difficult to recognize mental situations from only acceleration data, for example, situations such as tension or relaxation, but it also recognizes mental situations by using biometric data. It is possible. On the other hand, when using only biometric data, there are few actions and situations that can be recognized, for example, when sweating was measured, it was difficult to distinguish whether it was due to exercise or due to tension, By analyzing it together with acceleration data, it is possible to recognize various behaviors and situations in daily life.
[0069]
In addition, according to the present embodiment, since the statistics for each section are used as feature quantities, it is possible to perform a process with a small amount of calculation and less influenced by noise and missing values.
[0070]
Furthermore, according to the present embodiment, since the length of the section for the biometric data is set to be longer than the section for the acceleration data, it is possible to recognize the living body with high accuracy.
[0071]
Further, according to the present embodiment, since the length of the section is dynamically changed, it is possible to recognize the living body with high accuracy.
[0072]
【The invention's effect】
According to the present invention, since both acceleration data and biological data are used, various actions and situations can be easily recognized with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of an action recognition apparatus as an embodiment of the present invention.
FIG. 2 is a flowchart showing processing steps by the action recognition device.
FIG. 3 is a graph showing an example of acceleration data.
FIG. 4 is a graph showing an example of skin temperature data.
FIG. 5 is a graph showing an example of pulse wave data.
FIG. 6 is a graph showing an example of GSR (skin electrical reflection) data.
FIG. 7 is a diagram for explaining noise and missing values.
FIG. 8 is a diagram for explaining a relationship between a section size and an erroneous recognition rate.
FIG. 9 is a flowchart showing processing steps by a feature amount extraction unit;
FIG. 10 is a chart showing an example of feature amounts calculated in the present embodiment.
FIG. 11 is an example of a classification tree used in an action recognition unit.
[Explanation of symbols]
1 Signal Measurement Unit 2 Pre-processing Unit (Noise Removal Unit)
3 feature amount calculation unit 4
Claims (6)
前記加速度データおよび前記生体データをそれぞれ複数の区間に分割し、区間ごとに特徴量を抽出する特徴量抽出部と、
前記加速度データの各区間から抽出された特徴量及び前記生体データの各区間から抽出された特徴量を用いて、前記生体の状態を認識する生体状態認識部と、
を備え、
前記特徴量抽出部は、前記生体データに対する区間の長さを、前記加速度データに対する区間の長さよりも長く設定することを特徴とする生体状態分析装置。A biological state measurement unit that measures a biological state and acquires time-series acceleration data and time-series biological data;
A feature quantity extraction unit that divides the acceleration data and the biological data into a plurality of sections, and extracts a feature quantity for each section;
A biological state recognizing unit that recognizes the state of the living body using the feature amount extracted from each section of the acceleration data and the feature amount extracted from each section of the biological data;
With
The biological quantity analysis apparatus characterized in that the feature quantity extraction unit sets a length of a section for the biological data to be longer than a length of a section for the acceleration data.
特徴量抽出部において前記加速度データおよび前記生体データをそれぞれ複数の区間に分割し区間ごとに特徴量を抽出する特徴量抽出ステップと、
前記加速度データの各区間から抽出された特徴量、及び前記生体データの各区間から抽出された特徴量を用いて、生体状態認識部において前記生体の状態を認識する生体状態認識ステップと、
を備え、
前記特徴量抽出ステップは、前記特徴量抽出部により前記生体データに対する区間の長さを前記加速度データに対する区間の長さよりも長く設定することを含むことを特徴とする方法。A method for processing time-series acceleration data and time-series biological data acquired by measuring a biological state in a biological state analyzer,
A feature quantity extraction step of dividing the acceleration data and the biological data into a plurality of sections in a feature quantity extraction unit, and extracting feature quantities for each section;
A biological state recognition step of recognizing the state of the biological body in the biological state recognition unit using the feature amount extracted from each section of the acceleration data and the feature amount extracted from each section of the biological data;
With
The feature amount extraction step includes setting the length of the section for the biometric data longer than the length of the section for the acceleration data by the feature amount extraction unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003191213A JP3923035B2 (en) | 2003-07-03 | 2003-07-03 | Biological condition analysis apparatus and biological condition analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003191213A JP3923035B2 (en) | 2003-07-03 | 2003-07-03 | Biological condition analysis apparatus and biological condition analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005021450A JP2005021450A (en) | 2005-01-27 |
JP3923035B2 true JP3923035B2 (en) | 2007-05-30 |
Family
ID=34188897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003191213A Expired - Fee Related JP3923035B2 (en) | 2003-07-03 | 2003-07-03 | Biological condition analysis apparatus and biological condition analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3923035B2 (en) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8491492B2 (en) | 2004-02-05 | 2013-07-23 | Earlysense Ltd. | Monitoring a condition of a subject |
WO2005074361A2 (en) | 2004-02-05 | 2005-08-18 | Earlysense Ltd. | Techniques for prediction and monitoring of respiration-manifested clinical episodes |
US8403865B2 (en) | 2004-02-05 | 2013-03-26 | Earlysense Ltd. | Prediction and monitoring of clinical episodes |
US20070118054A1 (en) * | 2005-11-01 | 2007-05-24 | Earlysense Ltd. | Methods and systems for monitoring patients for clinical episodes |
US8942779B2 (en) | 2004-02-05 | 2015-01-27 | Early Sense Ltd. | Monitoring a condition of a subject |
US10194810B2 (en) | 2004-02-05 | 2019-02-05 | Earlysense Ltd. | Monitoring a condition of a subject |
JP4389821B2 (en) | 2005-03-22 | 2009-12-24 | ソニー株式会社 | Body motion detection device, content playback device, body motion detection method and content playback method |
JP5009543B2 (en) * | 2006-03-10 | 2012-08-22 | 株式会社エヌ・ティ・ティ・ドコモ | Specific signal pattern detection system from multi-axis sensor, specific signal pattern detection method from multi-axis sensor |
WO2009138976A2 (en) | 2008-05-12 | 2009-11-19 | Earlysense Ltd | Monitoring, predicting and treating clinical episodes |
US8585607B2 (en) | 2007-05-02 | 2013-11-19 | Earlysense Ltd. | Monitoring, predicting and treating clinical episodes |
US20100179441A1 (en) | 2007-06-08 | 2010-07-15 | Etsuko Kanai | Device control device and device control method |
US9883809B2 (en) | 2008-05-01 | 2018-02-06 | Earlysense Ltd. | Monitoring, predicting and treating clinical episodes |
US8882684B2 (en) | 2008-05-12 | 2014-11-11 | Earlysense Ltd. | Monitoring, predicting and treating clinical episodes |
JP5210264B2 (en) * | 2009-05-12 | 2013-06-12 | 徳雄 齋藤 | Device that collects and transmits biological information |
JP5534163B2 (en) * | 2009-12-09 | 2014-06-25 | 日本電気株式会社 | Action determination device, action determination system, action determination method, and program |
US10292625B2 (en) | 2010-12-07 | 2019-05-21 | Earlysense Ltd. | Monitoring a sleeping subject |
BR112013020417A2 (en) * | 2011-02-10 | 2016-10-18 | Dorsavi Pty Ltd | apparatus and method for classifying the orientation of a mammalian body |
JP6052278B2 (en) * | 2012-03-02 | 2016-12-27 | 日本電気株式会社 | Motion determination device, motion determination system, and motion determination method |
JP5297547B2 (en) * | 2012-05-07 | 2013-09-25 | 株式会社エヌ・ティ・ティ・ドコモ | Specific signal pattern detection system from multi-axis sensor, specific signal pattern detection method from multi-axis sensor |
JP6047346B2 (en) * | 2012-09-05 | 2016-12-21 | セイコーエプソン株式会社 | Biological information processing system, wearable device, server system, and program |
JP6362521B2 (en) * | 2014-11-26 | 2018-07-25 | 株式会社日立システムズ | Behavior classification system, behavior classification device, and behavior classification method |
JP6356616B2 (en) | 2015-02-17 | 2018-07-11 | 日本電信電話株式会社 | Sequential posture identification device, autonomic nerve function information acquisition device, method and program |
WO2016143404A1 (en) * | 2015-03-12 | 2016-09-15 | ソニー株式会社 | Information processing device, information processing method, and program |
KR101763717B1 (en) * | 2015-10-28 | 2017-08-02 | 주식회사 한글과컴퓨터 | Smart Watch To Change The Display Color Based On User's State |
EP3372153B1 (en) | 2015-11-05 | 2023-05-03 | Fujitsu Limited | Meal detection device, meal detection method, and meal detection program |
FI3372155T3 (en) * | 2015-11-06 | 2023-04-25 | Fujitsu Ltd | Meal time estimation method, meal time estimation program, and meal time estimation device |
JP6969177B2 (en) * | 2017-06-28 | 2021-11-24 | 富士通株式会社 | Specific behavior detection program, specific behavior detection method and specific behavior detection system |
CN114209308B (en) * | 2021-11-23 | 2023-10-13 | 湖南云医链生物科技有限公司 | Method, device, equipment and storage medium for measuring vitality of traditional Chinese medicine |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0584232A (en) * | 1991-09-27 | 1993-04-06 | Shimadzu Corp | Vital phenomenon measuring and recording device |
JP3206162B2 (en) * | 1992-12-22 | 2001-09-04 | 松下電工株式会社 | Biological rhythm curve measuring device |
JP2000245713A (en) * | 1999-02-26 | 2000-09-12 | Sanyo Electric Co Ltd | Behavior recognizing device |
JP3846844B2 (en) * | 2000-03-14 | 2006-11-15 | 株式会社東芝 | Body-mounted life support device |
JP2002042280A (en) * | 2000-07-27 | 2002-02-08 | Seiko Precision Inc | Automatic emergency alarm and automatic emergency alarm output method |
JP2002200059A (en) * | 2000-12-28 | 2002-07-16 | Terumo Corp | Body movement detector and medical instrument using the same and method of detecting body movement |
JP2002282212A (en) * | 2001-03-26 | 2002-10-02 | Matsushita Electric Ind Co Ltd | Biological information management equipment |
-
2003
- 2003-07-03 JP JP2003191213A patent/JP3923035B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005021450A (en) | 2005-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3923035B2 (en) | Biological condition analysis apparatus and biological condition analysis method | |
JP6721155B2 (en) | Biological information analysis device, system, and program | |
JP6199330B2 (en) | Identification of Chain Stokes breathing patterns using oximetry signals | |
RU2602797C2 (en) | Method and device for measuring stress | |
Karthikeyan et al. | Detection of human stress using short-term ECG and HRV signals | |
CN101563028B (en) | Patient monitoring system and method | |
DK2642914T3 (en) | Analysis of EEG signals to detect hypoglycemia | |
US20110190643A1 (en) | System for Cardiac Status Determination | |
CN102551699B (en) | The system that non-invasive cardiac output is determined | |
EP2018825A1 (en) | Methods and device to quantify human physical activity pattern | |
KR20030063640A (en) | Apparatus and method for recognizing user emotional status using short-time monitoring of physiological signals | |
WO2008055078A2 (en) | Identification of emotional states using physiological responses | |
KR102202029B1 (en) | Method for estimating continuous blood pressure using recurrent neural network and apparatus thereof | |
KR102243012B1 (en) | Estimation method of blood vessel elasticity and arrhythmia using skin image | |
US8805484B2 (en) | System, apparatus and method for diagnosing seizures | |
JP7216408B2 (en) | Device for determining sleep apnea syndrome, method for determining sleep apnea syndrome, and program for determining sleep apnea syndrome | |
CN115089179A (en) | Psychological emotion insights analysis method and system | |
Manimeghalai et al. | Ecg based stress detection using machine learning | |
WO2020237371A1 (en) | System and method for filtering time-varying data for physiological signal prediction | |
Mozafari et al. | Mental stress level detection using physiological signals and evolutionary algorithm | |
KR102645586B1 (en) | Apparatus and method for classifying breathing state during sleep using biosignals | |
US20240315583A1 (en) | Method for evaluation of photoplethysmography signal pulses | |
Hernandez et al. | A tolerant algorithm for cardiac pulses characterization in ballistocardiography signals in a non-invasive system | |
Sia et al. | Sleep Apnea Event Detection System Based on Heart Rate Variability Analysis | |
Maggard | Automation of sleep staging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070220 |
|
LAPS | Cancellation because of no payment of annual fees |