JP2005021450A - Device and method for analyzing state of organism - Google Patents

Device and method for analyzing state of organism Download PDF

Info

Publication number
JP2005021450A
JP2005021450A JP2003191213A JP2003191213A JP2005021450A JP 2005021450 A JP2005021450 A JP 2005021450A JP 2003191213 A JP2003191213 A JP 2003191213A JP 2003191213 A JP2003191213 A JP 2003191213A JP 2005021450 A JP2005021450 A JP 2005021450A
Authority
JP
Japan
Prior art keywords
data
biological
section
feature amount
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003191213A
Other languages
Japanese (ja)
Other versions
JP3923035B2 (en
Inventor
Chie Morita
田 千 絵 森
Makoto Sato
藤 誠 佐
Akihiko Nakase
瀬 明 彦 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003191213A priority Critical patent/JP3923035B2/en
Publication of JP2005021450A publication Critical patent/JP2005021450A/en
Application granted granted Critical
Publication of JP3923035B2 publication Critical patent/JP3923035B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely recognize the state of an organism with reduced amount of calculation. <P>SOLUTION: The state of the organism is recognized by measuring the state of the organism, obtaining data on the acceleration and data on the organism in a time series, extracting the quantity of characteristics from the data on the acceleration and data on the organism, and using the quantity of characteristics extracted from the data on the acceleration in a time series and from the data on the organism in a time series. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、生体の状態を計測して得られたデータを分析する生体状態分析装置及び生体状態分析方法に関し、さらに詳しくは、生体の状態を計測して得られたデータから生体の状態を認識する生体状態分析装置及び生体状態分析方法に関する。
【0002】
【従来の技術】
生体の状態を計測して得られた時系列データから生体の行動や状況を自動的に認識することは、人体の健康管理や、異常の発生を即座に察知する人体監視などの分野において重要な技術である。この技術は、例えば、食事や運動を管理することにより健康維持や適切な治療を実現する場合や、健康状態の急変を察知する場合などへ適用され得る。また、生体の状態に応じたきめ細やかなサービスの提供などへこの技術を応用することも考えられる。
【0003】
そこで、身体に装着した加速度センサを用いて生体の行動を認識する技術が、特開平10−113343号公報(特許文献1)に開示されている。
【0004】
この技術では、計測された加速度データから当該データに含まれている周波数成分を抽出し、別途記憶してある基準値との相関の高さに応じて行動を認識する。
【0005】
また、特開平8−292939号公報(特許文献2)では、時系列データの分析方法として、特に時間的な収集間隔が一定でないような時系列データの分析方法として、時間変化や個体差を補正した後に統計処理を行なう技術が開示されている。
【0006】
また、特開平9−294727号公報(特許文献3)では、脈拍数と、加速度による体動とから、安静時や運動時の消費カロリーを計測する装置が開示されている。
【0007】
【特許文献1】
特開平10−113343号公報
【特許文献2】
特開平8−292939号公報
【特許文献3】
特開平9−294727号公報
【0008】
【発明が解決しようとする課題】
1番目の従来技術に代表される、加速度データを用いた行動の認識技術では、データに含まれる周波数成分を抽出している。周波数成分を抽出するには、フーリエ変換またはウェーブレット変換を用いる。これらフーリエ変換及びウェーブレット変換は、周波数成分ごとのスペクトル強度を得ることができ、行動を周波数特性で特徴づけるために有効であるが、計算量が大きい。従って、処理時間が多くかかり、行動の認識がリアルタイムにはできないという問題があった。また、フーリエ変換やウェーブレット変換を行なう際に多くのメモリ容量を要することになるため、小型の機器での実現には適さないという問題があった。
【0009】
2番目の従来技術においても、時間的変化を表すのに周波数成分を用いるため、やはり処理速度が遅くなる問題や多くのメモリ容量を必要とする問題があり、小型の機器でのリアルタイムの認識には適さなかった。また、本技術では、時間変化が特定の関数で近似できる場合にはその関数の特徴を表すパラメータを用いることにしているが、近似すべき関数が未知である場合には適用できなかった。
【0010】
3番目の従来技術では、主に健康管理を目的として人体の消費カロリーを算出するための技術であるため、人体が歩行中なのか食事中なのか、あるいはデスクワーク中なのか、などの行動等を認識することはできなかった。
【0011】
本発明は、上記問題点に鑑みてなされたものであり、その目的は、生体の行動や状況等の状態を、少ない計算量で、高精度に認識できる生体状態分析装置及び生体状態分析方法を提供することにある。
【0012】
【課題を解決するための手段】
本発明の生体状態分析装置は、生体の状態を計測して、時系列の加速度データ及び時系列の生体データを取得する生体状態計測部と、前記加速度データおよび前記生体データからそれぞれ特徴量を抽出する特徴量抽出部と、前記加速度データから抽出された前記特徴量及び前記生体データから抽出された前記特徴量を用いて、前記生体の状態を認識する生体状態認識部と、を備えたことを特徴とする。
【0013】
また、本発明の生体状態分析方法は、生体の状態を計測して、時系列の加速度データ及び時系列の生体データを取得する生体状態計測ステップと、前記加速度データ及び前記生体データからそれぞれ特徴量を抽出する特徴量抽出ステップと、前記加速度データから抽出された前記特徴量、及び前記生体データから抽出された前記特徴量を用いて、前記生体の状態を認識する生体状態認識ステップと、を備えたことを特徴とする。
【0014】
本発明で用いる生体データとは、例えば脈波、皮膚温度、GSR(Galvanic Skin Response/皮膚電気反射)、心拍数、筋電、心電、呼吸、脳波、血流、血圧等のデータである。
【0015】
特徴量としては、フーリエ(Fourier)変換やウェーブレット(wavelet)変換を必要とする周波数成分を用いず、計算量を小さく抑えることのできる統計量を用いることが好ましい。
【0016】
本発明において用いる統計量とは、例えば、平均、分散、最大値、最小値、階差、区間の最初の値と最後の値の差、区間内の変動の和、などの他これらの組み合わせが考えられる。
【0017】
特徴量抽出の際の区間の長さは、生体データに対する区間の長さが加速度データに対する区間の長さよりも長いことが好ましい。また、その区間の長さは処理中に動的に変化させることが好ましい。
【0018】
【発明の実施の形態】
以下、図面を参照して、本発明の一実施の形態について説明する。
【0019】
図1は、本発明の一実施の形態としての生体状態分析装置(行動認識装置)の構成図を示す。
【0020】
本実施の形態による行動認識装置は、信号計測部1、前処理部(ノイズ除去部)2、特徴量抽出部3、行動認識部4を備える。特徴量抽出部3は、区間サイズ決定部5と特徴量算出部6から成る。
【0021】
信号計測部1は、生体に装着させたセンサから、時系列の加速度データと、時系列の生体データとを計測するものである。
【0022】
ここで、生体データとは、例えば脈波、皮膚温度、GSR(Galvanic Skin Response)(皮膚電気反射)、心拍数、筋電、心電、呼吸、脳波、血流、血圧等のデータである。これらのデータを計測する各種センサを生体の複数箇所に装着することも可能であり、その場合にはより多様な行動(例えば食事中、音楽鑑賞中等)や状況(例えばストレス度等)等の状態の認識を実現できる。生体に関するデータの他、生体が存在する環境の温度や湿度なども同時に計測してもよい。
【0023】
前処理部(ノイズ除去部)2は、極端な外れ値が計測データにあった場合にそれらを除去する。また、前処理部2は、データ信号の通信エラーなどにより、値が欠損している場合には欠損していることを示す値を欠損部分に付加する。
【0024】
特徴量抽出部3は、前処理後のデータ(前処理後データ)から種々の統計量を特徴量として抽出する。
【0025】
より詳しくは、区間サイズ決定部5が、前処理後データにおいて、特徴量を抽出する区間の長さを決定し、特徴量算出部6が、決定された各区間ごとに統計量等の特徴量を抽出する。
【0026】
統計量は、平均値、分散、最大値、最小値、階差、区間の最初の値と最後の値の差、区間内の変動の和、などのほか、これらの組み合わせも考えられる。
【0027】
特徴量としては、生体データと、他の系から得られたデータとの演算による特徴量も考えられる。例えば、生体が存在する環境温度と生体の皮膚温度のデータが得られている場合にはそれらの差を特徴量としてもよい。
【0028】
行動認識部4は、算出された特徴量を用いて生体の行動や状況を認識する。認識には、特徴量に基づき行動等を出力するモデルを予め用意しておき、特徴量をモデルへの入力として、行動を分類する。モデルには、決定木、分類木、ニューラルネットワーク、回帰式、などを用いることが可能である。
【0029】
その他、行動毎に特徴量のパターンを用意しておいて、算出された特徴量と各パターンとの相関度や類似性を求め、最も相関度や類似性の高い行動を認識結果として求めてもよい。
【0030】
次に、上述のように構成された行動認識装置の処理動作について、具体例を用いて、説明する。
【0031】
以下では、人体の手首1つにセンサを装着し、このセンサにより、2軸の加速度、皮膚温度、脈波、GSR(皮膚電気反射)のデータを計測する。
【0032】
図2は、行動認識装置による処理ステップを示すフローチャートである。
【0033】
まず、信号計測部1が、上述のセンサを用いて、2軸の加速度データ、皮膚温度、脈波、GSRのデータを取得する(ステップS1)。
【0034】
図3は、計測された2軸の加速度(加速度1及び加速度2)のデータ例、図4は、計測された皮膚温度のデータ例、図5は、計測された脈波のデータ例、図6は、GSRのデータ例を示す図である。図3〜図6は、例えば50ms−1のサンプリング期間により取得された各データをそれぞれ直線で結んだものである。
【0035】
次に、前処理部2が、計測されたデータから、ノイズ除去、欠損値検知などの処理を行う(ステップS2)。ノイズは、計測の段階や、信号の通信の段階で、例えばミスや外乱などによって発生する。
【0036】
図7は、データ欠損及びノイズを説明するための図である。
【0037】
図7の部分Aに示すように、極端に基準値からはずれた値はノイズとし、前処理部2は、このような値をノイズとして除去する。
【0038】
また、部分Bに示すように、値が計測されずに欠損している場合には、欠損が分かるように、前処理部2は、例えば「−1」など、正常データと区別可能な、欠損を識別する値をいれておく。ここで、計測された信号を単に記録しているだけであると欠損を見逃す恐れがあるので、信号の計測と同時に、通し番号やデータの計測時刻などを所定の間隔で付加していき、それらの付加情報が連続していない場合には欠損があったと見なすようにしてもよい。
【0039】
次に、図2に示すように、特徴量抽出部3が、前処理後のデータから特徴量を抽出する(ステップS3)。
【0040】
この特徴量抽出処理(ステップS3)は、区間サイズ決定処理(ステップS3−A)と特徴量算出処理(ステップS3−B)とから成る。
【0041】
区間サイズ決定処理(ステップS3−A)は、区間サイズ決定部5が、特徴量を算出する連続した区間の長さを決定する処理である。特徴量算出処理(ステップS3−B)は、特徴量算出部6が、決定された各区間内での特徴量を求める処理である。
【0042】
区間サイズ決定処理(ステップS3−A)において、区間サイズは、基本的には、加速度データの場合は10秒以下、特に初期値としては10秒程度を用いることとする(後述するように区間サイズは動的に変化する)。一方、生体データ(皮膚温度、脈波、GSRのデータ)の場合は40秒〜2分、特に初期値としては40秒程度を用いることとする。これは、加速度データは動作に直結してすぐに変動するのに対し、生体データは一般的に変化が緩やかなためである。
【0043】
例えばジョギングの場合、加速度はジョギングを始めた瞬間から変化が表れるが、脈拍(脈波)や皮膚温度が上昇(変化)するのはジョギングを開始してしばらく続けてからである。
【0044】
また、特に生体データの場合の区間サイズを加速度よりも長く、40秒程度としたのは、実験結果に基づくものである。これについてもう少し詳しく説明する。
【0045】
図8は、生体データの区間サイズをさまざまに変更して特徴量を算出し、その特徴量を用いて人体の食事動作を認識する実験を行った結果に基づく誤分類率(誤認識率)を示すグラフ図である。
【0046】
実験状況によって若干の変動があるが、同図によれば、区間の長さが60秒を超えたところで誤りが減ることが確認できる。従って、60秒以上にすることが精度の面からは望ましいが、区間サイズを長く設定すると、認識対象の行動によってはデータの変化を抽出できずに精度に悪影響を与える場合があると思われる。そこで、本実施の形態では、上述のように、区間サイズを40秒以上にすることとした。
【0047】
ただし、対象となる生体や認識したい行動の特徴によっては、より適切な区間サイズを定めるよう配慮することが好ましい。例えば、行動の認識の目的が、行動における動作と瞬間的な心拍数の変化との関連を調査することである場合には、心拍数データの特徴量を抽出する区間を短く、例えば15秒程度とすることも考えられる。
【0048】
また、区間サイズは固定ではなく、状況に応じて区間サイズを動的に変更可能とする。特に生体データの場合にはデータの変化が緩やかなため、ある程度区間サイズを長くした方が特徴を抽出しやすいが、長過ぎる場合には状況の短い変化を見逃す恐れがある。他方、区間サイズを短くし過ぎた場合には、状況の長い変化を見逃す恐れもある。例えば睡眠時と日中に活動している時とでは生体データの変化の周期が異なる。そこで、例えば睡眠時には、一般的に変化の周期が長いため、区間サイズを長くすることとする。
【0049】
図9は、特徴量抽出処理(ステップS3)の詳細な処理ステップを示すフローチャートである。
【0050】
まず、特徴量算出部6(図1参照)は、1つ前と同じ区間サイズで区間内の特徴量を算出する(ステップS11)。ここでは、特徴量として、加速度の平均、加速度の分散、脈波から変換された脈拍、皮膚温度の差(区間内の最初の値と最後の値の差)、を求めることとする。
【0051】
次に、区間サイズ決定部6は、算出された特徴量について、1つ前の区間の特徴量と比較して所定の幅以上の変化があるかどうかを調べる(ステップS12)。ここで「前の区間」とは、直前の区間、5区間前や10区間前、1時間前の区間などが考えられるが、通常は、直前の区間〜5分程度前の区間のいずれか、あるいはこれらの組み合わせが適当な場合が多い。
【0052】
区間サイズ決定部6は、特徴量に変化があったと判断した場合には(ステップS12のYes)、生体の様子が変化していると判断し、生体の変化を捉えやすくするため、前の区間サイズよりも区間サイズを短くする(ステップS13)。そして、特徴量算出部6は、新たな区間サイズ内での特徴量を算出し、区間サイズ決定部6は、上述のステップS11で得られた特徴量に代えて、この特徴量を採用し、行動認識部4に送出する(ステップS14)。
【0053】
一方、区間サイズ決定部6は、特徴量に変化がなかったと判断した場合には(ステップS12のNo)、現在の特徴量が所定の範囲(異常範囲)内の値であるかどうかをチェックする(ステップS15)。これは、前の区間との変化がない場合でも生体が異状な場合には長期的に見て生体データに変化が起こる可能性が高いと考えられるからである。
【0054】
区間サイズ決定部6は、特徴量が所定の範囲内であったと判断した場合には(ステップS15のYes)、生体の変化が緩やかであると考えることができるので、区間サイズを長く変更する(ステップS16)。そして、特徴量算出部6は、新たな区間サイズ内での特徴量を算出し、区間サイズ決定部6は、上述のステップS11で算出された特徴量に代えて、この特徴量を採択し、行動認識部4に送出する(ステップS14)。
【0055】
一方、区間サイズ決定部6は、特徴量が所定の範囲外であったと判断した場合には(ステップS15のNo)、ステップS11で算出した特徴量を利用することとする。
【0056】
上述のステップS13及びステップ16における区間の長さの変更処理は、例えば±10%程度の幅で行なうことが考えられる。
【0057】
上では、区間サイズを動的に変更する処理を含んだ特徴量抽出処理について説明したが、区間サイズの変更方法については、上で説明したものに限られない。例えば、計測した時刻や生体の行動に関する知識が得られている場合には、これらのデータを補助的に用いて区間サイズを変更してもよい。例えば、明らかに睡眠中と思われる時刻には区間を長くすることなども可能である。
【0058】
以上に説明した特徴量抽出処理(図2のステップS3)によって、前処理後のデータから特徴量が算出される。
【0059】
図10は、算出された特徴量の一部例を示す図表である。
【0060】
上述したように、区間サイズは、動的に変化するので、図10に示すように、特徴量は、例えば単位時間(例えば1分)当たりの時間に変換されて用いられる。
【0061】
次に、図2に示すように、行動認識部4が、抽出された特徴量に基づいて、行動認識を行ない、認識結果を出力する(ステップS4)。
【0062】
本実施の形態では、行動認識のために分類木型のモデルを用いることとする。表形式のデータから分類木または決定木を構築する方法はさまざまな提案がされているが、例えば本実施の形態では、CARTと呼ばれる2進分類木を用いる。CARTについては「CARTによる応用2進木解析法」(大滝厚、堀江宥、Dan Steinberg著、日科技連出版社、1997年発行)などの書籍に詳しい。
【0063】
分類木による行動認識では、根本から順に、特徴量の値によって決まる枝を、最後の末端(葉)までたどる。末端には行動の種別が割り当てられている。従って、この特徴量を持つデータは、この行動や認識であるとの解釈をすることができる。
【0064】
図11は、本実施の形態において用いる分類木の例を示した図である。
【0065】
例えば、図10の表における1行目の特徴量データは、図11の分類木によると、音楽鑑賞という行動の際に得られたデータであると解釈することができる。ただし、図11の分類木は、本実施の形態を説明するために抜粋したものであり、実際に用いる値や用語はこれに限るものではない。
【0066】
行動等の認識処理に用いる手法として、分類木は、構築されたモデルを用いてデータを分類するタイプの中で、計算量が小さく、また、利用者にとって構成を理解しやすいという利点がある。しかし、本発明による行動等の認識の実現は分類木に限るものではない。図10に示すような表形式のデータからモデルを構築し、それを用いて分類を行なう手法は多く提案されており、例えばニューラルネットワークや回帰式などを行動等の認識処理に用いることも当然に考えられる。また、算出された特徴量を、各行動の典型的な特徴量と比較することによって類似度や相関度を算出し、類似度や相関度の高い行動を認識結果とする方法も可能である。
【0067】
このように生体の行動や状況を認識することは、さまざまな応用が考えられる。特に、本実施の形態では計算量の削減と高精度な認識を両立させているため、小型の機器を生体に装着することができる。それ故、生体への負担を最小限にし、多くの場面で利用することが可能となっている。一つには、健康管理の面での利用が有効であると考えられる。例えば食事や運動、睡眠時等の状態を知ることにより、生体の健康維持または治療やリハビリテーションのためのアドバイスを発することが実現できる。また、生体の監視装置という面では、生体の状況の急な変化を感知して他者に警告を発したり、ネットワークを介して遠方の関係者に連絡を送ったりすることが実現できる。特に、本実施の形態によればリアルタイムに生体の状況を判断することができるので、監視装置には適しているといえる。その他、生体の行動に依存したきめ細やかなサービスへの応用も考えられる。例えば、外出先において生体が疲れていることを認識した場合に、座れる場所やなにか飲み物を取れる場所を示すなどのサービスが考えられる。また、本発明では生体の精神的な状況(例えばストレス度等)の認識も対象としているので、例えば生体の興味の方向を知り、生体が望むコンテンツを提供するなどのサービスも考えられる。
【0068】
以上のように、本実施の形態によれば、加速度データと生体データの両方を用いるようにしたので、高精度に、さまざまな生体の行動や状況を認識することができる。即ち、加速度データのみを用いて行動や状況を認識する場合に比べ、生体データと合わせて用いる場合には、食事などの生体の変化を伴う状況を正しく認識することが可能となる。また、加速度データのみからは精神的な状況、例えば緊張しているとかリラックスしているなどの状況を認識することは困難であったが、生体データも用いることにより、精神的な状況も認識することが可能である。一方、生体データのみを用いた場合には、認識できる行動や状況が少なく、例えば発汗が計測された場合に、それが運動によるものか緊張によるものかを区別することが困難であったが、加速度データと合わせて分析することにより、日常生活におけるさまざまな行動や状況を認識できる。
【0069】
また、本実施の形態によれば、区間ごとの統計量を特徴量として用いるようにしたので、計算量の少ない、ノイズや欠損値による影響を少なくした処理をすることができる。
【0070】
さらに、本実施の形態によれば、生体データに対する区間の長さを、加速度データに対する区間よりも長く設定するようにしたので高精度な生体の認識が可能となる。
【0071】
また、本実施の形態によれば、区間の長さを動的に変化させるようにしたので高精度な生体の認識が可能となる。
【0072】
【発明の効果】
本発明によれば、加速度データと生体データの両方を用いるようにしたので、高精度に、さまざまな行動や状況を容易に認識することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態としての行動認識装置の一例を示すブロック図である。
【図2】行動認識装置による処理ステップを示すフローチャートである。
【図3】加速度データの例を示すグラフ図である。
【図4】皮膚温度のデータの例を示すグラフ図である。
【図5】脈波のデータの例を示すグラフ図である。
【図6】GSR(皮膚電気反射)のデータの例を示すグラフ図である。
【図7】ノイズや欠損値を説明するための図である。
【図8】区間サイズと誤認識率との関係を説明するための図である。
【図9】特徴量抽出部による処理ステップを示すフローチャートである。
【図10】本実施の形態において算出された特徴量の一例を示す図表である。
【図11】行動認識部において用いる分類木の一例である。
【符号の説明】
1 信号計測部
2 前処理部(ノイズ除去部)
3 特徴量算出部
4 行動認識部
5 区間サイズ決定部
6 特徴量算出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a biological state analysis device and a biological state analysis method for analyzing data obtained by measuring a biological state, and more specifically, recognizing the biological state from data obtained by measuring the biological state. The present invention relates to a living body state analyzing apparatus and a living body state analyzing method.
[0002]
[Prior art]
Automatically recognizing biological behaviors and situations from time-series data obtained by measuring biological conditions is important in fields such as human health management and human body monitoring that immediately detects abnormalities. Technology. This technique can be applied to, for example, realizing health maintenance and appropriate treatment by managing meals and exercise, and detecting sudden changes in health. It is also possible to apply this technology to the provision of detailed services according to the state of the living body.
[0003]
Therefore, a technique for recognizing the behavior of a living body using an acceleration sensor attached to the body is disclosed in Japanese Patent Laid-Open No. 10-113343 (Patent Document 1).
[0004]
In this technique, a frequency component contained in the data is extracted from the measured acceleration data, and an action is recognized according to the level of correlation with a separately stored reference value.
[0005]
Japanese Patent Laid-Open No. 8-292939 (Patent Document 2) corrects temporal changes and individual differences as a time-series data analysis method, particularly as a time-series data analysis method in which the time collection interval is not constant. After that, a technique for performing statistical processing is disclosed.
[0006]
Japanese Patent Application Laid-Open No. 9-294727 (Patent Document 3) discloses an apparatus for measuring calorie consumption during rest or exercise from the pulse rate and body movement due to acceleration.
[0007]
[Patent Document 1]
JP-A-10-113343 [Patent Document 2]
JP-A-8-292939 [Patent Document 3]
Japanese Patent Laid-Open No. 9-294727
[Problems to be solved by the invention]
In the action recognition technology using acceleration data represented by the first prior art, frequency components included in the data are extracted. In order to extract the frequency component, Fourier transform or wavelet transform is used. These Fourier transform and wavelet transform can obtain the spectrum intensity for each frequency component, and are effective for characterizing the behavior by frequency characteristics, but the calculation amount is large. Therefore, there is a problem that it takes a lot of processing time and the action cannot be recognized in real time. Further, since a large memory capacity is required when performing Fourier transform or wavelet transform, there is a problem that it is not suitable for realization with a small device.
[0009]
Even in the second prior art, since frequency components are used to represent temporal changes, there are still problems that the processing speed is slow and a large amount of memory is required. Was not suitable. Further, in the present technology, when the time change can be approximated by a specific function, a parameter representing the feature of the function is used. However, this technique cannot be applied when the function to be approximated is unknown.
[0010]
The third conventional technique is a technique for calculating the calorie consumption of the human body mainly for the purpose of health management, so actions such as whether the human body is walking, eating, or desk work, etc. I couldn't recognize it.
[0011]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a biological state analysis apparatus and a biological state analysis method capable of accurately recognizing a state such as a behavior or a state of a living body with a small amount of calculation. It is to provide.
[0012]
[Means for Solving the Problems]
The biological state analyzer of the present invention measures a state of a biological body, obtains time series acceleration data and time series biological data, and extracts feature amounts from the acceleration data and the biological data, respectively. And a biological state recognizing unit that recognizes the state of the living body using the feature amount extracted from the acceleration data and the feature amount extracted from the biological data. Features.
[0013]
Also, the biological state analysis method of the present invention includes a biological state measurement step of measuring a biological state to obtain time-series acceleration data and time-series biological data, and feature amounts from the acceleration data and the biological data, respectively. And a biological state recognition step for recognizing the state of the living body using the feature amount extracted from the acceleration data and the feature amount extracted from the biological data. It is characterized by that.
[0014]
The biological data used in the present invention is data such as pulse wave, skin temperature, GSR (Galvanic Skin Response), heart rate, myoelectricity, electrocardiogram, respiration, brain wave, blood flow, blood pressure, and the like.
[0015]
As the feature amount, it is preferable to use a statistic that can reduce the calculation amount without using a frequency component that requires Fourier transform or wavelet transform.
[0016]
The statistics used in the present invention include, for example, mean, variance, maximum value, minimum value, difference in level, difference between first and last values in a section, sum of fluctuations in a section, and other combinations thereof. Conceivable.
[0017]
As for the length of the section when extracting the feature amount, the length of the section for the biometric data is preferably longer than the length of the section for the acceleration data. Moreover, it is preferable to change the length of the section dynamically during processing.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0019]
FIG. 1 shows a configuration diagram of a biological state analysis apparatus (behavior recognition apparatus) as an embodiment of the present invention.
[0020]
The behavior recognition apparatus according to the present embodiment includes a signal measurement unit 1, a preprocessing unit (noise removal unit) 2, a feature amount extraction unit 3, and a behavior recognition unit 4. The feature amount extraction unit 3 includes a section size determination unit 5 and a feature amount calculation unit 6.
[0021]
The signal measuring unit 1 measures time-series acceleration data and time-series biological data from a sensor attached to the living body.
[0022]
Here, the biological data is data such as pulse wave, skin temperature, GSR (Galvanic Skin Response) (skin electrical reflex), heart rate, myoelectricity, electrocardiogram, respiration, brain wave, blood flow, blood pressure, and the like. Various sensors that measure these data can be attached to multiple locations on the living body, in which case more various behaviors (for example, while eating, listening to music) and situations (for example, stress levels) Can be recognized. In addition to data related to a living body, the temperature and humidity of the environment in which the living body exists may be simultaneously measured.
[0023]
The preprocessing unit (noise removal unit) 2 removes extreme outliers in the measurement data. In addition, when the value is missing due to a data signal communication error or the like, the preprocessing unit 2 adds a value indicating that the value is missing to the missing part.
[0024]
The feature quantity extraction unit 3 extracts various statistics as feature quantities from the preprocessed data (preprocessed data).
[0025]
More specifically, the section size determination unit 5 determines the length of the section from which the feature amount is extracted in the pre-processed data, and the feature amount calculation unit 6 determines the feature amount such as a statistic for each determined section. To extract.
[0026]
The statistic may be an average value, variance, maximum value, minimum value, step difference, difference between the first value and the last value in the interval, the sum of fluctuations in the interval, and combinations thereof.
[0027]
As the feature value, a feature value obtained by calculating biometric data and data obtained from another system is also conceivable. For example, when the data of the environmental temperature where the living body exists and the skin temperature of the living body are obtained, the difference between them may be used as the feature amount.
[0028]
The behavior recognition unit 4 recognizes the behavior and situation of the living body using the calculated feature amount. For recognition, a model that outputs an action or the like based on a feature value is prepared in advance, and the action is classified using the feature value as an input to the model. As the model, a decision tree, a classification tree, a neural network, a regression equation, or the like can be used.
[0029]
In addition, it is possible to prepare feature quantity patterns for each action, obtain the degree of correlation and similarity between the calculated feature quantity and each pattern, and obtain the action with the highest degree of correlation and similarity as the recognition result. Good.
[0030]
Next, the processing operation of the action recognition device configured as described above will be described using a specific example.
[0031]
In the following, a sensor is attached to one wrist of a human body, and biaxial acceleration, skin temperature, pulse wave, and GSR (skin electrical reflection) data are measured by this sensor.
[0032]
FIG. 2 is a flowchart showing processing steps by the action recognition device.
[0033]
First, the signal measuring unit 1 acquires biaxial acceleration data, skin temperature, pulse wave, and GSR data using the above-described sensor (step S1).
[0034]
3 is a data example of measured biaxial acceleration (acceleration 1 and acceleration 2), FIG. 4 is a data example of measured skin temperature, FIG. 5 is a data example of measured pulse wave, FIG. FIG. 4 is a diagram illustrating an example of GSR data. 3 to 6 are obtained by connecting the respective data acquired in a sampling period of 50 ms −1 with straight lines, for example.
[0035]
Next, the preprocessing unit 2 performs processing such as noise removal and missing value detection from the measured data (step S2). Noise is generated, for example, by mistakes or disturbances at the measurement stage or signal communication stage.
[0036]
FIG. 7 is a diagram for explaining data loss and noise.
[0037]
As shown in part A of FIG. 7, a value extremely deviating from the reference value is regarded as noise, and the preprocessing unit 2 removes such a value as noise.
[0038]
Further, as shown in the part B, when the value is missing without being measured, the pre-processing unit 2 is able to distinguish the normal data such as “−1” so that the missing can be recognized. Enter a value that identifies Here, if the measured signal is simply recorded, there is a risk of missing data. Therefore, at the same time as the signal measurement, serial numbers and data measurement times are added at predetermined intervals. If the additional information is not continuous, it may be considered that there is a defect.
[0039]
Next, as shown in FIG. 2, the feature quantity extraction unit 3 extracts feature quantities from the preprocessed data (step S3).
[0040]
This feature amount extraction process (step S3) includes a section size determination process (step S3-A) and a feature amount calculation process (step S3-B).
[0041]
The section size determination process (step S3-A) is a process in which the section size determination unit 5 determines the length of a continuous section in which the feature amount is calculated. The feature amount calculation process (step S3-B) is a process in which the feature amount calculation unit 6 calculates a feature amount in each determined section.
[0042]
In the section size determination process (step S3-A), the section size is basically set to 10 seconds or less, particularly about 10 seconds as the initial value in the case of acceleration data (section size as will be described later). Change dynamically). On the other hand, in the case of biometric data (skin temperature, pulse wave, GSR data), 40 seconds to 2 minutes, especially about 40 seconds is used as an initial value. This is because acceleration data generally changes immediately after the movement, whereas biometric data generally changes slowly.
[0043]
For example, in the case of jogging, the acceleration changes from the moment when jogging starts, but the pulse (pulse wave) and skin temperature rise (change) only after jogging is started and continued for a while.
[0044]
In particular, the section size in the case of biometric data is longer than the acceleration and is set to about 40 seconds based on experimental results. I will explain this in more detail.
[0045]
FIG. 8 shows the misclassification rate (misrecognition rate) based on the result of an experiment in which the feature amount is calculated by changing the section size of the biometric data and the human body's meal motion is recognized using the feature amount. FIG.
[0046]
Although there are some fluctuations depending on the experimental situation, according to the figure, it can be confirmed that the error decreases when the length of the section exceeds 60 seconds. Therefore, although it is desirable from the aspect of accuracy to set it to 60 seconds or more, it seems that if the section size is set to be long, the change in data cannot be extracted depending on the behavior of the recognition target, and the accuracy may be adversely affected. Therefore, in the present embodiment, as described above, the section size is set to 40 seconds or more.
[0047]
However, depending on the target living body and the characteristics of the action to be recognized, it is preferable to consider so as to determine a more appropriate section size. For example, when the purpose of action recognition is to investigate the relationship between action in action and instantaneous heart rate change, the interval for extracting feature values of heart rate data is shortened, for example, about 15 seconds It can also be considered.
[0048]
The section size is not fixed, and the section size can be dynamically changed according to the situation. In particular, in the case of biometric data, since the data change is gradual, it is easier to extract features if the section size is increased to some extent, but if it is too long, there is a risk that a short change in the situation may be overlooked. On the other hand, if the section size is too short, there is a risk of overlooking a long change in the situation. For example, the period of change in biometric data differs between sleeping and active during the day. Therefore, for example, during sleep, since the period of change is generally long, the section size is increased.
[0049]
FIG. 9 is a flowchart showing detailed processing steps of the feature amount extraction processing (step S3).
[0050]
First, the feature amount calculation unit 6 (see FIG. 1) calculates a feature amount in a section with the same section size as the previous one (step S11). Here, the average acceleration, the dispersion of acceleration, the pulse converted from the pulse wave, and the difference in skin temperature (difference between the first value and the last value in the section) are obtained as feature amounts.
[0051]
Next, the section size determination unit 6 checks whether or not the calculated feature value has a change of a predetermined width or more as compared with the feature value of the previous section (step S12). Here, the “previous section” may be the immediately preceding section, 5 sections before, 10 sections before, 1 hour before, or the like. Or a combination of these is often appropriate.
[0052]
If the section size determination unit 6 determines that the feature amount has changed (Yes in step S12), the section size determination unit 6 determines that the state of the living body has changed and makes it easier to capture the change in the living body. The section size is made shorter than the size (step S13). Then, the feature amount calculation unit 6 calculates a feature amount within the new section size, and the section size determination unit 6 adopts this feature amount instead of the feature amount obtained in step S11 described above, It is sent to the action recognition unit 4 (step S14).
[0053]
On the other hand, when the section size determination unit 6 determines that the feature amount has not changed (No in step S12), the section size determination unit 6 checks whether the current feature amount is a value within a predetermined range (abnormal range). (Step S15). This is because even if there is no change from the previous section, if the living body is abnormal, it is considered that there is a high possibility that the biological data will change in the long run.
[0054]
When the section size determination unit 6 determines that the feature amount is within the predetermined range (Yes in step S15), it can be considered that the change in the living body is gradual, so the section size is changed to be longer ( Step S16). Then, the feature amount calculation unit 6 calculates a feature amount within the new section size, and the section size determination unit 6 adopts this feature amount instead of the feature amount calculated in step S11 described above, It is sent to the action recognition unit 4 (step S14).
[0055]
On the other hand, when the section size determination unit 6 determines that the feature amount is outside the predetermined range (No in step S15), the section size determination unit 6 uses the feature amount calculated in step S11.
[0056]
It is conceivable that the section length changing process in step S13 and step 16 is performed with a width of about ± 10%, for example.
[0057]
Although the feature amount extraction process including the process of dynamically changing the section size has been described above, the section size changing method is not limited to that described above. For example, when knowledge about the measured time and the behavior of the living body is obtained, the section size may be changed using these data as supplementary information. For example, it is possible to lengthen the section at the time when it is apparently sleeping.
[0058]
The feature amount is calculated from the preprocessed data by the feature amount extraction process (step S3 in FIG. 2) described above.
[0059]
FIG. 10 is a chart showing a partial example of the calculated feature amount.
[0060]
As described above, since the section size dynamically changes, as shown in FIG. 10, the feature amount is used after being converted into a time per unit time (for example, 1 minute), for example.
[0061]
Next, as shown in FIG. 2, the action recognition unit 4 performs action recognition based on the extracted feature amount and outputs a recognition result (step S4).
[0062]
In this embodiment, a classification tree model is used for action recognition. Various methods for constructing a classification tree or a decision tree from tabular data have been proposed. For example, in this embodiment, a binary classification tree called CART is used. CART is well-known for books such as “Applied binary tree analysis method by CART” (Atsushi Otaki, Satoshi Horie, Dan Steinberg, published by Nikka Giren Publisher, 1997).
[0063]
In action recognition using a classification tree, the branch determined by the value of the feature amount is traced in order from the root to the last end (leaf). The type of action is assigned to the end. Therefore, data having this feature amount can be interpreted as this behavior or recognition.
[0064]
FIG. 11 is a diagram showing an example of a classification tree used in the present embodiment.
[0065]
For example, the feature amount data on the first line in the table of FIG. 10 can be interpreted as data obtained in the event of music appreciation according to the classification tree of FIG. However, the classification tree in FIG. 11 is extracted for explaining the present embodiment, and values and terms actually used are not limited thereto.
[0066]
As a method used for recognition processing of actions and the like, the classification tree has an advantage in that the amount of calculation is small and the configuration is easy for the user to understand among types in which data is classified using the constructed model. However, the realization of recognition of actions and the like according to the present invention is not limited to the classification tree. Many methods have been proposed for constructing a model from tabular data as shown in FIG. 10 and performing classification using the model. For example, a neural network or a regression equation may be used for recognition processing of actions or the like. Conceivable. Also, it is possible to calculate a similarity or correlation by comparing the calculated feature quantity with a typical feature quantity of each action, and to make an action with a high similarity or correlation degree as a recognition result.
[0067]
In this way, various applications can be considered for recognizing the behavior and situation of a living body. In particular, in the present embodiment, since a reduction in calculation amount and high-accuracy recognition are compatible, a small device can be attached to a living body. Therefore, the burden on the living body can be minimized and used in many situations. For one thing, it is considered effective in terms of health management. For example, by knowing the state of meals, exercise, sleep, etc., it is possible to provide advice for maintaining the health of the living body or for treatment or rehabilitation. Further, in terms of a living body monitoring device, it is possible to detect a sudden change in the state of the living body and issue a warning to another person, or to communicate with a distant party via a network. In particular, according to the present embodiment, it is possible to determine the state of the living body in real time, so it can be said that it is suitable for the monitoring device. In addition, it can be applied to fine-grained services that depend on biological behavior. For example, a service such as showing a place where a person can sit or take a drink when he / she recognizes that his / her living body is tired in the place of going out can be considered. In addition, since the present invention also targets the recognition of the mental state of the living body (for example, the degree of stress), for example, services such as knowing the direction of interest of the living body and providing the content desired by the living body can be considered.
[0068]
As described above, according to the present embodiment, since both acceleration data and biological data are used, it is possible to recognize various biological actions and situations with high accuracy. That is, compared to the case of recognizing actions and situations using only acceleration data, it is possible to correctly recognize situations involving changes in the living body such as meals when used together with biological data. In addition, it is difficult to recognize mental situations from only acceleration data, for example, situations such as tension or relaxation, but it also recognizes mental situations by using biometric data. It is possible. On the other hand, when using only biometric data, there are few actions and situations that can be recognized, for example, when sweating was measured, it was difficult to distinguish whether it was due to exercise or due to tension, By analyzing it together with acceleration data, it is possible to recognize various behaviors and situations in daily life.
[0069]
In addition, according to the present embodiment, since the statistics for each section are used as feature quantities, it is possible to perform a process with a small amount of calculation and less influenced by noise and missing values.
[0070]
Furthermore, according to the present embodiment, since the length of the section for the biometric data is set to be longer than the section for the acceleration data, it is possible to recognize the living body with high accuracy.
[0071]
Further, according to the present embodiment, since the length of the section is dynamically changed, it is possible to recognize the living body with high accuracy.
[0072]
【The invention's effect】
According to the present invention, since both acceleration data and biological data are used, various actions and situations can be easily recognized with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of an action recognition apparatus as an embodiment of the present invention.
FIG. 2 is a flowchart showing processing steps by the action recognition device.
FIG. 3 is a graph showing an example of acceleration data.
FIG. 4 is a graph showing an example of skin temperature data.
FIG. 5 is a graph showing an example of pulse wave data.
FIG. 6 is a graph showing an example of GSR (skin electrical reflection) data.
FIG. 7 is a diagram for explaining noise and missing values.
FIG. 8 is a diagram for explaining a relationship between a section size and an erroneous recognition rate.
FIG. 9 is a flowchart showing processing steps by a feature amount extraction unit;
FIG. 10 is a chart showing an example of feature amounts calculated in the present embodiment.
FIG. 11 is an example of a classification tree used in an action recognition unit.
[Explanation of symbols]
1 Signal Measurement Unit 2 Pre-processing Unit (Noise Removal Unit)
3 feature amount calculation unit 4 action recognition unit 5 section size determination unit 6 feature amount calculation unit

Claims (13)

生体の状態を計測して、時系列の加速度データ及び時系列の生体データを取得する生体状態計測部と、
前記加速度データおよび前記生体データからそれぞれ特徴量を抽出する特徴量抽出部と、
前記加速度データから抽出された前記特徴量及び前記生体データから抽出された前記特徴量を用いて、前記生体の状態を認識する生体状態認識部と、
を備えた生体状態分析装置。
A biological state measurement unit that measures a biological state and acquires time-series acceleration data and time-series biological data;
A feature amount extraction unit for extracting feature amounts from the acceleration data and the biological data,
A biological state recognition unit that recognizes the state of the living body using the feature amount extracted from the acceleration data and the feature amount extracted from the biological data;
A biological state analyzing apparatus.
前記加速度データ及び前記生体データに前処理を施す前処理部をさらに備え、
前記特徴量抽出部は、前処理後の前記加速度データおよび前処理後の前記生体データからそれぞれ前記特徴量を抽出することを特徴とする請求項1に記載の生体状態分析装置。
A pre-processing unit that performs pre-processing on the acceleration data and the biological data;
The biological state analysis apparatus according to claim 1, wherein the feature amount extraction unit extracts the feature amount from the acceleration data after preprocessing and the biological data after preprocessing.
前記特徴量抽出部は、前記加速度データ及び前記生体データをそれぞれ複数の区間に分割し、前記区間ごとに前記特徴量として統計量を抽出することを特徴とする請求項1又は2に記載の生体状態分析装置。The living body according to claim 1 or 2, wherein the feature amount extraction unit divides the acceleration data and the biological data into a plurality of sections, and extracts a statistic as the feature amount for each section. Condition analysis device. 前記特徴量抽出部は、前記生体データに対する区間の長さを、前記加速度データに対する区間の長さよりも長く設定することを特徴とする請求項3に記載の生体状態分析装置。The biological state analysis apparatus according to claim 3, wherein the feature amount extraction unit sets a length of a section for the biological data to be longer than a length of a section for the acceleration data. 前記特徴量抽出部は、前記加速度データに対する前記区間の長さを10秒以下、前記生体データに対する前記区間の長さを40秒以上に設定することを特徴とする請求項3又は4に記載の生体状態分析装置。The length of the section for the acceleration data is set to 10 seconds or less, and the length of the section for the biometric data is set to 40 seconds or more. Biological condition analyzer. 前記特徴量抽出部は、前記生体データに対する前記区間の長さと、前記加速度データに対する区間の長さの少なくとも一方を動的に変化させることを特徴とする請求項3乃至5のいずれかに記載の生体状態分析装置。The said feature-value extraction part changes at least one of the length of the said area with respect to the said biometric data, and the length of the area with respect to the said acceleration data dynamically, The Claim 3 thru | or 5 characterized by the above-mentioned. Biological condition analyzer. 前記特徴量抽出部は、前記生体データに対する前記区間の長さを、前記区間の前方における前記区間から抽出された前記特徴量に基づいて変化させ、また、前記加速度データに対する前記区間の長さを、前記区間の前方における前記区間から抽出された前記特徴量に基づいて変化させることを特徴とする請求項6に記載の生体状態分析装置。The feature amount extraction unit changes the length of the section for the biometric data based on the feature amount extracted from the section in front of the section, and changes the length of the section for the acceleration data. The living body state analysis apparatus according to claim 6, wherein the living body state analysis apparatus changes based on the feature amount extracted from the section in front of the section. 生体の状態を計測して、時系列の加速度データ及び時系列の生体データを取得する生体状態計測ステップと、
前記加速度データ及び前記生体データからそれぞれ特徴量を抽出する特徴量抽出ステップと、
前記加速度データから抽出された前記特徴量、及び前記生体データから抽出された前記特徴量を用いて、前記生体の状態を認識する生体状態認識ステップと、
を備えた生体状態分析方法。
A biological state measurement step of measuring a biological state and acquiring time-series acceleration data and time-series biological data;
A feature amount extracting step for extracting feature amounts from the acceleration data and the biological data,
A biological state recognition step for recognizing the state of the biological body using the characteristic amount extracted from the acceleration data and the characteristic amount extracted from the biological data;
A biological state analysis method comprising:
前記特徴量抽出ステップは、前記加速度データ及び前記生体データをそれぞれ複数の区間に分割し、前記区間ごとに前記特徴量として統計量を抽出することを特徴とする請求項8に記載の生体状態分析方法。The biological state analysis according to claim 8, wherein the feature amount extraction step divides the acceleration data and the biological data into a plurality of sections, and extracts a statistic as the feature amount for each section. Method. 前記特徴量抽出ステップは、前記生体データに対する区間の長さを、前記加速度データに対する区間の長さよりも長く設定することを特徴とする請求項9に記載の生体状態分析方法。The biological condition analysis method according to claim 9, wherein the feature amount extraction step sets a length of a section for the biological data to be longer than a length of the section for the acceleration data. 前記特徴量抽出ステップは、前記加速度データに対する前記区間の長さを10秒以下、前記生体データに対する前記区間の長さを40秒以上に設定することを特徴とする請求項9又は10に記載の生体状態分析方法。The length of the section with respect to the acceleration data is set to 10 seconds or less, and the length of the section with respect to the biometric data is set to 40 seconds or more in the feature amount extraction step. Biological condition analysis method. 前記特徴量抽出ステップは、前記生体データに対する前記区間の長さと、前記加速度データに対する区間の長さの少なくとも一方を動的に変化させることを特徴とする請求項9乃至11のいずれかに記載の生体状態分析方法。12. The feature amount extraction step according to claim 9, wherein at least one of a length of the section for the biological data and a length of the section for the acceleration data is dynamically changed. Biological condition analysis method. 前記特徴量抽出ステップは、前記生体データに対する前記区間の長さを、前記区間の前方における前記区間から抽出された前記特徴量に基づいて変化させ、また、前記加速度データに対する前記区間の長さを、前記区間の前方における前記区間から抽出された前記特徴量に基づいて変化させることを特徴とする請求項12に記載の生体状態分析方法。The feature amount extraction step changes the length of the section for the biological data based on the feature amount extracted from the section in front of the section, and changes the length of the section for the acceleration data. The biological state analysis method according to claim 12, wherein the biological state analysis method is changed based on the feature amount extracted from the section in front of the section.
JP2003191213A 2003-07-03 2003-07-03 Biological condition analysis apparatus and biological condition analysis method Expired - Fee Related JP3923035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003191213A JP3923035B2 (en) 2003-07-03 2003-07-03 Biological condition analysis apparatus and biological condition analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003191213A JP3923035B2 (en) 2003-07-03 2003-07-03 Biological condition analysis apparatus and biological condition analysis method

Publications (2)

Publication Number Publication Date
JP2005021450A true JP2005021450A (en) 2005-01-27
JP3923035B2 JP3923035B2 (en) 2007-05-30

Family

ID=34188897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003191213A Expired - Fee Related JP3923035B2 (en) 2003-07-03 2003-07-03 Biological condition analysis apparatus and biological condition analysis method

Country Status (1)

Country Link
JP (1) JP3923035B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241866A (en) * 2006-03-10 2007-09-20 Ntt Docomo Inc System and method for detecting specific signal pattern from double axis sensor
WO2008149559A1 (en) * 2007-06-08 2008-12-11 Panasonic Corporation Pulse wave detection device, apparatus control device, and pulse wave detection method
JP2009532072A (en) * 2005-11-01 2009-09-10 アーリーセンス エルティディ Clinical seizure patient monitoring method and system
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
JP2010284498A (en) * 2009-05-12 2010-12-24 Tokuo Saito Device for collecting and transmitting biological information
JP2011120684A (en) * 2009-12-09 2011-06-23 Nec Corp Action determination device, action determination system, action determination method, and program
JP2012194983A (en) * 2012-05-07 2012-10-11 Ntt Docomo Inc Detection system for specific signal pattern from multi-axis sensor and detection method for specific signal pattern from multi-axis sensor
US8376954B2 (en) 2004-02-05 2013-02-19 Earlysense Ltd. Techniques for prediction and monitoring of respiration-manifested clinical episodes
US8403865B2 (en) 2004-02-05 2013-03-26 Earlysense Ltd. Prediction and monitoring of clinical episodes
US8491492B2 (en) 2004-02-05 2013-07-23 Earlysense Ltd. Monitoring a condition of a subject
WO2013128972A1 (en) * 2012-03-02 2013-09-06 日本電気株式会社 Movement determination device, movement determination system and movement determination method
US8585607B2 (en) 2007-05-02 2013-11-19 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
JP2014504932A (en) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. Apparatus and method for classifying mammalian body orientation
JP2014050451A (en) * 2012-09-05 2014-03-20 Seiko Epson Corp Biological information processing system, wearable device, server system, and program
US8821418B2 (en) 2007-05-02 2014-09-02 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8882684B2 (en) 2008-05-12 2014-11-11 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8942779B2 (en) 2004-02-05 2015-01-27 Early Sense Ltd. Monitoring a condition of a subject
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
WO2016143404A1 (en) * 2015-03-12 2016-09-15 ソニー株式会社 Information processing device, information processing method, and program
WO2017077656A1 (en) * 2015-11-06 2017-05-11 富士通株式会社 Meal time estimation method, meal time estimation program, and meal time estimation device
US9883809B2 (en) 2008-05-01 2018-02-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
JP2018534709A (en) * 2015-10-28 2018-11-22 ハンコム インコーポレイテッド Smart watch whose display color changes according to the user's condition
JP2019005512A (en) * 2017-06-28 2019-01-17 富士通株式会社 Specific behavior detection program, specific behavior detection method and specific behavior detection system
US10292625B2 (en) 2010-12-07 2019-05-21 Earlysense Ltd. Monitoring a sleeping subject
US10702210B2 (en) 2015-11-05 2020-07-07 Fujitsu Limited Meal intake detection device, meal intake detection method and computer-readable non-transitory medium
US10939829B2 (en) 2004-02-05 2021-03-09 Earlysense Ltd. Monitoring a condition of a subject
CN114209308A (en) * 2021-11-23 2022-03-22 湖南云医链生物科技有限公司 Method, device and equipment for measuring life vitality of traditional Chinese medicine and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584232A (en) * 1991-09-27 1993-04-06 Shimadzu Corp Vital phenomenon measuring and recording device
JPH06189914A (en) * 1992-12-22 1994-07-12 Matsushita Electric Works Ltd Biological rhythm curve measuring device
JP2000245713A (en) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd Behavior recognizing device
JP2001327472A (en) * 2000-03-14 2001-11-27 Toshiba Corp Device and method for supporting wearable life
JP2002042280A (en) * 2000-07-27 2002-02-08 Seiko Precision Inc Automatic emergency alarm and automatic emergency alarm output method
JP2002200059A (en) * 2000-12-28 2002-07-16 Terumo Corp Body movement detector and medical instrument using the same and method of detecting body movement
JP2002282212A (en) * 2001-03-26 2002-10-02 Matsushita Electric Ind Co Ltd Biological information management equipment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584232A (en) * 1991-09-27 1993-04-06 Shimadzu Corp Vital phenomenon measuring and recording device
JPH06189914A (en) * 1992-12-22 1994-07-12 Matsushita Electric Works Ltd Biological rhythm curve measuring device
JP2000245713A (en) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd Behavior recognizing device
JP2001327472A (en) * 2000-03-14 2001-11-27 Toshiba Corp Device and method for supporting wearable life
JP2002042280A (en) * 2000-07-27 2002-02-08 Seiko Precision Inc Automatic emergency alarm and automatic emergency alarm output method
JP2002200059A (en) * 2000-12-28 2002-07-16 Terumo Corp Body movement detector and medical instrument using the same and method of detecting body movement
JP2002282212A (en) * 2001-03-26 2002-10-02 Matsushita Electric Ind Co Ltd Biological information management equipment

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8376954B2 (en) 2004-02-05 2013-02-19 Earlysense Ltd. Techniques for prediction and monitoring of respiration-manifested clinical episodes
US8992434B2 (en) 2004-02-05 2015-03-31 Earlysense Ltd. Prediction and monitoring of clinical episodes
US8603010B2 (en) 2004-02-05 2013-12-10 Earlysense Ltd. Techniques for prediction and monitoring of clinical episodes
US8731646B2 (en) 2004-02-05 2014-05-20 Earlysense Ltd. Prediction and monitoring of clinical episodes
US8679030B2 (en) 2004-02-05 2014-03-25 Earlysense Ltd. Monitoring a condition of a subject
US8517953B2 (en) 2004-02-05 2013-08-27 Earlysense Ltd. Techniques for prediction and monitoring of coughing-manifested clinical episodes
US10939829B2 (en) 2004-02-05 2021-03-09 Earlysense Ltd. Monitoring a condition of a subject
US8942779B2 (en) 2004-02-05 2015-01-27 Early Sense Ltd. Monitoring a condition of a subject
US9131902B2 (en) 2004-02-05 2015-09-15 Earlysense Ltd. Prediction and monitoring of clinical episodes
US8403865B2 (en) 2004-02-05 2013-03-26 Earlysense Ltd. Prediction and monitoring of clinical episodes
US8840564B2 (en) 2004-02-05 2014-09-23 Early Sense Ltd. Monitoring a condition of a subject
US8491492B2 (en) 2004-02-05 2013-07-23 Earlysense Ltd. Monitoring a condition of a subject
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
US9026199B2 (en) 2005-11-01 2015-05-05 Earlysense Ltd. Monitoring a condition of a subject
JP2009532072A (en) * 2005-11-01 2009-09-10 アーリーセンス エルティディ Clinical seizure patient monitoring method and system
JP2007241866A (en) * 2006-03-10 2007-09-20 Ntt Docomo Inc System and method for detecting specific signal pattern from double axis sensor
US8585607B2 (en) 2007-05-02 2013-11-19 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8734360B2 (en) 2007-05-02 2014-05-27 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8821418B2 (en) 2007-05-02 2014-09-02 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
JPWO2008149559A1 (en) * 2007-06-08 2010-08-19 パナソニック株式会社 Pulse wave detection device, device control device, and pulse wave detection method
WO2008149559A1 (en) * 2007-06-08 2008-12-11 Panasonic Corporation Pulse wave detection device, apparatus control device, and pulse wave detection method
US8425427B2 (en) 2007-06-08 2013-04-23 Panasonic Corporation Pulse wave detection device, device control device, and pulse wave detection method
US9883809B2 (en) 2008-05-01 2018-02-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8998830B2 (en) 2008-05-12 2015-04-07 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8882684B2 (en) 2008-05-12 2014-11-11 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
JP2010284498A (en) * 2009-05-12 2010-12-24 Tokuo Saito Device for collecting and transmitting biological information
JP2011120684A (en) * 2009-12-09 2011-06-23 Nec Corp Action determination device, action determination system, action determination method, and program
US10292625B2 (en) 2010-12-07 2019-05-21 Earlysense Ltd. Monitoring a sleeping subject
US11147476B2 (en) 2010-12-07 2021-10-19 Hill-Rom Services, Inc. Monitoring a sleeping subject
US10126108B2 (en) 2011-02-10 2018-11-13 dorsaVi Ltd Apparatus and method for classifying orientation of a body of a mammal
JP2014504932A (en) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. Apparatus and method for classifying mammalian body orientation
JPWO2013128972A1 (en) * 2012-03-02 2015-07-30 日本電気株式会社 Motion determination device, motion determination system, and motion determination method
CN104144643A (en) * 2012-03-02 2014-11-12 日本电气株式会社 Movement determination device, movement determination system and movement determination method
US9606138B2 (en) 2012-03-02 2017-03-28 Nec Corporation Motion recognition apparatus, motion recognition system, and motion recognition method
WO2013128972A1 (en) * 2012-03-02 2013-09-06 日本電気株式会社 Movement determination device, movement determination system and movement determination method
JP2012194983A (en) * 2012-05-07 2012-10-11 Ntt Docomo Inc Detection system for specific signal pattern from multi-axis sensor and detection method for specific signal pattern from multi-axis sensor
JP2014050451A (en) * 2012-09-05 2014-03-20 Seiko Epson Corp Biological information processing system, wearable device, server system, and program
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
WO2016084499A1 (en) * 2014-11-26 2016-06-02 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
US11350879B2 (en) 2015-02-17 2022-06-07 Nippon Telegraph And Telephone Corporation Device and method for sequential posture identification and autonomic function information acquisition
US11998360B2 (en) 2015-02-17 2024-06-04 Nippon Telegraph And Telephone Corporation Device and method for sequential posture identification and autonomic function information acquisition
JPWO2016143404A1 (en) * 2015-03-12 2017-12-21 ソニー株式会社 Information processing apparatus, information processing method, and program
US10832041B2 (en) 2015-03-12 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program for detecting a target motion
WO2016143404A1 (en) * 2015-03-12 2016-09-15 ソニー株式会社 Information processing device, information processing method, and program
JP2018534709A (en) * 2015-10-28 2018-11-22 ハンコム インコーポレイテッド Smart watch whose display color changes according to the user's condition
US10702210B2 (en) 2015-11-05 2020-07-07 Fujitsu Limited Meal intake detection device, meal intake detection method and computer-readable non-transitory medium
JPWO2017077656A1 (en) * 2015-11-06 2018-08-30 富士通株式会社 Meal time estimation method, meal time estimation program, and meal time estimation device
WO2017077656A1 (en) * 2015-11-06 2017-05-11 富士通株式会社 Meal time estimation method, meal time estimation program, and meal time estimation device
JP2019005512A (en) * 2017-06-28 2019-01-17 富士通株式会社 Specific behavior detection program, specific behavior detection method and specific behavior detection system
CN114209308A (en) * 2021-11-23 2022-03-22 湖南云医链生物科技有限公司 Method, device and equipment for measuring life vitality of traditional Chinese medicine and storage medium
CN114209308B (en) * 2021-11-23 2023-10-13 湖南云医链生物科技有限公司 Method, device, equipment and storage medium for measuring vitality of traditional Chinese medicine

Also Published As

Publication number Publication date
JP3923035B2 (en) 2007-05-30

Similar Documents

Publication Publication Date Title
JP3923035B2 (en) Biological condition analysis apparatus and biological condition analysis method
JP6721155B2 (en) Biological information analysis device, system, and program
Gutiérrez-Rivas et al. Novel real-time low-complexity QRS complex detector based on adaptive thresholding
JP6199330B2 (en) Identification of Chain Stokes breathing patterns using oximetry signals
Karthikeyan et al. Detection of human stress using short-term ECG and HRV signals
RU2602797C2 (en) Method and device for measuring stress
EP3363351B1 (en) System for detection of coronary artery disease in a person using a fusion approach
US9833184B2 (en) Identification of emotional states using physiological responses
US8478542B2 (en) Non-parametric modeling apparatus and method for classification, especially of activity state
CN101563028B (en) Patient monitoring system and method
CN107028603B (en) Apparatus and method for detecting diabetes in a human body using pulse palpation signals
Beh et al. Robust PPG-based mental workload assessment system using wearable devices
CA3093173A1 (en) System and method for processing multiple signals
US8805484B2 (en) System, apparatus and method for diagnosing seizures
KR102243012B1 (en) Estimation method of blood vessel elasticity and arrhythmia using skin image
CN115089179A (en) Psychological emotion insights analysis method and system
Sindhu et al. Emotion driven mood enhancing multimedia recommendation system using physiological signal
CA3139034A1 (en) System and method for filtering time-varying data for physiological signal prediction
KR20170120546A (en) Method and system for extracting Heart Information of Frequency domain by using pupil size variation
JP7216408B2 (en) Device for determining sleep apnea syndrome, method for determining sleep apnea syndrome, and program for determining sleep apnea syndrome
Mozafari et al. Mental stress level detection using physiological signals and evolutionary algorithm
KR102645586B1 (en) Apparatus and method for classifying breathing state during sleep using biosignals
Maggard Automation of sleep staging
Sia et al. Sleep Apnea Event Detection System Based on Heart Rate Variability Analysis
WO2022268695A1 (en) Method for evaluation of photoplethysmography signal pulses

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070220

LAPS Cancellation because of no payment of annual fees