JP2016158954A - 状態検出方法、状態検出装置および状態検出プログラム - Google Patents

状態検出方法、状態検出装置および状態検出プログラム Download PDF

Info

Publication number
JP2016158954A
JP2016158954A JP2015041812A JP2015041812A JP2016158954A JP 2016158954 A JP2016158954 A JP 2016158954A JP 2015041812 A JP2015041812 A JP 2015041812A JP 2015041812 A JP2015041812 A JP 2015041812A JP 2016158954 A JP2016158954 A JP 2016158954A
Authority
JP
Japan
Prior art keywords
section
sensor
data
action
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041812A
Other languages
English (en)
Other versions
JP6565220B2 (ja
Inventor
史歩 鷲澤
Shiho Washizawa
史歩 鷲澤
一穂 前田
Kazuho Maeda
一穂 前田
明大 猪又
Akita Inomata
明大 猪又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015041812A priority Critical patent/JP6565220B2/ja
Priority to PCT/JP2015/081414 priority patent/WO2016139844A1/ja
Priority to EP15884010.8A priority patent/EP3266374A4/en
Publication of JP2016158954A publication Critical patent/JP2016158954A/ja
Priority to US15/691,218 priority patent/US20170360335A1/en
Application granted granted Critical
Publication of JP6565220B2 publication Critical patent/JP6565220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6891Furniture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/721Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

【課題】対象者の行動を検出する際、対象者の状況に応じて、行動を検出する。
【解決手段】状態検出装置1は、所定の区間における環境センサから得られる第1情報およびモーションセンサから得られる第2情報をデータ記録用DB21に記憶する。状態検出装置1は、データ記録用DB21に記憶された第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定する。状態検出装置1は、行動区間および非行動区間ごとの、データ記録用DB21に記憶された第1情報に含まれる複数の特徴量の各値を用いて、対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定する。状態検出装置1は、環境センサの情報から、決定された特徴量と閾値とを用いて、対象者の特定の状態を検出する。
【選択図】図1

Description

本発明は、状態検出方法などに関する。
近年、日常生活の行動を検出するために、モーションセンサが使われている。モーションセンサは、事前に行動ごとに得られた学習データの閾値と比較して、対象者の行動を検出するという技術が知られている(例えば、非特許文献1)。
O.D. Laraら, 「A Survey on Human Activity Recognition using Wearable Sensors 」,IEEE Communications Survey & Tutorials, vol. 15, no.3, pp.1192-1209, 2013
しかしながら、従来の行動を検出する技術では、対象者の行動を検出する際、対象者の状況に応じて、行動を検出することができないという問題がある。すなわち、対象者の状況が学習時と同じ場合には、学習で得られた閾値と比較することで、行動を検出することが可能である。ところが、対象者の状況が学習時と異なる場合には、行動の誤検出や検出漏れが起こる可能性がある。
ここで、人間の行動は、子供、成人、高齢者の発達段階によって変化する。人間の行動は、たとえ同一の人間による同じ行動であっても、体調、時間帯、病気の回復段階によって変化する。一例として、人間が腰を痛めているときは、腰を痛めていないときと比べて、歩行や着席などの行動がゆっくりとなる。別の例として、人間が退院した直後は、身体が思うように動かないので、行動がゆっくりとなる。このように、対象者の状況が学習時と異なる場合には、行動の誤検出や検出漏れが起こる可能性がある。
1つの側面では、対象者の行動を検出する際、対象者の状況に応じて、行動を検出することを目的とする。
本願の1つの態様では、コンピュータが、所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記憶し、前記記憶部に記憶された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定し、前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量における行動と非行動とを区別する閾値を決定し、前記第1のセンサの情報から、決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する、各処理を実行する。
1つの態様によれば、対象者の行動を検出する際、対象者の状況に応じて、行動を検出することができる。
図1は、実施例1に係る状態検出装置の構成を示す機能ブロック図である。 図2は、実施例1に係る状態検出処理の流れの一例を示す図である。 図3は、実施例1に係るデータ記録用DBのデータ構造の一例を示す図である。 図4は、環境センサの設置の一例を示す図である。 図5は、実施例1に係る状態検出処理の処理手順を示すフローチャートである。 図6は、実施例2に係る状態検出装置の構成を示す機能ブロック図である。 図7は、実施例2に係る第1の整合性判定処理の一例を示す図である。 図8は、実施例2に係る第2の整合性判定処理の一例を示す図である。 図9は、実施例2に係る第3の整合性判定処理の一例を示す図である。 図10は、実施例2に係る変化抽出処理の一例を示す図である。 図11は、実施例2に係る区間特定処理の処理手順を示すフローチャートである。 図12Aは、実施例2に係る整合性判定処理の具体例を示す図(1)である。 図12Bは、実施例2に係る整合性判定処理の具体例を示す図(2)である。 図12Cは、実施例2に係る整合性判定処理の具体例を示す図(3)である。 図13Aは、実施例2に係る変化抽出処理の具体例を示す図(1)である。 図13Bは、実施例2に係る変化抽出処理の具体例を示す図(2)である。 図13Cは、実施例2に係る変化抽出処理の具体例を示す図(3)である。 図14は、実施例3に係る状態検出装置の構成を示す機能ブロック図である。 図15は、実施例3に係る閾値推定処理の一例を示す図である。 図16は、実施例3に係る閾値推定処理の処理手順を示すフローチャートである。 図17は、状態検出プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する状態検出方法、状態検出装置および状態検出プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例によりこの発明が限定されるものではない。また、実施例における区間とは、時間軸上の区間を表すものとする。
[状態検出装置の構成]
図1は、実施例1に係る状態検出装置の構成を示す機能ブロック図である。実施例1に係る状態検出装置1は、閉環境の空間に設置された環境センサから得られる、人の行動の変化を表すデータを用いて、対象者の検出したい行動種別の行動を行った区間を示す行動区間および当該行動を行わなかった区間を示す非行動区間を特定する。状態検出装置1は、特定した行動区間および非行動区間ごとの、人に装着されたモーションセンサから得られる人の行動の情報を表すデータを用いて、当該行動の検出に用いる特徴量および閾値を決定する。以降では、行動種別を「歩行」として説明する。
ここでいう閉環境の空間とは、例えば、住環境の空間を示すが、環境センサから得られるデータを用いて空間にいる人数を把握可能な空間であれば良い。以降では、閉環境の空間を、住環境の空間として説明する。
ここでいう環境センサとは、周囲の環境を計測するセンサか、設置された物自体の状態を計測するセンサか、住環境全体の状態を計測するセンサである。周囲の環境を計測するセンサは、例えば、照度センサ、照明センサ、サーモセンサ、温度センサ、熱バブルセンサ、照明センサ、電力センサ、人感センサであれば良いがこれに限定されない。設置された物自体の状態を計測するセンサは、例えば、ブラインドセンサ、ドアセンサ、ベッドセンサ、窓センサであれば良いがこれに限定されない。住環境全体の状態を計測するセンサは、例えば、水道量検知センサ、電力量検知センサ、ガス量検知センサであれば良いがこれに限定されない。
ここでいうモーションセンサとは、人の動きを計測するセンサであり、例えば加速度センサやジャイロセンサであれば良いがこれに限定されない。
ここで、状態検出装置1の状態検出処理の流れを、図2を参照して説明する。図2は、状態検出処理の流れの一例を示す図である。図2左図に示すように、状態検出装置1は、人の行動の変化を表すデータ、ここでは、人感センサ1、2から得られるデータを取得し、そのデータが変化した時刻の情報を元に、歩行している時間(行動区間)、歩行していない時間(非行動区間)を特定する。ここでは、住環境の空間に、人感センサ1、2およびベッドセンサが設置されているとする。状態検出装置1は、人感センサ1がOFFからONに変化した時刻と人感センサ2がOFFからONに変化した時刻との間の時間を行動区間として特定する。状態検出装置1は、ベッドセンサがOFFからONに変化した時刻とベッドセンサがONからOFFに変化した時刻との間の時間を非行動区間として特定する。
図2中図に示すように、状態検出装置1は、モーションセンサから得られるデータであって行動区間のデータを正例、モーションセンサから得られるデータであって非行動区間のデータを負例として、モーションセンサから得られるデータを抽出する。ここでは、対象者の腰に装着されたモーションセンサから、正例のデータおよび負例のデータが抽出される。
図2右図に示すように、状態検出装置1は、抽出した正例のデータおよび負例のデータから、ピークの間隔や振幅などの特徴量を抽出する。そして、状態検出装置1は、抽出した複数の特徴量から、機械学習アルゴリズムを適用して、行動の検出に用いる特徴量および閾値を決定する。すなわち、状態検出装置1は、機械学習を用いて、正例の特徴量分布と負例の特徴量分布とを区別する特徴量を決定する。つまり、状態検出装置1は、正例の特徴量分布と負例の特徴量分布とが混在しないような特徴量を決定する。そして、状態検出装置1は、決定した特徴量に対する、行動と非行動とを区別する閾値を決定する。ここでは、特徴量の一例として、水平方向の加速度の振幅値が挙げられる。この後、状態検出装置1は、モーションセンサから得られる情報から、決定された特徴量と閾値とを用いて、対象者の行動種別としての歩行を検出する。
図1に戻って、状態検出装置1は、制御部10および記憶部20を有する。
記憶部20は、例えばフラッシュメモリ(Flash Memory)やFRAM(登録商標)(Ferroelectric Random Access Memory)などの不揮発性の半導体メモリ素子などの記憶装置に対応する。記憶部20は、データ記録用DB(Database)21および閾値DB22を有する。データ記録用DB21には、環境センサから得られるデータおよびモーションセンサから得られるデータが時系列に記憶される。なお、データ記録用DB21には、後述するデータ記録部12によって各データが記録される。データ記録用DB21のデータ構造は、後述する。
閾値DB22には、閾値および特徴量が記憶される。閾値DB22には、後述する閾値決定部14によって閾値および特徴量が記録される。なお、状態検出装置1が複数の行動種別の行動を検出する場合には、閾値DB22には、行動種別ごとに閾値および特徴量が記憶されるようにすれば良い。
制御部10は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。そして、制御部10は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路の電子回路に対応する。または、制御部10は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路に対応する。さらに、制御部10は、データ受信部11、データ記録部12、区間特定部13、閾値決定部14および行動検出部15を有する。
データ受信部11は、環境センサから得られるデータおよびモーションセンサから得られるデータを受信する。
データ記録部12は、データ受信部11によって受信された各種データをデータ記録用DB21に記録する。データ記録部12は、所定の区間分、各種データをデータ記録用DB21に記録する。所定の区間は、例えば1日であるが、これに限定されず、半日であっても良いし、3/4日であっても良い。すなわち、所定の区間は、閾値を決定することができるだけの区間であれば良い。以降、所定の区間を1日として説明する。ここで、データ記録用DB21のデータ構造を、図3を参照して説明する。図3は、実施例1に係るデータ記録用DBのデータ構造の一例を示す図である。
図3に示すように、データ記録用DB21は、取得時刻21b、モーションセンサの値(垂直軸の加速度)21cを、事象番号21aと対応付けて記憶する。加えて、データ記録用DB21は、部屋aに設置した環境センサのデータとして人感センサの値21dおよび部屋bに設置した環境センサのデータとして人感センサの値21eを、事象番号21aと対応付けて記憶する。
事象番号21aは、事象ごとに付与される番号である。事象番号21aは、事象の早い順に、小さい番号を連番で付与される。取得時刻21bは、事象番号21aの事象が取得された時刻である。モーションセンサの値(垂直軸の加速度)21cは、一例として、ユーザの腰に装着した加速度センサの値であって、垂直軸の加速度の値である。ここでいうモーションセンサの値で示される垂直軸の加速度が、特徴量の一例である。なお、モーションセンサの値の一例として、垂直軸の加速度の値を挙げたが、これに限定されず、水平方向の加速度の振幅値であっても良いし、ジャイロセンサの各軸の振幅値であっても良い。
人感センサの値21d、21eは、人を検知しない場合には、例えば、OFF(0)であり、人を検知する場合には、例えば、ON(1)である。人感センサの値21dは、閾値を決定する際に用いられる住環境の空間に含まれる、例えば部屋aに設置された環境センサのデータである。人感センサの値21eは、閾値を決定する際に用いられる住環境の空間に含まれる、例えば部屋bに設置された環境センサのデータである。なお、部屋a、部屋bに設置した環境センサのデータの一例として、それぞれ人感センサの値21d、21eを挙げたが、これに限定されない。部屋aに設置された環境センサに合わせて、環境センサの値が設定されれば良い。部屋bに設置された環境センサに合わせて、環境センサの値が設定されれば良い。また、部屋aに設置された環境センサのデータ、部屋bに設置された環境センサのデータに限定されず、住環境の空間に含まれた部屋に設置された環境センサのデータであれば良い。
図4は、環境センサの設置の一例を示す図である。図4に示すように、閾値を決定する際に用いられる住環境の空間が表わされている。ここでは、住環境の空間には、部屋aおよび部屋b、その他の部屋が含まれている。それぞれの部屋の丸で示された位置に、環境センサが設置されている。なお、ユーザAは、例えば、腰にモーションセンサを装着している。
図1に戻って、区間特定部13は、データ記録用DB21に記憶された環境センサの値を用いて、対象者の行動区間および非行動区間を特定する。例えば、区間特定部13は、データ記録用DB21に記憶された人感センサの値を用いて、人感センサの値がOFF(0)からON(1)に変化した時刻と人感センサの値がON(1)からOFF(0)に変化した時刻との間の時間を行動区間として特定する。区間特定部13は、データ記録用DB21に記憶されたベッドセンサの値を用いて、ベッドセンサの値がOFF(0)からON(1)に変化した時刻と人感センサの値がON(1)からOFF(0)に変化した時刻との間の時間を非行動区間として特定する。
閾値決定部14は、行動区間および非行動区間ごとの、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値を用いて、対象者の歩行の検出に用いる特徴量および閾値を決定する。例えば、閾値決定部14は、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値から、行動区間のデータを正例のデータとして取り出す。閾値決定部14は、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値から、非行動区間のデータを負例のデータとして取り出す。そして、閾値決定部14は、機械学習アルゴリズムを適用して、各特徴量の正例のデータおよび負例のデータから、各特徴量に対する正例の特徴量分布と負例の特徴量分布を生成する。閾値決定部14は、正例の特徴量分布と負例の特徴量分布とを区別する特徴量を決定するとともに、決定した特徴量における行動と非行動とを区別する閾値を決定する。そして、閾値決定部14は、決定した閾値および特徴量を閾値DB22に記録する。これにより、閾値決定部14は、直近に、データ記録用DB21に記憶された1日分のデータを用いることで、対象者の現在の状況に応じた閾値を決定することができる。
行動検出部15は、モーションセンサから得られる情報から、閾値DB22に記憶された閾値および特徴量を用いて、対象者の歩行を検出する。これにより、行動検出部15は、対象者の現在の状況に応じて、行動種別としての歩行を検出することができる。
[状態検出処理のフローチャート]
次に、実施例1に係る状態検出処理の処理手順の一例を、図5を参照して説明する。図5は、実施例1に係る状態検出処理の処理手順を示すフローチャートである。なお、閾値DB22には、対象者の行動種別ごとに行動を検出する際に用いられる特徴量および閾値が記憶されている。
まず、データ受信部11は、1日分、新しいデータ、すなわち、環境センサから得られるデータおよびモーションセンサから得られるデータを取得すると(ステップS11)、取得したデータをデータ記録用DB21に記録する。
そして、行動検出部15は、モーションセンサから得られるデータから、閾値DB22に記憶された特徴量および閾値を用いて、対象者の行動を検出する(ステップS12)。
そして、データ記録部12は、1日分のデータを取得したか否かを判定する(ステップS13)。1日分のデータを取得していないと判定した場合には(ステップS13;No)、データ記録部12は、新しいデータを取得すべく、ステップS11に移行する。
一方、1日分のデータを取得したと判定した場合には(ステップS13;Yes)、区間特定部13は、データ記録用DB21に記憶された環境センサのデータから、対象者の行動区間および非行動区間を特定する(ステップS14)。例えば、区間特定部13は、データ記録用DB21に記憶された人感センサの値を用いて、人感センサの値がOFF(0)からON(1)に変化した時刻と人感センサの値がON(1)からOFF(0)に変化した時刻との間を行動区間として特定する。区間特定部13は、データ記録用DB21に記憶されたベッドセンサの値を用いて、ベッドセンサの値がOFF(0)からON(1)に変化した時刻と人感センサの値がON(1)からOFF(0)に変化した時刻との間を非行動区間として特定する。
続いて、閾値決定部14は、区間特定部13によって特定された、行動区間と非行動区間のデータ記録用DB21に記憶されたモーションセンサのデータから特徴量を抽出する(ステップS15)。ここでいうモーションセンサのデータとは、データ記録用DB21に記憶されたモーションセンサの値のことをいう。
そして、閾値決定部14は、機械学習アルゴリズムを適用し、抽出した特徴量から適切な特徴量とその閾値を決定する(ステップS16)。例えば、閾値決定部14は、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値から、行動区間のデータを正例のデータとして取り出す。閾値決定部14は、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値から、非行動区間のデータを負例のデータとして取り出す。閾値決定部14は、機械学習アルゴリズムを適用して、各特徴量の正例のデータおよび負例のデータから、各特徴量に対する正例の特徴量分布と負例の特徴量分布を生成する。閾値決定部14は、正例の特徴量分布と負例の特徴量分布とを区別する特徴量を決定するとともに、決定した特徴量における行動と非行動とを区別する閾値を決定する。
続いて、閾値決定部14は、行動種別ごとの特徴量と閾値を、閾値DB22に追加する(ステップS17)。そして、閾値決定部14は、全ての行動種別の処理が終了したか否かを判定する(ステップS18)。全ての行動種別の処理が終了していないと判定した場合には(ステップS18;No)、閾値決定部14は、まだ処理されていない行動種別の処理をさせるべく、ステップS14に移行する。
一方、全ての行動種別の処理が終了したと判定した場合には(ステップS18;Yes)、閾値決定部14は、次の1日分の処理をさせるべく、ステップS11に移行する。
[実施例1の効果]
このようにして、上記実施例1では、状態抽出装置1は、所定の区間におけるモーションセンサから得られるデータおよび環境センサから得られるデータをデータ記録用DB21に記録する。状態抽出装置1は、データ記録用DB21に記憶された、環境センサから得られるデータを用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定する。状態抽出装置1は、データ記録用DB21に記憶されたデータを用いて、行動区間および非行動区間ごとの、モーションセンサから得られるデータに含まれる複数の特徴量の各値を用いて、対象者の特定の状態の検出に用いる特徴量を決定する。加えて、状態検出装置1は、決定した特徴量における行動と非行動とを区別する閾値を決定する。状態抽出装置1は、モーションセンサから得られるデータから、決定された特徴量と閾値とを用いて、対象者の特定の状態を検出する。かかる構成によれば、状態検出装置1は、データ記録用DB21に記憶された直近の所定の区間分のデータを用いることで、対象者の現在の状況に応じた特定の状態の閾値を決定することができる。この結果、状態検出装置1は、モーションセンサだけで、対象者の現在の状況に応じて、対象者の特定の状態、例えば対象者の行動を検出することができる。一例として、状態検出装置1は、対象者が病気の回復段階などの、日々症状が変化していく場合でも、対象者の現在の状況に応じて、対象者の行動を検出することができる。
ところで、実施例1に係る状態検出装置1は、住環境の空間に設置された複数の環境センサのデータの変化を組み合わせて、対象者の行動に関し、行動区間および非行動区間を特定するものと説明した。しかしながら、状態検出装置1は、対象者以外の発生源(例えば、同居人や訪問者)がある場合、対象者の行動区間および非行動区間の特定を誤る場合がある。そこで、実施例2に係る状態検出装置1は、住環境の空間に設置された複数の環境センサのデータの変化および対象者のモーションセンサのデータを組み合わせて、環境センサのデータの変化が対象者の動作による変化であるものを選択する。そして、状態検出装置1は、選択したデータの変化を組み合わせて、対象者の行動に関し、確実に、対象者の行動区間および非行動区間を特定するようにしても良い。
そこで、実施例2に係る状態検出装置1は、住環境の空間に設置された複数の環境センサのデータの変化および対象者のモーションセンサのデータを組み合わせて、環境センサのデータの変化が対象者の動作によるものを選択する。そして、状態検出装置1は、選択したデータの変化を組み合わせて、対象者の行動に関し、対象者の行動区間および非行動区間を確実に特定する場合を説明する。
[実施例2に係る状態検出装置の構成]
図6は、実施例2に係る状態検出装置の構成を示す機能ブロック図である。なお、図1に示す状態検出装置1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、区間特定部13を区間特定部13Aに変更し、区間特定部13Aに整合性判定部131および変化抽出部132を追加した点にある。
区間特定部13Aは、住環境の空間にいる人数を推定し、対象者以外の人が反応させられない環境センサのデータの変化だけを用いて、対象者の行動区間および非行動区間を特定する。
整合性判定部131は、対象者のモーションセンサのデータと住環境の空間にある全ての環境センサのデータの変化との整合性が取れるか否かを判定する。言い換えると、整合性判定部131は、住環境の空間の玄関に相当する位置に設置したドアセンサが閉じてから、次に開くまでの区間ごとに、センサから得られるデータ同士の整合性を判定することで、当該空間にいる人数を推定する。例えば、整合性判定部131は、住環境の空間にいる人数を対象者だけであるとして「1」に設定する。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。整合性判定部131は、整合性が取れないと判定する場合には、対象者以外に環境センサを反応させた人がいると判断し、住環境の空間にいる人数を1加算する。
ここで、整合性判定部131の整合性判定処理によって整合性が取れないと判定される場合について、図7〜図9を用いて説明する。図7は、整合性が取れない場合として対象者のモーションセンサの反応がないときに環境センサのデータに変化があった場合である。図8は、整合性が取れない場合として対象者がいる部屋と異なる部屋で環境センサのデータに変化があった場合である。図9は、整合性が取れない場合として対象者がいる部屋でも、対象者が着座した後起立していないのに環境センサのデータに変化があった場合である。なお、図7〜図9では、対象者をAとして説明する。人感センサのデータと、Aさんの腰に装着されたモーションセンサのデータは、データ記録用DB21に記憶されている。
図7に示すように、ある区間における、ある部屋に設置された人感センサのデータの変化と、同じ区間における、Aさんの腰に装着されたモーションセンサのデータが表されている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、人感センサのデータがOFFからONに変化したが、同じ区間で、Aさんのモーションセンサのデータは静止状態である。したがって、整合性判定部131は、Aさんのモーションセンサの反応がないときに人感センサのデータに変化があったので、Aさんが反応させたのでは人感センサとの整合性が取れないと判定する。すなわち、Aさん以外が存在すると判断し、人数を1加算する。
図8に示すように、Aさんのいる部屋と環境センサが反応した部屋が異なることが表わされている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、Aさんの直近の行動を特定する環境センサのデータの変化に紐付けられている部屋の情報より、Aさんのいる部屋を特定する。そして、整合性判定部131は、Aさんのいる部屋と異なる部屋の環境センサが反応したので、Aさんが反応させたのでは環境センサとの整合性が取れないと判定する。すなわち、整合性判定部131は、Aさん以外が存在すると判断し、人数を1加算する。
図9に示すように、ある区間における、ある部屋に設置された椅子センサのデータの変化と、窓センサのデータの変化と、同じ区間における、Aさんの腰に装着されたモーションセンサのデータが表わされている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、ある区間で、Aさんのモーションセンサのデータは着座の状態であり、椅子センサのデータがONの状態である。同じ区間内で、窓センサのデータがOFFからONに変化している。したがって、整合性判定部131は、整合性が取れないと判定する。つまり、「着座」の後に必ず「起立」してから歩行するというように、ある行動の後には必ず特定の行動をとることがある。Aさんが「着座」した後、「起立」していないのに、窓センサに変化があったので、Aさんが反応させたのでは窓センサとの整合性が取れないと判定する。すなわち、整合性判定部131は、Aさん以外が存在すると判断し、人数を1加算する。
図6に戻って、変化抽出部132は、対象者以外のどの人も反応させられない環境センサのデータの変化を抽出する。「対象者以外のどの人も反応させられない」ということは、対象者以外のいずれかの人が反応させたと仮定した場合、整合性が取れないかで判定する。言い換えると、変化抽出部132は、対象者だけが反応させられる環境センサのデータの変化を抽出する。例えば、変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、対象者以外の人について、対象者以外の人のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。整合性が取れるか否かの判定処理は、整合性判定部131による整合性判定処理と同様である。変化抽出部132は、対象者以外のいかなる人も整合性が取れないと判定された、環境センサのデータの変化を抽出する。
ここで、変化抽出部132の変化抽出処理の一例を、図10を参照して説明する。図10は、実施例2に係る変化抽出処理の一例を示す図である。図10では、対象者をAとし、対象者以外の人をBとして説明する。窓センサのデータと、Aさんの腰に装着されたモーションセンサのデータは、データ記録用DB21に記録されている。
変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、Aさんの直近の行動を特定する環境センサのデータの変化に紐付けられている部屋の情報より、図10左図に示すように、Aさんのいる部屋をaと特定する。
図10右図に示すように、ある区間における、部屋bに設置された窓センサのデータの変化と、部屋aに設置された窓センサのデータの変化と、Aさんのモーションセンサのデータが表わされている。変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、対象者以外の人について、全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、変化抽出部132は、仮にBさんが、対象者がいる部屋aにある窓センサを反応させたとすると、部屋bにある窓センサを反応させる人がいなくなるため、Bさんが反応させたのでは部屋bにある窓センサとの整合性が取れないと判定する。そこで、変化抽出部132は、Bさんと整合性が取れないと判定された、部屋aの窓センサのデータの変化を抽出する。言い換えると、変化抽出部132は、Aさんだけが反応させられる部屋aの窓センサのデータの変化を抽出する。ここでは、時刻t1と時刻t2の部屋aの窓センサのデータの変化が抽出される。
この後、区間特定部13Aは、抽出した部屋aの窓センサのデータの変化を用いて、窓を開けるという行動区間を特定できる。
[区間特定処理のフローチャート]
次に、実施例2に係る区間特定処理の処理手順の一例を、図11を参照して説明する。図11は、実施例2に係る区間特定処理の処理手順を示すフローチャートである。なお、区間特定処理を含む全体の状態検出処理の処理手順は、図5で説明したとおりであるので、その説明を省略する。図5で説明した状態検出処理の処理手順のS14の一例が、本図における区間特定処理の処理手順である。
ここで、区間特定部13Aは、1日分のデータを入力したとする。ここでいうデータとは、データ記録用DB21に記憶された環境センサのデータおよびモーションセンサのデータのことをいう。また、図11では、住環境の空間を住居といい、住居の玄関にドアセンサが設置されているとする。
区間特定部13Aは、入力した1日分のデータを順次読み込む(ステップS21)。区間特定部13Aは、読み込んだデータが玄関のドアが開けたことを示すデータか否かを判定する(ステップS22)。すなわち、区間特定部13Aは、玄関に設置されたドアセンサのデータが閉じていることを示すONから開いていることを示すOFFに変化したか否かを判定する。
読み込んだデータが玄関のドアを開けたことを示すデータでないと判定した場合には(ステップS22;No)、区間特定部13Aは、読み込んだデータが玄関のドアが開いていることを示すデータか否かを判定する(ステップS23)。すなわち、区間特定部13Aは、玄関に設置されたドアセンサのデータがOFFであるか否かを判定する。読み込んだデータが玄関のドアが開いていることを示すデータであると判定した場合には(ステップS23;Yes)、区間特定部13Aは、データを格納しないで、ステップS25に移行する。玄関のドアが開いている場合、住居にいる人数を推定することができないため、この場合のデータを格納しないようにする。
一方、読み込んだデータが玄関のドアが開いていることを示すデータでないと判定した場合には(ステップS23;No)、区間特定部13Aは、当該データを、分析対象データとして一時的に記憶部20に格納する(ステップS24)。玄関のドアが閉じている場合、住居にいる人数を推定することができるため、この場合のデータを格納する。そして、区間特定部13Aは、ステップS25に移行する。
ステップS25において、区間特定部13Aは、入力した1日分の全データを読み込んだか否かを判定する(ステップS25)。入力した1日分の全データを読み込んでいないと判定した場合には(ステップS25;No)、区間特定部13Aは、次のデータを読み込むべく、ステップS21に移行する。一方、入力した1日分の全データを読み込んだと判定した場合には(ステップS25;Yes)、区間特定部13Aは、ステップS26に移行する。
ステップS22において、読み込んだデータが玄関のドアを開けたことを示すデータであると判定した場合には(ステップS22;Yes)、整合性判定部131は、住居にいる人数xを1とする(ステップS26)。ここで、xは、住居にいる人数を表す変数であるとする。
整合性判定部131は、一時的に格納されたデータを用いて、対象者のモーションセンサと住居の全環境センサのデータの変化との整合性を確認する(ステップS27)。言い換えると、整合性判定部131は、住居の玄関に設置したドアセンサが閉じてから、次に開くまでの区間で、センサから得られるデータ同士の整合性を確認する。
整合性判定部131は、対象者のモーションセンサと、住居の全環境センサのデータの変化との整合性が取れるか否かを判定する(ステップS28)。対象者のモーションセンサと、住居の全環境センサのデータの変化との整合性が取れないと判定した場合には(ステップS28;No)、整合性判定部131は、xに1を加算する(ステップS29)。そして、整合性判定部131は、ステップS27に移行する。
一方、対象者のモーションセンサと、住居の全環境センサのデータの変化との整合性が取れると判定した場合には(ステップS28;Yes)、変化抽出部132は、対象者以外のどの人も反応させられない環境センサのデータの変化を抽出する(ステップS30)。言い換えると、変化抽出部132は、対象者だけが反応させられる環境センサのデータの変化を抽出する。例えば、変化抽出部132は、一時的に格納されたデータを用いて、対象者以外の人について、対象者以外の人が反応させた場合、環境センサによって得られたデータとの整合性が取れなくなるか否かを判定する。変化抽出部132は、対象者以外のいかなる人が反応させても整合性が取れないと判定された、環境センサのデータの変化を抽出する。
続いて、区間特定部13Aは、抽出した環境センサのデータの変化を用いて、行動区間および非行動区間を特定する(ステップS31)。
そして、区間特定部13Aは、入力した1日分の全データを読み込んだか否かを判定する(ステップS32)。入力した1日分の全データを読み込んでいないと判定した場合には(ステップS32;No)、区間特定部13Aは、次のデータを読み込むべく、ステップS21に移行する。一方、入力した1日分の全データを読み込んだと判定した場合には(ステップS32;Yes)、区間特定部13Aは、区間特定処理を終了する。
[整合性判定処理の具体例]
次に、図12A〜図12Cを参照して、実施例2に係る整合性判定処理の具体例を説明する。図12Aは、整合性が取れない場合として対象者のモーションセンサの反応がないときに環境センサのデータに変化があった場合であり、図7に対応する。図12Bは、整合性が取れない場合として対象者がいる部屋と異なる部屋で環境センサのデータに変化があった場合であり、図8に対応する。図12Cは、整合性が取れない場合として対象者がいる部屋でも、対象者が着座した後起立していないのに環境センサのデータに変化があった場合であり、図9に対応する。なお、図12A〜図12Cでは、対象者をユーザAとして説明する。また、モーションセンサは、ユーザの腰に装着され、モーションセンサの値は、垂直軸の加速度の値であるとする。
図12Aに示すように、データ記録用DB21に、ユーザAの腰に装着したモーションセンサの値、部屋aに設置した人感センサの値が記憶されている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、事象番号が「3601」である場合に、部屋aに設置した人感センサの値が0(OFF)から1(ON)に変化したが、ユーザAのモーションセンサの値は「1[G]」(静止状態)である。ユーザAが人感センサを反応させたとすると、整合性が取れない。すなわち、整合性判定部131は、ユーザAのモーションセンサと部屋aの人感センサとの整合性が取れないと判定する。そして、整合性判定部131は、ユーザA以外が存在すると判断し、人数を1加算する。
図12Bに示すように、データ記録用DB21に、ユーザAの腰に装着したモーションセンサの値、部屋aに設置した人感センサおよびドアセンサの値、部屋bに設置した人感センサの値が記憶されている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、事象番号が「10681」である場合に、ユーザAのモーションセンサの値が「2[G]」であり、ユーザAが動いている。ユーザAが動いているときに、人感センサの値が0(OFF)から1(ON)に変化したので、ユーザAのいる部屋は人感センサに紐付けられている部屋aと特定される。事象番号が「10681」以降、ドアセンサの値は0(OFF)のままであるので、ユーザAは、部屋aにいる。事象番号が「10801」である場合に、ユーザAのいる部屋aと異なる部屋bの人感センサの値が0(OFF)から1(ON)に変化したが、ユーザAが部屋bにある人感センサを反応させたとすると、整合性が取れない。すなわち、整合性判定部131は、ユーザAのモーションセンサと部屋bの人感センサとの整合性が取れないと判定する。そして、整合性判定部131は、ユーザA以外が存在すると判断し、人数を1加算する。
図12Cに示すように、データ記録用DB21に、ユーザAの腰に装着したモーションセンサの値、部屋aに設置した窓センサおよび椅子センサの値、部屋bに設置した人感センサの値が記憶されている。整合性判定部131は、データ記録用DB21に記憶されたデータを用いて、対象者のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、事象番号が「21601」である場合に、ユーザAのモーションセンサの値は「1.6[G]」であり、部屋aの椅子センサの値は、1(ON)のままである。したがって、ユーザAは、椅子に座ったままの「着座」の状態である。このとき、部屋aの窓センサの値が0(OFF)から1(ON)に変化しているが、ユーザAが部屋aの窓センサを反応させたとすると、整合性が取れない。すなわち、整合性判定部131は、ユーザAのモーションセンサと部屋aの窓センサとの整合性が取れないと判定する。そして、整合性判定部131は、ユーザA以外が存在すると判断し、人数を1加算する。
[整合性判定処理の具体例]
次に、図13A〜図13Cを参照して、実施例2に係る変化抽出処理の具体例を説明する。図13Aは、ユーザBに装着したモーションセンサの反応がないときに環境センサのデータに変化があった場合である。図13Bは、ユーザBがいる部屋と異なる部屋で環境センサのデータに変化があった場合である。図13Cは、ユーザAがいる部屋でも、ユーザBが着座した後起立していないのに環境センサのデータに変化があった場合である。なお、図13A〜図13Cでは、対象者をユーザAとして説明する。また、モーションセンサは、ユーザの腰に装着され、モーションセンサの値は、垂直軸の加速度の値であるとする。
図13Aに示すように、データ記録用DB21に、ユーザBの腰に装着したモーションセンサの値、部屋aに設置した人感センサの値が記憶されている。変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、対象者以外の人について、対象者以外の人のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、事象番号が「3603」である場合に、部屋aに設置した人感センサの値が0(OFF)から1(ON)に変化したが、ユーザBのモーションセンサの値は「1[G]」(静止状態)である。ユーザBが人感センサを反応させたとすると、整合性が取れない。ゆえに、部屋aにある人感センサは、ユーザAが反応させたと判断する。そこで、変化抽出部132は、ユーザBと整合性が取れないと判定された、部屋aの人感センサのデータ変化を示す事象番号3603のデータを、行動区間および非行動区間を特定するために用いるデータとして抽出する。
図13Bに示すように、データ記録用DB21に、ユーザAの腰に装着したモーションセンサの値、部屋aに設置した人感センサの値、部屋bに設置した人感センサの値が記憶されている。変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、対象者以外の人について、対象者以外の人のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、ユーザAは、データ記録用DB21に基づいて部屋aにいると判定される。事象番号が「10801」である場合に、ユーザAのいる部屋aと異なる部屋bの人感センサの値が0(OFF)から1(ON)に変化する一方で、ユーザAのいる部屋aの人感センサの値が0(OFF)から1(ON)に変化した。ユーザBが部屋aにある人感センサを反応させたとすると、整合性が取れない。ゆえに、部屋aにある人感センサは、ユーザAが反応させたと判断する。そこで、変化抽出部132は、ユーザBと整合性が取れないと判定された、部屋aの人感センサのデータ変化を示す事象番号10801のデータを、行動区間および非行動区間を特定するために用いるデータとして抽出する。
図13Cに示すように、データ記録用DB21に、ユーザAの腰に装着したモーションセンサの値、部屋aに設置した窓センサおよび椅子センサの値、部屋bに設置した人感センサの値が記憶されている。変化抽出部132は、データ記録用DB21に記憶されたデータを用いて、対象者以外の人について、対象者以外の人のモーションセンサのデータと全環境センサのデータの変化との整合性が取れるか否かを判定する。ここでは、事象番号が「23399」である場合に、ユーザAのモーションセンサの値は「1[G]」(静止状態)であり、部屋aの椅子センサの値は、0(OFF)から1(ON)に変化したので、ユーザBが部屋aの椅子に座ったと判定される。事象番号が「23401」である場合に、部屋aの窓センサの値が0(OFF)から1(ON)に変化しているが、ユーザBは椅子に座ったままの「着座」の状態であるので、部屋aの窓センサを反応させることができない。すなわち、ユーザBが部屋aの窓センサを反応させたとすると、整合性が取れない。ゆえに、部屋aにある窓センサは、ユーザAが反応させたと判断する。そこで、変化抽出部132は、ユーザBと整合性が取れないと判定された、部屋aの窓センサのデータ変化を示す事象番号23401のデータを、行動区間および非行動区間を特定するために用いるデータとして抽出する。
[実施例2の効果]
このようにして、上記実施例2では、状態検出装置1は、データ記録用DB21に記憶されたモーションセンサから得られるデータおよび環境センサから得られるデータを用いて、環境センサが存在する空間にいる人の数を推定する。状態抽出装置1は、データ記録用DB21に記憶された環境センサから得られるデータから、対象者と異なる他者が変化させられないデータの変化を抽出する。状態抽出装置1は、抽出したデータの変化を用いて行動空間および非行動空間を特定する。かかる構成によれば、状態抽出装置1は、対象者と異なる他者がある場合であっても、他者が変化させられないデータの変化を抽出することで、対象者が変化させられるデータの変化を抽出することができ、対象者の行動空間および非行動空間を特定できる。この結果、状態抽出装置1は、対象者と異なる他者がある場合であっても、対象者の現在の状況に応じた特定の状態の閾値を決定することができる。
ところで、実施例1,2に係る状態検出装置1は、行動区間および非行動区間ごとの、モーションセンサの各特徴量の各値を用いて、対象者の歩行の検出に用いる特徴量および閾値を決定するものと説明した。しかしながら、状態検出装置1は、さらに、閾値の変化が所定のパターンに合致する場合には、合致する所定のパターンに従って、次の所定の区間の閾値を推定しても良い。所定のパターンとは、例えば、単調増加であったり、単調減少であったりする。
そこで、実施例3に係る状態検出装置1は、さらに、閾値の変化が所定のパターンに合致する場合には、合致する所定のパターンに従って、次の所定の区間の閾値を推定する場合を説明する。
[実施例3に係る状態検出装置の構成]
図14は、実施例3に係る状態検出装置の構成を示す機能ブロック図である。なお、図6に示す状態検出装置1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例2と実施例3とが異なるところは、閾値決定部14を閾値決定部14Aに変更し、行動検出部15を行動検出部15Aに変更した点にある。実施例2と実施例3とが異なるところは、制御部10に閾値推定部31を追加した点にある。実施例2と実施例3とが異なるところは、記憶部20に行動検出用閾値DB32を追加した点にある。
閾値決定部14Aは、所定の区間内の行動区間および非行動区間ごとの、データ記録用DB21に記憶されたモーションセンサの各特徴量の各値を用いて、対象者の歩行の検出に用いる特徴量および閾値を決定する。そして、閾値決定部14Aは、決定した閾値および特徴量を、決定した際の所定の区間と対応付けて、閾値DB22に追加する。所定の区間は、例えば1日であるが、これに限定されず、半日であっても良いし、3/4日であっても良い。すなわち、所定の区間は、閾値を決定することができるだけの区間であれば良い。以降、所定の区間を1日として説明する。
閾値推定部31は、閾値の変化が所定のパターンに合致する場合には、合致する所定のパターンに従って、次の1日の閾値を推定する。言い換えると、閾値推定部31は、行動検出に用いる特徴量の中で、日々の閾値が単調増加(減少)し、その1日当たりの変化量が大きい特徴量に関しては、翌日も同じ傾向が続くものと仮定し、翌日に用いる閾値を推定する。例えば、閾値推定部31は、閾値DB22に記憶された1日ごとの閾値から求められる閾値の変化が所定のパターンに合致するか否かを判定する。閾値推定部31は、閾値の変化が所定のパターンに合致すると判定した場合には、閾値の変化量から次の1日の閾値を推定する。そして、閾値推定部31は、推定した閾値を、既に決定された特徴量とともに、行動検出用閾値DB32に上書きする。これにより、閾値推定部31は、閾値の変化パターンに応じて次の1日の閾値を推定することで、対象者の現在の状況に応じた閾値を精度良く決定することができる。
行動検出部15Aは、モーションセンサから得られる情報から、行動検出用閾値DB32に記憶された閾値および特徴量を用いて、対象者の歩行を検出する。これにより、行動検出部15Aは、対象者の現在の状況に応じて、行動種別としての歩行を精度良く検出することができる。
[閾値推定処理の一例]
図15は、実施例3に係る閾値推定処理の一例を示す図である。図15に示すように、今日が2月3日(2/3)であるとすると、一昨日の2月1日(2/1)の閾値は、1月31日(1/31)の閾値推定処理の終了時に閾値決定部14Aによってθに決定されたとする。昨日の2月2日(2/2)の閾値は、2/1の閾値推定処理の終了時に閾値決定部14Aによってθに決定されたとする。本日の2/3の閾値は、2/2の閾値推定処理の終了時に閾値決定部14Aによってθに決定されたとする。
2/3の閾値推定処理の終了時に翌日の2月4日(2/4)の閾値を決定する際に、閾値推定部31は、これまで日々蓄積した閾値の変化が所定のパターンに合致する場合には、合致する所定のパターンに従って、次の1日の閾値を推定する。ここでは、閾値推定部31は、閾値の変化が単調増加に合致すると判定する。すると、閾値推定部31は、閾値の変化量から2/4の閾値θを推定する。例えば、閾値推定部31は、閾値の変化量から算出できる線形モデルを仮定し、2/4の閾値を推定すれば良い。
なお、閾値推定部31は、例えば閾値の変化が単調増加または単調減少に合致する場合に、閾値の変化量から次の1日の閾値を推定すると説明したが、これに限定されない。閾値推定部31は、閾値の変化が単調増加または単調減少に合致する場合、且つ、1日当たりの各変化量が特定量より大きい場合に、閾値の変化量から次の1日の閾値を推定しても良い。
[閾値推定処理のフローチャート]
次に、実施例3に係る閾値推定処理の処理手順の一例を、図16を参照して説明する。図16は、実施例3に係る閾値推定処理の処理手順を示すフローチャートである。なお、閾値推定処理を含む全体の状態検出処理の処理手順は、図5および図11で説明したとおりであるので、その説明を省略する。図5で説明した状態検出処理の処理手順のS16の一例が、本図における閾値推定処理の処理手順である。
ここで、閾値DB22には、日々、閾値決定部14Aによって決定される閾値が特徴量および行動種別と対応付けて蓄積されている。行動種別は、一例として「歩行」であり、対象者の検出したい行動を区別する種別である。
閾値推定部31は、閾値DB22に蓄積された特徴量ごとに、閾値推定処理を行う。まず、閾値推定部31は、閾値DB22に蓄積された閾値に対して、一定期間の日々の変化量を算出する(ステップS41)。閾値推定部31は、算出した一定期間の日々の変化量に基づいて、閾値の変化が単調増加または単調減少であるか否かを判定する(ステップS42)。すなわち、閾値推定部31は、閾値の変化が所定のパターンに合致するか否かを判定する。
閾値の変化が単調増加または単調減少でないと判定した場合には(ステップS42;No)、閾値推定部31は、閾値決定部14Aによって決定された閾値を行動検出用の閾値とすべく、ステップS45に移行する。一方、閾値の変化が単調増加または単調減少であると判定した場合には(ステップS42;Yes)、閾値推定部31は、1日当たりの閾値の変化量が大きいか否かを判定する(ステップS43)。
1日当たりの閾値の変化量が大きくないと判定した場合には(ステップS43;No)、閾値推定部31は、閾値決定部14Aによって決定された閾値を行動検出用の閾値とすべく、ステップS45に移行する。一方、1日当たりの閾値の変化量が大きいと判定した場合には(ステップS43;Yes)、閾値推定部31は、閾値DB22に記憶された日々の閾値の変化量から翌日の閾値を推定する(ステップS44)。例えば、閾値推定部31は、閾値DB22に記憶された日々の閾値の変化量から算出できる線形モデルを仮定し、翌日の閾値を推定する。
そして、閾値推定部31は、行動種別と特徴量と閾値を、行動検出用閾値DB32に上書きする(ステップS45)。上書きされる閾値は、閾値推定部31によって閾値が推定された場合には、推定された閾値であり、閾値推定部31によって閾値が推定されなかった場合には、閾値決定部14Aによって決定された閾値である。
閾値推定部31は、全特徴量に対する閾値推定処理が終了したか否かを判定する(ステップS46)。全特徴量に対する閾値推定処理が終了していないと判定した場合には(ステップS46;No)、閾値推定部31は、次の特徴量の閾値推定処理をすべく、ステップS41に移行する。
全特徴量に対する閾値推定処理が終了したと判定した場合には(ステップS46;Yes)、閾値推定部31は、閾値推定処理を終了する。
[実施例3の効果]
このようにして、上記実施例3では、状態検出装置1は、所定の区間ごとに閾値を決定する。そして、状態検出装置1は、閾値の変化が所定のパターンに合致する場合には、パターンに従って、次の所定の区間の閾値を推定する。かかる構成によれば、状態検出装置1は、所定の区間ごとに決定された閾値を用いて、次の所定の区間の閾値を推定することで、特定の状態の検出に用いられる閾値を精度良く決定することができる。この結果、状態検出装置1は、対象者の現在の状況に応じて、対象者の特定の状態、例えば対象者の行動を高精度に検出することができる。
[その他]
なお、上記実施例1−3では、状態検出装置1が行動検出部15を有し、行動検出部15がモーションセンサから得られる情報から、閾値DB22に記憶された閾値および特徴量を用いて、対象者の行動を検出すると説明した。しかしながら、モーションセンサが行動検出部15に相当する機能部および閾値DB22に相当する閾値記憶部を有していても良い。そして、モーションセンサは、状態検出装置1の閾値決定部14によって決定された閾値および特徴量を受信し、受信した閾値および特徴量を閾値記憶部に記録する。そして、行動検出部15に相当する機能部がモーションセンサから得られる情報から、閾値記憶部に記憶された閾値および特徴量を用いて、モーションセンサを装着した対象者の行動を検出するようにすれば良い。これにより、状態検出装置1は、モーションセンサとの通信が発生しないので、対象者の行動を高速に検出させることができる。
また、上記実施例1−3では、対象者の状況に応じて閾値が変化する行動種別として歩行を一例として挙げた。すなわち、状態検出装置1は、対象者の歩行の検出に用いる特徴量および閾値を決定し、決定した特徴量および閾値を用いて、対象者の歩行を検出する。しかしながら、対象者の状況に応じて閾値が変化する行動種別として「着座」や「起立」の場合であっても良い。かかる場合には、例えば、区間特定部13は、環境センサとして椅子に設置したセンサ(椅子センサ)の値を用いて、対象者の行動区間および非行動区間を特定すれば良い。そして、閾値決定部14は、行動区間および非行動区間ごとのモーションセンサの各特徴量の各値を用いて、対象者の「着座」や「起立」の検出に用いる特徴量および閾値を決定すれば良い。これにより、対象者が体を負傷している状況であったり、退院した後の状況であったりする場合など、着座や起立がゆっくりとなる状況であっても、状態検出装置1は、対象者の状況に応じて、対象者のモーションセンサだけで、対象者の「着座」や「起立」を検出することができる。
また、対象者の状況に応じて閾値が変化する行動種別として階段の昇降の場合であっても良い。かかる場合には、例えば、区間特定部13は、環境センサとして昇降口に設置した人感センサを用いて、対象の行動が階段昇降であると特定し、対象者の行動区間および非行動区間を特定すれば良い。そして、閾値決定部14は、行動区間および非行動区間ごとのモーションセンサの各特徴量の各値を用いて、対象者の階段の昇降の検出に用いる特徴量および閾値を決定すれば良い。これにより、深夜は周囲に迷惑をかけないように、階段の昇降がゆっくりとなる状況がある場合であっても、状態検出装置1は、対象者の状況に応じて、対象者のモーションセンサだけで、対象者の階段の昇降を検出することができる。
また、対象者の状況に応じて閾値が変化する行動種別としてドアの開閉の場合であっても良い。かかる場合には、例えば、区間特定部13は、環境センサとしてドアに設置したドアセンサを用いて、対象の行動がドアの開閉であると特定し、対象者の行動区間および非行動区間を特定すれば良い。そして、閾値決定部14は、行動区間および非行動区間ごとのモーションセンサの各特徴量の各値を用いて、対象者のドアの開閉の検出に用いる特徴量および閾値を決定すれば良い。これにより、手に荷物を持っている際、体の一部を使ってゆっくりとドアを押すような状況がある場合であっても、状態検出装置1は、対象者の状況に応じて、対象者のモーションセンサだけで、対象者の階段の昇降を検出することができる。
また、上記実施例1−3では、状態検出装置1は、対象者の行動の検出に用いる特徴量および閾値を決定すると説明した。しかしながら、状態検出装置1は、対象者の生体状態の検出に用いる特徴量および閾値を決定しても良い。生体状態として、異常な心電波形の乱れや異常な高心拍数が挙げられる。生体状態が異常な心電波形の乱れの場合には、例えば、区間特定部13は、環境センサ、心電波形検出センサを用いて、対象者の行動に比して異常な心電波形の乱れがある区間(行動区間に相当)と対象者の行動に比して自然な心電波形の乱れである区間(非行動区間に相当)を特定する。そして、閾値決定部14は、行動区間に相当する区間および非行動区間に相当する区間ごとの心電波形検出センサから得られる心電波形を用いて、対象者の異常な心電波形の乱れの検出に用いる特徴量および閾値を決定すれば良い。かかる場合には、特徴量は、心電波形の高さや時間間隔の分散や最大最小比等とすれば良い。これにより、状態検出装置1は、対象者の状況に応じて、対象者の心電波形だけで、対象者の異常な心電波形の乱れを検出することができる。
また、上記実施例3では、状態検出装置1は、対象者の行動の検出に用いる特徴量および閾値を決定し、決定した閾値および特徴量を用いて、対象者の行動を検出すると説明した。しかしながら、状態検出装置1は、これに限定されず、さらに、検出した対象者の状態が継続している間の状態の特徴を定量化するようにしても良い。状態を歩行とした場合の行動の特徴を表す指標には、例えば、ケーデンス、歩行周期、歩行周期変動、歩幅、歩幅の変動、歩行速度および歩隔が挙げられる。ケーデンスとは、1分間当たりの歩数のことをいう。歩行周期とは、一方の踵が接地してから、他方の踵が接地するまでの時間のことをいう。歩行周期変動とは、歩行周期の標準偏差と平均の比(歩行周期の標準偏差/歩行周期の平均)のことをいう。歩幅とは、一方のつま先から他方のつま先までの距離、または、一方の踵から他方の踵までの距離のことをいう。歩幅の変動とは、歩幅の標準偏差と平均の比のことをいう。歩行速度とは、歩行開始から歩行終了までの歩行距離と歩行時間の除算のことをいう。歩隔とは、対象者を真上から見た際の、左右の踵間の距離のことをいう。なお、歩隔は、直線上を歩いている場合は0となる。これにより、状態検出装置1は、対象者の歩行の状態を把握することができる。
また、図示した装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、区間特定部13と閾値決定部14とを1個の部として統合しても良い。また、データ記録用DB21および閾値DB22を状態検出装置1の外部装置としてネットワーク経由で接続するようにしても良い。
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した状態検出装置1と同様の機能を実現する状態検出プログラムを実行するコンピュータの一例を説明する。図17は、状態検出プログラムを実行するコンピュータの一例を示す図である。
図17に示すように、コンピュータ200は、各種演算処理を実行するCPU203と、ユーザからのデータの入力を受け付ける入力装置215と、表示装置209を制御する表示制御部207とを有する。また、コンピュータ200は、記憶媒体からプログラムなどを読取るドライブ装置213と、ネットワークを介して他のコンピュータとの間でデータの授受を行う通信制御部217とを有する。また、コンピュータ200は、各種情報を一時記憶するメモリ201と、HDD205を有する。そして、メモリ201、CPU203、HDD205、表示制御部207、ドライブ装置213、入力装置215、通信制御部217は、バス219で接続されている。
ドライブ装置213は、例えばリムーバブルディスク211用の装置である。HDD205は、状態検出プログラム205aおよび状態検出処理関連情報205bを記憶する。
CPU203は、状態検出プログラム205aを読み出して、メモリ201に展開し、プロセスとして実行する。かかるプロセスは、状態検出装置1の各機能部に対応する。状態検出処理関連情報205bは、データ記録用DB21および閾値DB22に対応する。そして、例えばリムーバブルディスク211が、状態検出プログラム205aなどの各情報を記憶する。
なお、状態検出プログラム205aについては、必ずしも最初からHDD205に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に当該プログラムを記憶させておく。そして、コンピュータ200がこれらから状態検出プログラム205aを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが、
所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記憶し、
前記記憶部に記憶された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定し、
前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定し、
前記第1のセンサの情報から、決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する
各処理を実行することを特徴とする状態検出方法。
(付記2)該特定する処理は、
前記記憶部に記憶された前記第1情報および前記第2情報を用いて、前記第2のセンサが存在する空間にいる人の数を推定し、
前記記憶部に記憶された前記第2情報から、対象者と異なる他者が変化させられないデータの変化を抽出し、抽出したデータの変化を用いて、前記行動区間および前記非行動区間を特定する
処理を実行することを特徴とする付記1に記載の状態検出方法。
(付記3)該推定する処理は、前記第1情報および前記第2情報から抽出されるデータの変化の整合性を満たす最小の人数を、前記第2のセンサが存在する空間にいる人の数として推定する
処理を実行することを特徴とする付記2に記載の状態検出方法。
(付記4)該決定する処理は、所定の区間ごとに前記閾値を決定し、前記閾値の変化が所定のパターンに合致する場合には、前記パターンに従って、次の所定の区間の閾値を推定する
処理を実行することを特徴とする付記1から付記3のいずれか1つに記載の状態検出方法。
(付記5)前記特定の状態は、前記対象者の行動や前記対象者の生体の状態であることを特徴とする付記1から付記4のいずれか1つに記載の状態検出方法。
(付記6)前記第2のセンサは、周囲の環境を計測する人感センサ、温湿度センサ、装着された物自体の状態を計測するドアセンサ、窓センサ、椅子センサ、ベッドセンサのうち、少なくとも1つを含むことを特徴とする付記1から付記5のいずれか1つに記載の状態検出方法。
(付記7)前記第1のセンサは、対象者の動きを計測する加速度センサ、ジャイロセンサ、対象者の生体の状態を計測する心電センサ、脈拍センサのうち、少なくとも1つを含むことを特徴とする付記1から付記6のいずれか1つに記載の状態検出方法。
(付記8)前記第2のセンサが存在する空間は、閉環境の空間であることを特徴とする付記1から付記7のいずれか1つに記載の状態検出方法。
(付記9)該検出した前記対象者の特定の状態が継続している間の、状態の特徴を表す指標を算出する
ことを特徴とする付記1から付記8のいずれか1つに記載の状態検出方法。
(付記10)所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記録する記録部と、
前記記録部によって記録された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定する特定部と、
前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定する決定部と、
前記第1のセンサの情報から、前記決定部によって決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する検出部と、
を有することを特徴とする状態検出装置。
(付記11)コンピュータに、
所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記憶し、
前記記憶部に記憶された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定し、
前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定し、
前記第1のセンサの情報から、決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する
処理を実行させることを特徴とする状態検出プログラム。
1 状態検出装置
10 制御部
11 データ受信部
12 データ記録部
13、13A 区間特定部
14、14A 閾値決定部
15、15A 行動検出部
131 整合性判定部
132 変化抽出部
20 記憶部
21 データ記録用DB
22 閾値DB
31 閾値推定部
32 行動検出用閾値DB

Claims (7)

  1. コンピュータが、
    所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記憶し、
    前記記憶部に記憶された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定し、
    前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定し、
    前記第1のセンサの情報から、決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する
    各処理を実行することを特徴とする状態検出方法。
  2. 該特定する処理は、
    前記記憶部に記憶された前記第1情報および前記第2情報を用いて、前記第2のセンサが存在する空間にいる人の数を推定し、
    前記記憶部に記憶された前記第2情報から、対象者と異なる他者が変化させられないデータの変化を抽出し、抽出したデータの変化を用いて、前記行動区間および前記非行動区間を特定する
    処理を実行することを特徴とする請求項1に記載の状態検出方法。
  3. 該推定する処理は、前記第1情報および前記第2情報から抽出されるデータの変化の整合性を満たす最小の人数を、前記第2のセンサが存在する空間にいる人の数として推定する
    処理を実行することを特徴とする請求項2に記載の状態検出方法。
  4. 該決定する処理は、所定の区間ごとに前記閾値を決定し、前記閾値の変化が所定のパターンに合致する場合には、前記パターンに従って、次の所定の区間の閾値を推定する
    処理を実行することを特徴とする請求項1から請求項3のいずれか1つに記載の状態検出方法。
  5. 該検出した前記対象者の特定の状態が継続している間の、状態の特徴を表す指標を算出する
    ことを特徴とする請求項1から請求項4のいずれか1つに記載の状態検出方法。
  6. 所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記録する記録部と、
    前記記録部によって記録された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定する特定部と、
    前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定する決定部と、
    前記第1のセンサの情報から、前記決定部によって決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する検出部と、
    を有することを特徴とする状態検出装置。
  7. コンピュータに、
    所定の区間における第1のセンサから得られる第1情報および第2のセンサから得られる第2情報を記憶部に記憶し、
    前記記憶部に記憶された前記第2情報を用いて、対象者が特定の行動を行った区間を示す行動区間および特定の行動を行わなかった区間を示す非行動区間を特定し、
    前記行動区間および前記非行動区間ごとの、前記記憶部に記憶された前記第1情報に含まれる複数の特徴量の各値を用いて、前記対象者の特定の状態の検出に用いる特徴量を決定するとともに、決定した特徴量に対する行動および非行動を区別する閾値を決定し、
    前記第1のセンサの情報から、決定された特徴量と閾値とを用いて、前記対象者の特定の状態を検出する
    処理を実行させることを特徴とする状態検出プログラム。
JP2015041812A 2015-03-03 2015-03-03 状態検出方法、状態検出装置および状態検出プログラム Active JP6565220B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015041812A JP6565220B2 (ja) 2015-03-03 2015-03-03 状態検出方法、状態検出装置および状態検出プログラム
PCT/JP2015/081414 WO2016139844A1 (ja) 2015-03-03 2015-11-06 状態検出方法、状態検出装置および状態検出プログラム
EP15884010.8A EP3266374A4 (en) 2015-03-03 2015-11-06 Condition detection method, condition detection device, and condition detection program
US15/691,218 US20170360335A1 (en) 2015-03-03 2017-08-30 State detection method, state detection device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041812A JP6565220B2 (ja) 2015-03-03 2015-03-03 状態検出方法、状態検出装置および状態検出プログラム

Publications (2)

Publication Number Publication Date
JP2016158954A true JP2016158954A (ja) 2016-09-05
JP6565220B2 JP6565220B2 (ja) 2019-08-28

Family

ID=56843743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041812A Active JP6565220B2 (ja) 2015-03-03 2015-03-03 状態検出方法、状態検出装置および状態検出プログラム

Country Status (4)

Country Link
US (1) US20170360335A1 (ja)
EP (1) EP3266374A4 (ja)
JP (1) JP6565220B2 (ja)
WO (1) WO2016139844A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042525A1 (ja) * 2016-08-30 2018-03-08 富士通株式会社 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
WO2023188264A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 情報処理システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249746A1 (ja) * 2021-05-27 2022-12-01 パナソニックIpマネジメント株式会社 身体機能推定システム、身体機能推定方法、及び、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149824A (ja) * 2000-11-14 2002-05-24 Matsushita Electric Ind Co Ltd 行動検知システム
JP2004164282A (ja) * 2002-11-13 2004-06-10 Matsushita Electric Ind Co Ltd 個人行動検知システム
JP2016136293A (ja) * 2015-01-23 2016-07-28 セイコーエプソン株式会社 情報処理システム、サーバーシステム、情報処理装置及び情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60016842T2 (de) * 1999-07-23 2005-05-25 Matsushita Electric Industrial Co., Ltd., Kadoma Hausgebundenes Überwachungssystem für den Gesundheitszustand
US7552030B2 (en) * 2002-01-22 2009-06-23 Honeywell International Inc. System and method for learning patterns of behavior and operating a monitoring and response system based thereon
US20080021731A1 (en) * 2005-12-09 2008-01-24 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149824A (ja) * 2000-11-14 2002-05-24 Matsushita Electric Ind Co Ltd 行動検知システム
JP2004164282A (ja) * 2002-11-13 2004-06-10 Matsushita Electric Ind Co Ltd 個人行動検知システム
JP2016136293A (ja) * 2015-01-23 2016-07-28 セイコーエプソン株式会社 情報処理システム、サーバーシステム、情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
L. ATALLAH, ET AL.: "Behaviour Profiling with Ambient and Wearable Sensing", IFMBE PROCEEDINGS, vol. Vol.13, JPN6019002439, 2007, pages 133 - 138 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042525A1 (ja) * 2016-08-30 2018-03-08 富士通株式会社 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
WO2023188264A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 情報処理システム

Also Published As

Publication number Publication date
JP6565220B2 (ja) 2019-08-28
EP3266374A4 (en) 2018-03-07
US20170360335A1 (en) 2017-12-21
EP3266374A1 (en) 2018-01-10
WO2016139844A1 (ja) 2016-09-09

Similar Documents

Publication Publication Date Title
Noor et al. Adaptive sliding window segmentation for physical activity recognition using a single tri-axial accelerometer
Sebestyen et al. Human activity recognition and monitoring for elderly people
Lim et al. Fall-detection algorithm using 3-axis acceleration: combination with simple threshold and hidden Markov model
Candás et al. An automatic data mining method to detect abnormal human behaviour using physical activity measurements
KR20170023770A (ko) 진단모델 생성 시스템 및 방법
WO2017071988A1 (en) Monitoring activities of daily living of a person
Yuwono et al. Unsupervised nonparametric method for gait analysis using a waist-worn inertial sensor
JP6565220B2 (ja) 状態検出方法、状態検出装置および状態検出プログラム
Zhao et al. Recognition of human fall events based on single tri-axial gyroscope
JP6638734B2 (ja) 食事時間推定方法、食事時間推定プログラム及び食事時間推定装置
JP7258918B2 (ja) モニタリング対象者のバイタルサインの信頼性の決定
JP6385470B2 (ja) 対象の健康状態を検出するデバイス、システム及びコンピュータプログラム
Hahm et al. In-home health monitoring using floor-based gait tracking
JP6589994B2 (ja) 行動検知装置、行動検知方法及び行動検知プログラム
JP6390783B2 (ja) 食事時間推定方法及び食事時間推定装置
KR101993649B1 (ko) 가우시안 분포를 이용한 생활패턴 규칙성 산출 방법 및 그 장치
De Araujo et al. An algorithm for fall detection using data from smartwatch
Ma et al. Toward robust and platform-agnostic gait analysis
KR20200058737A (ko) 웨어러블 통신 단말 기반 긁음 행위 인식 시스템 및 그 방법
Edgcomb et al. Estimating daily energy expenditure from video for assistive monitoring
KR101986046B1 (ko) 온수매트 시스템 및 온수매트 시스템을 이용한 자극 제공 방법
Forbes et al. Representing temporal dependencies in smart home activity recognition for health monitoring
Fioretti et al. ADLs detection with a wrist-worn accelerometer in uncontrolled conditions
Jovan et al. Indoor Localisation for Detecting Medication Use in Parkinson's Disease
WO2023067694A1 (ja) データ生成装置、学習システム、推定装置、データ生成方法、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150