JP2012063977A - Living activities storage device - Google Patents

Living activities storage device Download PDF

Info

Publication number
JP2012063977A
JP2012063977A JP2010207634A JP2010207634A JP2012063977A JP 2012063977 A JP2012063977 A JP 2012063977A JP 2010207634 A JP2010207634 A JP 2010207634A JP 2010207634 A JP2010207634 A JP 2010207634A JP 2012063977 A JP2012063977 A JP 2012063977A
Authority
JP
Japan
Prior art keywords
observation
unit
user
living
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010207634A
Other languages
Japanese (ja)
Other versions
JP5225344B2 (en
Inventor
Miwako Doi
美和子 土井
Daisuke Yamamoto
大介 山本
Yuka Kobayashi
優佳 小林
Sachie Yokoyama
祥恵 横山
Kazunari Ouchi
一成 大内
Toshiyuki Koga
敏之 古賀
Takuji Suzuki
琢治 鈴木
Kanako Nakayama
加奈子 仲山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010207634A priority Critical patent/JP5225344B2/en
Publication of JP2012063977A publication Critical patent/JP2012063977A/en
Application granted granted Critical
Publication of JP5225344B2 publication Critical patent/JP5225344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a living activities storage device capable of presenting living activities of person to be observed that are required for each type of user.SOLUTION: A living activities storage device 1 comprises: an observation part 10 for observing observation information about a person to be observed; a primary storage part 20 for storing the observation information; a knowledge storage part 30 for storing observation knowledge to obtain living activities data required for each type of user from the observation information; an extraction part 40 for extracting the living activities data required for the each type of user from the observation information stored in the primary storage part 20, based on the observation knowledge; a secondary storage part 50 for storing the living activities data; and a presentation part 60 for presenting the living activities data stored in the secondary storage part 50, according to the type of user.

Description

本発明の実施形態は、利用者毎に記憶した生活行動を変換して提示する生活行動記憶装置に関する。   Embodiments of the present invention relate to a living behavior storage device that converts and presents a living behavior stored for each user.

従来、高齢者などの観測対象者を、見守りモニタリング装置を用いて監視する場合、見守りモニタリング装置を用いる利用者の種類毎に知りたい観測対象者の生活行動は異なっている。例えば、セキュリティ担当者は観測対象者の心停止、転倒、不審者の侵入などの緊急に対応が必要な異常状態を知る必要があり、医師は患者(観測対象者)の生体情報が通常範囲から外れている異常値を知る必要があり、デイケアマネジャは高齢者(観測対象者)の通常の行動とは異なる行動を知る必要があり、また、遠方の家族は高齢となった身内(観測対象者)の日々の生活での様子を知る必要がある。   Conventionally, when an observation target person such as an elderly person is monitored using a monitoring monitoring apparatus, the living behavior of the observation target person who wants to know is different for each type of user using the monitoring monitoring apparatus. For example, security personnel need to know abnormal conditions that require urgent action such as cardiac arrest, falls, suspicious person intrusions, etc., and doctors must keep patient (observer) biological information out of the normal range. It is necessary to know the abnormal values that are out of place, the day care manager needs to know the behavior that is different from the normal behavior of the elderly (observer), and the distant family members are elderly relatives (observer) ) It is necessary to know the state of daily life.

特開2003−296855号公報JP 2003-296855 A

しかし、病態や予防医学に応じて随時適切な観測対象者の生活行動を記憶したい場合、医師などの用語や分野によってその生活行動が微妙に異なってくる。ところが、従来の見守りモニタリング装置における監視対象は、どれか一つの生活行動に限られ、利用者の種別が異なる観測対象者の生活行動を同時に監視することは困難であるという問題点があった。   However, when it is desired to memorize the appropriate living behavior of the observation subject at any time according to the disease state and preventive medicine, the living behavior is slightly different depending on the terminology and field of the doctor or the like. However, the monitoring target in the conventional monitoring device is limited to any one of the living behaviors, and there is a problem that it is difficult to simultaneously monitor the living behaviors of the observation subjects having different types of users.

そこで本発明では、利用者の種類毎に必要な観測対象者の生活行動を提示できる生活行動記憶装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a living behavior storage device that can present a living behavior of a person to be observed necessary for each type of user.

本発明の実施形態は、観測対象者の観測情報を観測する観測部と、前記観測情報を記憶する1次記憶部と、利用者の種類毎に必要な生活行動データを前記観測情報から求めるための観測知識を記憶する知識記憶部と、前記観測知識に基づいて、前記1次記憶部に記憶された前記観測情報から前記利用者の種類毎に必要な生活行動データをそれぞれ抽出する抽出部と、前記生活行動データを記憶する2次記憶部と、前記利用者の種類に応じて、前記2次記憶部に記憶した前記生活行動データを提示する提示部と、を具備したことを特徴とする生活行動記憶装置である。   Embodiments of the present invention provide an observation unit for observing observation information of a person to be observed, a primary storage unit for storing the observation information, and life activity data required for each type of user from the observation information. A knowledge storage unit that stores the observation knowledge of the user, and an extraction unit that extracts, based on the observation knowledge, life activity data necessary for each type of the user from the observation information stored in the primary storage unit; A secondary storage unit that stores the living behavior data; and a presentation unit that presents the living behavior data stored in the secondary storage unit according to the type of the user. It is a daily activity memory device.

本発明の実施例1の生活行動記憶装置のブロック図。The block diagram of the living action memory | storage device of Example 1 of this invention. 観測部のブロック図。The block diagram of an observation part. 規則記憶部に記憶されている変換規則の一例。An example of the conversion rule memorize | stored in the rule memory | storage part. 2次記憶部に記憶されている1週間分の観測対象者の生活行動データ。Life activity data of the observation subject for one week stored in the secondary storage unit. 生活行動データを抽出するまでのフローチャート。The flowchart until it extracts life action data. 提示内容を提示するまでのフローチャート。The flowchart until it shows presentation content. 提示内容の一例。An example of the presentation content. 新しい変換規則が追加された場合の変換規則の一例。An example of a conversion rule when a new conversion rule is added. 変換規則が追加された場合の2次記憶部の生活行動データ。Living behavior data in the secondary storage unit when a conversion rule is added. 実施例2の生活行動記憶装置のブロック図。The block diagram of the living action memory | storage device of Example 2. FIG. 実施例2に対応する変換規則の一例。FIG. 10 is an example of a conversion rule corresponding to the second embodiment.

以下、本発明の一実施例の生活行動記憶装置1について図面に基づいて説明する。   Hereinafter, a living behavior storage device 1 according to an embodiment of the present invention will be described with reference to the drawings.

まず、本明細書において使用する用語について説明する。   First, terms used in this specification will be described.

「メタボリックシンドローム」とは、内臓脂肪型肥満(内臓肥満・腹部肥満)に高血糖・高血圧・高脂血症のうち2つ以上を合併した状態をいい、非特許文献1(Compendium of physical activities: an update of activity codes and METs (Metabolic equivalents ) intensities METs are defined by ACSM(American College of Sports Medicine),Ainsworth BE,et.al.,Sci Sports Exerc.20000,32(9 Suppl):S498-504)に記載されたメッツに基づく分類がなされている。   “Metabolic syndrome” refers to a condition in which visceral fat type obesity (visceral obesity / abdominal obesity) is combined with two or more of hyperglycemia, hypertension, and hyperlipidemia. Non-patent document 1 (Compendium of physical activities: an update of activity codes and METs (Metabolic equivalents) intensities METs are defined by ACSM (American College of Sports Medicine), Ainsworth BE, et.al., Sci Sports Exerc. 20000, 32 (9 Suppl): S498-504 Classification is based on the described Mets.

「メッツ」とは、安静時の運動量を1メッツとする単位系を意味する。   “Mets” means a unit system in which the momentum at rest is 1 Mets.

「ICF」とは、非特許文献2(International Classification of Functioning,Disability and Health by WHO)における生活機能障害を記述するための分類を意味する。   “ICF” means a classification for describing life function disorders in Non-Patent Document 2 (International Classification of Functioning, Disability and Health by WHO).

「ADL」とは、非特許文献3(Mahoney FI 、Barthel D.,Functional evaluation:The Barthel Index, Maryland State Medical Journal ,14,56-61,1965)に記載された物理的な介護必要性のための分類(ADL:activities of daily livingのBarthel指標)を意味する。   “ADL” refers to the need for physical care described in Non-Patent Document 3 (Mahoney FI, Barthel D., Functional evaluation: The Barthel Index, Maryland State Medical Journal, 14, 56-61, 1965). (ADL: Activities of daily living Barthel index).

「IADL」とは、非特許文献4(Lawton,M.P and Brody,E.M.,Assessment of older people : Self-Maintaining and instrumental activities of daily living,Gerontologist,-9,179-186,1969.)に記載された認知症などの精神的な介護必要性のための分類(IADL:instrumental activities of daily living)を意味する。   “IADL” is a dementia described in Non-Patent Document 4 (Lawton, MP and Brody, EM, Assessment of older people: Self-Maintaining and instrumental activities of daily living, Gerontologist, -9, 179-186, 1969). It means a classification for mental care needs such as IADL (instrumental activities of daily living).

「観測対象者」とは、本実施例の生活行動記憶装置1によって生活行動が観察される人物を意味し、例えば、高齢者、患者、メタボリックシンドロームの解消の指導を受けている人物などである。   “Observation target person” means a person whose living behavior is observed by the living behavior storage device 1 of the present embodiment, such as an elderly person, a patient, or a person who is instructed to eliminate metabolic syndrome. .

「利用者」とは、本実施例の生活行動記憶装置1によって観測対象者を観察、監視、見守る人物を意味し、例えば、医師、介護ケアプランナ、遠方の家族などである。   The “user” means a person who observes, monitors, and watches the person to be observed by the living behavior storage device 1 of the present embodiment, such as a doctor, a care planner, a distant family, and the like.

「識別行動」とは、観測対象者の歩行、生活リズムなどの行動を意味する。   “Identification behavior” means behavior such as walking and life rhythm of the observation subject.

「生活行動データ」とは、識別行動をさらに細分化したものであり、例えば、観測対象者の歩行に関しては、歩行の開始又は停止、歩数、歩行距離を意味し、生活リズムに関しては食事の回数、睡眠時間、洗面の有無を意味する。   “Life behavior data” is a further subdivision of the identification behavior. For example, regarding the walking of the observation subject, it means the start or stop of walking, the number of steps, the walking distance, and the number of meals regarding the life rhythm. Means sleep time, presence or absence of washing.

本発明の実施例1の生活行動記憶装置1について図1〜図9に基づいて説明する。   A living behavior storage device 1 according to a first embodiment of the present invention will be described with reference to FIGS.

本実施例の生活行動記憶装置1の構成について図1のブロック図に基づいて説明する。   The configuration of the living behavior storage device 1 of the present embodiment will be described based on the block diagram of FIG.

生活行動記憶装置1は、観測部10、1次記憶部20、知識記憶部30、抽出部40、2次記憶部50、提示部60、変換部70、規則記憶部80、制御部90とを具備する。   The living behavior storage device 1 includes an observation unit 10, a primary storage unit 20, a knowledge storage unit 30, an extraction unit 40, a secondary storage unit 50, a presentation unit 60, a conversion unit 70, a rule storage unit 80, and a control unit 90. It has.

観測部10は、観測対象者の生活行動に関する観測情報を観測するための種々のセンサを有している。すなわち、観測部10は、図2に示すように、加速度センサにより観測対象者の身体の動きを取得する動き情報入力部11、マイクにより観測対象者が発する音声や周囲環境の音を取得する音情報入力部12、カメラから観測対象者や周囲環境の画像を取得する画僧情報入力部13を有し、観測対象者の観測情報(加速度、音、画像など)を取得する。加速度センサは、観測対象者が身につける。また、マイクは、観測対象者が生活する部屋である寝室、リビング、キッチン、洗面所などにそれぞれ取り付けられ、観測対象者が発生する音を検出し、カメラも、同様に寝室、リビング、キッチン、洗面所などにそれぞれ取り付けられ、観測対象者自身や観測対象者の食事を撮影する。観測部10が観測した観測情報は、1次記憶部20に記憶される。   The observation unit 10 has various sensors for observing observation information regarding the living behavior of the observation subject. That is, as shown in FIG. 2, the observation unit 10 includes a motion information input unit 11 that acquires the motion of the observation subject's body using an acceleration sensor, and a sound that acquires sound generated by the observation subject and surrounding environment using a microphone. The information input unit 12 includes an image information input unit 13 that acquires images of the observation target person and the surrounding environment from the camera, and acquires observation information (acceleration, sound, image, etc.) of the observation target person. The person to be observed wears the acceleration sensor. In addition, microphones are attached to bedrooms, living rooms, kitchens, and washrooms where the observers live, and detect sounds generated by the observers. Cameras are also used in bedrooms, living rooms, kitchens, It is attached to a washroom, etc., and takes pictures of the observation subjects themselves and the observation subjects. The observation information observed by the observation unit 10 is stored in the primary storage unit 20.

知識記憶部30は、医師、介護ケアプランナなどの利用者の種類毎に、観測対象者から入手する必要がある生活行動データや、この生活行動データの計測間隔などが記述された観測知識を記憶している。この観測知識は、ADL、IADL、ICFなどの利用者毎に必要な識別行動(例えば、歩行や生活リズムなど)毎に記憶されている。   The knowledge storage unit 30 stores, for each type of user such as a doctor and a care planner, observation knowledge describing life behavior data that needs to be obtained from the observation target and measurement intervals of the life behavior data. is doing. This observation knowledge is stored for each identification action (for example, walking, life rhythm, etc.) required for each user such as ADL, IADL, and ICF.

抽出部40は、知識記憶部30に記憶された観測知識に基づいて、1次記憶部20に記憶された観測対象者の観測情報から、利用者の種類毎に必要な生活行動データを抽出する。すなわち、抽出部40は、1次記憶部20に記憶された観測情報に基づいて、観測対象者の静止状態、歩行状態(歩行あるいは走行)などの動作状態、歩行数、歩行数と歩幅から求めた歩いた距離などの生活行動データを抽出する。抽出した生活行動データは、観測対象者の生活行動データとして2次記憶部50に記憶される。   Based on the observation knowledge stored in the knowledge storage unit 30, the extraction unit 40 extracts necessary living behavior data for each type of user from the observation information of the observation target person stored in the primary storage unit 20. . That is, based on the observation information stored in the primary storage unit 20, the extraction unit 40 obtains the observation target person from a stationary state, an operating state such as a walking state (walking or running), the number of walks, the number of walks, and the stride. Extract life activity data such as walking distance. The extracted living behavior data is stored in the secondary storage unit 50 as the living behavior data of the person to be observed.

規則記憶部80は、利用者の種類毎に生活行動データを、行動表現用語や提示形式に変換するための変換規則を記憶している。この規則記憶部80について、図3に基づいて説明する。図3の表は、規則記憶部80に記憶されている変換規則の一例である。   The rule storage unit 80 stores conversion rules for converting daily behavior data into behavior expression terms and presentation formats for each type of user. The rule storage unit 80 will be described with reference to FIG. The table in FIG. 3 is an example of conversion rules stored in the rule storage unit 80.

図3の表の列方向に並ぶ各項目は、知識記憶部30に記憶した識別行動毎に分かれている。行方向は、利用者種別に分かれている。   Each item arranged in the column direction of the table of FIG. 3 is divided for each identification action stored in the knowledge storage unit 30. The row direction is divided into user types.

列方向の各識別行動は、例えば、ADL、IADL、ICFなど利用者毎に必要な項目(歩行や生活リズムなど)が記憶されている。   For each discriminating action in the column direction, for example, items (walking, life rhythm, etc.) necessary for each user such as ADL, IADL, and ICF are stored.

行方向の利用者種別として、ADL、IADL、ICF、メタボリックシンドロームなどの利用者の種別が記憶されている。ADL、IADL、ICFの利用者は、介護の担当医、介護ケアプランナであり、また、ICFの利用者は通常のホームドクターであり、メタボリックシンドロームの利用者は生活病管理センターなどの専門家である。この変換規則には、自治体毎、又は、デイケアサービスセンターなどでケアに関して独自の評価基準がある場合に、その評価基準が記述されることが想定されている。   As user types in the row direction, user types such as ADL, IADL, ICF, and metabolic syndrome are stored. Users of ADL, IADL, and ICF are in-care physicians and care planners, ICF users are ordinary home doctors, and users of metabolic syndrome are specialists such as the Center for Life Disease Management. is there. In this conversion rule, it is assumed that when there is a unique evaluation standard for care in each municipality or at a day care service center, the evaluation standard is described.

ADLでは、観測対象者が認知症かどうかを判断する指標であるため、歩行に関しては、観測対象者が45m以上の歩行が可能かどうかを一つの認知症の判断基準としている。そこで、規則記憶部80の項目「値」には「45」、項目「単位」には「m」、項目「大小」には「≧」、項目「計測方法」には「サイクル」、項目「計測期間」には「1週間」、項目「提示内容」には「歩行困難ではない」が記憶されている。そして、観測対象者が、1週間の計測期間の間に、1回の連続歩行(1サイクル)が45m以上になったかどうかを観測部10が観測し、45m以上が達成されれば「歩行困難ではない」という提示を、提示部60がADLの利用者(例えば、介護の担当医)に提示する。   Since ADL is an index for determining whether or not an observation subject is dementia, regarding walking, whether or not the observation subject can walk more than 45 m is used as one dementia criterion. Therefore, the item “value” in the rule storage unit 80 is “45”, the item “unit” is “m”, the item “large” is “≧”, the item “measurement method” is “cycle”, and the item “ “One week” is stored in the “measurement period”, and “not difficult to walk” is stored in the item “presentation content”. Then, the observation unit 10 observes whether or not one continuous walk (one cycle) has become 45 m or more during the measurement period of one week. The presentation unit 60 presents the presentation “not” to the ADL user (for example, a caregiver).

ICFでは、同じ歩行であっても、身体機能の欠損の有無に関する記述であるため、短距離歩行(ICFのコードがd4500)かどうかは、1000mの歩行が可能かどうかが基準になっている。そのため、各項目はADLとは異なる値である。すなわち、「値」は、利用者毎に設定された閾値であり、45のときはADLの利用者、1000のときはICFの利用者にとって意味のある提示内容を行えることとなるので、この閾値を変えることにより、利用者毎に必要な提示内容が得られる。   In the ICF, even if it is the same walking, it is a description regarding the presence or absence of a loss of physical function, so whether or not it is a short distance walking (ICF code is d4500) is based on whether or not a walking of 1000 m is possible. Therefore, each item is a value different from ADL. That is, the “value” is a threshold value set for each user. When 45, it is possible to provide a meaningful presentation content for an ADL user, and when 1000, an ICF user, this threshold value. By changing, presentation contents necessary for each user can be obtained.

メタボリックシンドロームでは、同じ歩行であっても、1サイクルの歩行ではなく、1日の合計の歩数が1万歩になるかどうかが一つの基準となっている。そのため、規則記憶部80の項目「値」には「10,000」、項目「単位」には「歩」、項目「計測方法」には「積算」、項目「計測期間」には「1日」が記憶され、提示内容には「目標達成」「目標未達成」が記憶されている。   In the metabolic syndrome, one reference is whether the total number of steps per day is 10,000 steps, not a one-cycle walk, even for the same walk. Therefore, the item “value” in the rule storage unit 80 is “10,000”, the item “unit” is “step”, the item “measurement method” is “integrated”, and the item “measurement period” is “1 day”. Is stored, and “presented” and “not achieved” are stored in the presented content.

なお、IADLにおいて、各項目が「NA(非適応)」となっているのは、IADLには、歩行や生活リズムの食事には、該当する識別行動項目がないためである。   In IADL, each item is “NA (non-adaptive)” because IADL does not have a corresponding identification action item in a meal of walking or life rhythm.

変換部70は、規則記憶部80に記憶された変換規則に基づき2次記憶部50に記憶された生活行動データを提示内容に変換する。   The conversion unit 70 converts the living behavior data stored in the secondary storage unit 50 into the presentation content based on the conversion rules stored in the rule storage unit 80.

提示部60は、各利用者に対応した生活行動データと提示内容を提示する。   The presentation unit 60 presents living behavior data and presentation contents corresponding to each user.

制御部90は、変換規則で必要な生活行動データを抽出するために観測部10と観測記憶部30を制御したり、新たな変換規則を追加したりする。   The control unit 90 controls the observation unit 10 and the observation storage unit 30 or adds a new conversion rule in order to extract living behavior data necessary for the conversion rule.

生活行動記憶装置1が、観測対象者の生活行動データ(歩行に関する情報、動作に関する情報、生活音など)を検出する方法について説明する。   A method in which the living behavior storage device 1 detects the living behavior data (information relating to walking, information relating to movement, living sounds, etc.) of the observation subject will be described.

第1の歩行検出方法について説明する。   The first walking detection method will be described.

制御部90の制御に基づいて、観測部10における動き情報入力部11の加速度センサが、観測対象者の静止、又は、動きに合わせてXYZの3軸加速度の生波形を検出する。   Based on the control of the control unit 90, the acceleration sensor of the motion information input unit 11 in the observation unit 10 detects the XYZ triaxial acceleration raw waveform according to the stationary or movement of the observation target person.

観測部10は、検出したXYZの3軸加速度の生波形を微分(前後の加速度の差分)し、微分加速度を求める。1次記憶部20は、3軸加速度の生波形、又は、微分加速度を観測情報として記憶する。   The observation unit 10 differentiates the detected raw waveform of the XYZ triaxial acceleration (difference between the front and rear accelerations) to obtain a differential acceleration. The primary storage unit 20 stores a raw waveform of triaxial acceleration or differential acceleration as observation information.

抽出部40は、知識記憶部30が記憶した観測知識に基づいて、1次記憶部20に記憶した少なくとも1軸以上の微分加速度に閾値を設定し、所定時間内にその閾値を超える加速度変化の発生の有無で、観測対象者の静止状態、又は、動作状態かを識別する。生波形には重力加速度(例えば、Z軸方向に顕著に現れる)が観測されるが、微分波形を求めることで差分だけを簡単に取り出すことができる。これにより、抽出部40は、第1の閾値を超える加速度の変化が発生すれば、観測対象者の歩行の開始、第1の閾値を超える加速度の変化がなくなれば観測対象者の歩行の終了を検出できる。さらに、第1の閾値より大きい第2の閾値を超えれば、抽出部40は、観測対象者が走行状態と検出できる。   The extraction unit 40 sets a threshold value for at least one differential acceleration stored in the primary storage unit 20 based on the observation knowledge stored in the knowledge storage unit 30, and the acceleration change exceeding the threshold value within a predetermined time. The presence or absence of occurrence identifies whether the observation subject is stationary or operating. Gravity acceleration (for example, it appears remarkably in the Z-axis direction) is observed in the raw waveform, but only the difference can be easily extracted by obtaining the differential waveform. Accordingly, the extraction unit 40 starts the walking of the observation target person when the acceleration change exceeding the first threshold value occurs, and ends the walking of the observation target person when the acceleration change value exceeding the first threshold value disappears. It can be detected. Furthermore, if the second threshold value that is larger than the first threshold value is exceeded, the extraction unit 40 can detect that the observation target person is in the traveling state.

この場合に、抽出部40は、第1の歩行検出方法を用いるために、知識記憶部30から第1の歩行検出方法に対応する観測知識を呼び出す。この第1の歩行検出方法において、知識記憶部30が記憶している観測知識とは、識別行動が「歩行」に関するものであり、1次記憶部20に記憶した少なくとも1軸以上の微分加速度に閾値を設定し、所定時間内にその閾値を超える加速度変化の発生の有無を検出するアプリケーションである。   In this case, the extraction unit 40 calls the observation knowledge corresponding to the first walking detection method from the knowledge storage unit 30 in order to use the first walking detection method. In this first gait detection method, the observation knowledge stored in the knowledge storage unit 30 is that the identification behavior is related to “walking”, and the differential acceleration stored in the primary storage unit 20 is at least one axis or more. It is an application that sets a threshold value and detects whether or not an acceleration change exceeding the threshold value occurs within a predetermined time.

次に、第2の歩行検出方法について説明する。   Next, the second walking detection method will be described.

制御部90の制御に基づいて、観測部10における動き情報入力部11の加速度センサが、観測対象者の静止、又は、動きに合わせてXYZの3軸加速度の生波形を検出する。   Based on the control of the control unit 90, the acceleration sensor of the motion information input unit 11 in the observation unit 10 detects the XYZ triaxial acceleration raw waveform according to the stationary or movement of the observation target person.

観測部10は、検出したXYZの3軸加速度の生波形を微分(前後の加速度の差分)し、微分加速度を求める。1次記憶部20は、3軸加速度の生波形、又は、微分加速度を観測情報として記憶する。   The observation unit 10 differentiates the detected raw waveform of the XYZ triaxial acceleration (difference between the front and rear accelerations) to obtain a differential acceleration. The primary storage unit 20 stores a raw waveform of triaxial acceleration or differential acceleration as observation information.

抽出部40は、知識記憶部30が記憶した観測知識に基づいて、1次記憶部20が記憶したXYZの3軸加速度の生波形から次の式(1)を用いて加速度スカラー量Aを求める。   Based on the observation knowledge stored in the knowledge storage unit 30, the extraction unit 40 obtains the acceleration scalar amount A from the raw waveform of the XYZ triaxial acceleration stored in the primary storage unit 20 using the following equation (1). .


A=√{(X−Xn−1+(Y−Yn−1+(Z−Zn−1} ・・・(1)

ここで、X、Y、Zは、それぞれX軸、Y軸、Z軸の加速度を表す。すなわち、加速度スカラー量Aは、前サンプリング(n−1)と現サンプリングnの間に発生した各軸の加速度の合計スカラー量を示す。

A = √ {(X n −X n−1 ) 2 + (Y n −Y n−1 ) 2 + (Z n −Z n−1 ) 2 } (1)

Here, X, Y, and Z represent the X-axis, Y-axis, and Z-axis accelerations, respectively. That is, the acceleration scalar quantity A indicates the total scalar quantity of the acceleration of each axis generated between the previous sampling (n−1) and the current sampling n.

抽出部40は、この加速度スカラー量Aに対し、所定時間内にその閾値を超える加速度変化の発生の有無で、観測対象者の静止状態、又は、歩行状態かを識別する。これにより、抽出部40は、第1の閾値を超える加速度の変化が発生すれば観測対象者の歩行の開始、第1の閾値を超える加速度の変化がなくなれば観測対象者の歩行の終了を検出できる。さらに、第1の閾値より大きい第2の閾値を超えれば、抽出部40は、観測対象者が走行状態と検出できる。   The extraction unit 40 identifies whether the observation target person is in a stationary state or a walking state based on whether or not an acceleration change exceeding the threshold value occurs within a predetermined time with respect to the acceleration scalar quantity A. As a result, the extraction unit 40 detects the start of the walking of the observation target if a change in acceleration exceeding the first threshold occurs, and the end of the walking of the observation target if there is no change in acceleration exceeding the first threshold. it can. Furthermore, if the second threshold value that is larger than the first threshold value is exceeded, the extraction unit 40 can detect that the observation target person is in the traveling state.

この場合に、抽出部40は、第2の歩行検出方法を用いるために、知識記憶部30から第2の歩行検出方法に対応する前記観測知識を呼び出す。この第2の歩行検出方法において、知識記憶部30が記憶している観測知識とは、識別行動が「歩行」に関するものであり、加速度スカラー量Aを計算し、この加速度スカラー量Aに対し、所定時間内にその閾値を超える加速度変化の発生の有無を検出するアプリケーションである。   In this case, the extraction unit 40 calls the observation knowledge corresponding to the second walking detection method from the knowledge storage unit 30 in order to use the second walking detection method. In this second walking detection method, the observation knowledge stored in the knowledge storage unit 30 is that the identification behavior is related to “walking”, the acceleration scalar quantity A is calculated, and for this acceleration scalar quantity A, This is an application that detects whether or not an acceleration change exceeding the threshold value occurs within a predetermined time.

次に、観測対象者の動作認識方法について説明する。   Next, a method for recognizing the motion of the observation subject will be described.

制御部90の制御に基づいて、観測部10における動き情報入力部11の加速度センサが、観測対象者の静止、又は、動きに合わせてXYZの3軸加速度の生波形XYZの3軸加速度の生波形を検出する。   Based on the control of the control unit 90, the acceleration sensor of the motion information input unit 11 in the observation unit 10 generates the three-axis acceleration of the XYZ three-axis acceleration according to the stationary or movement of the observation subject. Detect the waveform.

観測部10は、検出したXYZの3軸加速度の生波形を微分(前後の加速度の差分)し、微分加速度を求める。1次記憶部20は、3軸加速度の生波形、又は、微分加速度を観測情報として記憶する。   The observation unit 10 differentiates the detected raw waveform of the XYZ triaxial acceleration (difference between the front and rear accelerations) to obtain a differential acceleration. The primary storage unit 20 stores a raw waveform of triaxial acceleration or differential acceleration as observation information.

抽出部40は、知識記憶部30が記憶した観測知識に基づいて、1次記憶部20が記憶したXYZの3軸加速度の生波形から、観測対象者の動作状態(歩行、走行、乗り物、静止など)を推定し、その上で静止状態を検出する。   Based on the observation knowledge stored in the knowledge storage unit 30, the extraction unit 40 uses the XYZ three-axis acceleration raw waveform stored in the primary storage unit 20 to move the observation subject's motion state (walking, running, vehicle, stationary Etc.), and the resting state is detected.

動作認識方法としては、非特許文献5(K. Ouchi, et al.”LifeMinder:A wearable healthcare support system with timely instruction based on the user’s context,”IEICE Transactions on Information and Systems,Vol.E87-D,No.6,pp.1361-1369,2004.)、非特許文献6(T.Iso,et al.,Gait Analyzer based on a Cell Phone with a Single Threeaxis Accelerometer,Proceedings of MobileHCI'06, pp.141-144,2006.)、非特許文献7(池谷他、3軸加速度センサを用いた移動状況推定方式、情報処理学会研究報告2008-UBI-19(14)、pp.78-80,2008.)などを用いる。なお、もちろんこれらに方法には限らない。   Non-Patent Document 5 (K. Ouchi, et al. “LifeMinder: A wearable healthcare support system with timely instruction based on the user's context,” IEICE Transactions on Information and Systems, Vol. E87-D, No. .6, pp. 1361-1369, 2004., Non-Patent Document 6 (T. Iso, et al., Gait Analyzer based on a Cell Phone with a Single Threeaxis Accelerometer, Proceedings of MobileHCI'06, pp. 141-144 , 2006.), Non-Patent Document 7 (Ikeya et al., Moving State Estimation Method Using 3-Axis Accelerometer, IPSJ Research Report 2008-UBI-19 (14), pp.78-80,2008.) Use. Of course, the method is not limited to these.

これにより、抽出部40は、観測対象者の動作状態を認識できる。   Thereby, the extraction unit 40 can recognize the operation state of the observation target person.

この場合に、抽出部40は、動作認識方法を用いるために、知識記憶部30から動作認識方法に対応する前記観測知識を呼び出す。この動作認識方法において、知識記憶部30が記憶している観測知識とは、識別行動が例えば「歩行」に関するものであり、前記各非特許文献5〜7に記載された方法を表したアプリケーションである。   In this case, the extraction unit 40 calls the observation knowledge corresponding to the motion recognition method from the knowledge storage unit 30 in order to use the motion recognition method. In this motion recognition method, the observation knowledge stored in the knowledge storage unit 30 is an application in which the identification behavior relates to, for example, “walking”, and represents the methods described in the non-patent documents 5 to 7. is there.

観測対象者の生活音の検出方法について説明する。   A method for detecting the living sound of the observation target will be described.

生活音検出方法は、観測部10の音情報入力部12が入力した音情報を、知識記憶部30が記憶した観測知識に基づいて音響シーンクラスタリングするものである。なお、「生活音」とは、観測対象者の日常の生活によって発生する音であり、例えば、食事の音、洗面による音、掃除機をかける音、調理による音などである。   The living sound detection method performs sound scene clustering on the sound information input by the sound information input unit 12 of the observation unit 10 based on the observation knowledge stored in the knowledge storage unit 30. The “living sound” is a sound generated in the daily life of the observation subject, for example, a sound of a meal, a sound of a wash surface, a sound of a vacuum cleaner, a sound of cooking, and the like.

まず、制御部90の制御に基づいて、観測部10における音情報入力部12のマイクが、観測対象者の音情報を入力する。   First, based on the control of the control unit 90, the microphone of the sound information input unit 12 in the observation unit 10 inputs sound information of the observation target person.

次に、観測部10は、この音情報に関して、22kHzで音の波形をサンプリングする。   Next, the observation unit 10 samples the sound waveform at 22 kHz with respect to this sound information.

次に、観測部10は、サンプリングした音の波形から音響認識に必要な特徴量を抽出する。1次記憶部20は、生の音の波形、抽出された特徴量、又は、生の波形を圧縮して、観測情報として記憶する。   Next, the observation unit 10 extracts a feature amount necessary for sound recognition from the sampled sound waveform. The primary storage unit 20 compresses the raw sound waveform, the extracted feature amount, or the raw waveform and stores it as observation information.

次に、抽出部40は、知識記憶部30が記憶した観測知識に基づいて、音源辞書とマッチングさせるために、1次記憶部20に記憶した特徴量を1秒単位に分割する。音源辞書は、生活音毎に生成されている。   Next, the extraction unit 40 divides the feature amount stored in the primary storage unit 20 into units of one second for matching with the sound source dictionary based on the observation knowledge stored in the knowledge storage unit 30. The sound source dictionary is generated for each living sound.

次に、抽出部40は、特徴量の分割単位毎に音源辞書とマッチングを行い、尤度が高いものを選定する。   Next, the extraction unit 40 performs matching with the sound source dictionary for each division unit of the feature amount, and selects one having a high likelihood.

次に、抽出部40は、音源辞書と同一のものが並んでいる部分の始端と終端を検出する。   Next, the extraction unit 40 detects the start and end of a portion where the same sound source dictionary is arranged.

次に、観測部10は、検出部分の始終端で切り取り、切り取った部分が取得したい生活音が発生したシーンとなる。   Next, the observation unit 10 is cut at the start and end of the detection part, and the cut part becomes a scene in which a living sound to be acquired is generated.

この場合に、抽出部40は、生活音検出方法を用いるために、知識記憶部30から生活音検出方法に対応する前記観測知識を呼び出してくる。この生活音検出方法において、知識記憶部30が記憶している観測知識とは、識別行動が例えば「生活リズムの食事」に関するものであり、食事時の音情報を記憶した音源辞書に基づいて音響シーンクラスタリングするアプリケーションである。   In this case, the extraction unit 40 calls the observation knowledge corresponding to the life sound detection method from the knowledge storage unit 30 in order to use the life sound detection method. In this life sound detection method, the observation knowledge stored in the knowledge storage unit 30 is that the identification behavior relates to, for example, “meal of life rhythm”, and is based on a sound source dictionary storing sound information at the time of meal. An application for scene clustering.

上記で説明した生活行動データの抽出方法について、図5のフローチャートに基づいて改めて説明する。   The living behavior data extraction method described above will be described again based on the flowchart of FIG.

ステップS100において、観測部10は、動き情報入力部11の加速度センサを用いて観測対象者の加速度を計測し、ステップS101に進む。なお、加速度センサは、リアルタイムに観測対象者の加速度を計測し続けるとものとする。   In step S100, the observation unit 10 measures the acceleration of the observation subject using the acceleration sensor of the motion information input unit 11, and proceeds to step S101. It is assumed that the acceleration sensor continues to measure the acceleration of the observation subject in real time.

ステップS101では、抽出部40が、前記加速度に基づいて、観測対象者が歩行あるいは走行(以下、単にまとめて「歩行」と呼ぶ)を開始したと判断すればステップS102に進み(Yesの場合)、歩行の開始を検出できなければステップS110に進む(Noの場合)。   In step S101, if the extraction unit 40 determines that the observation target person has started walking or running (hereinafter simply referred to as “walking”) based on the acceleration, the process proceeds to step S102 (in the case of Yes). If the start of walking cannot be detected, the process proceeds to step S110 (in the case of No).

ステップS102において、抽出部40が観測対象者の歩数及び歩行距離を計測し、ステップS103に進む。   In step S102, the extraction unit 40 measures the number of steps and the walking distance of the observation target person, and proceeds to step S103.

ステップS103において、抽出部40が、計測を続けている現在の加速度に基づいて、観測対象者が歩行を終了したか否かを判断し、終了していればステップS104に進み(Yesの場合)、終了していなければステップS102に戻る(Noの場合)。   In step S103, the extraction unit 40 determines whether or not the observation target person has finished walking based on the current acceleration that is being measured, and if completed, the process proceeds to step S104 (in the case of Yes). If not completed, the process returns to step S102 (in the case of No).

ステップS104において、抽出部40は、2次記憶部50に歩行の開始時刻、終了時刻、歩数、歩行距離を記憶する。そして、ステップS101に戻る。   In step S <b> 104, the extraction unit 40 stores the walking start time, end time, number of steps, and walking distance in the secondary storage unit 50. Then, the process returns to step S101.

ステップS111において、歩行の開始を検出できないので、観測部10は、音情報入力部12のマイクを用いて、音情報を入力し、抽出部40は、上記したように音響シーンクラスタリングを行い、観測対象者が、現在どのような生活音を出しているかを検出する。検出が終わればステップS111に進む。   In step S111, since the start of walking cannot be detected, the observation unit 10 inputs sound information using the microphone of the sound information input unit 12, and the extraction unit 40 performs acoustic scene clustering as described above to perform observation. It detects what kind of life sound the subject is currently making. If detection ends, the process proceeds to step S111.

ステップS111において、観測部10は、観測対象者が静止状態から歩行を開始したか否かを加速度センサを用いて計測し、歩行を開始していれば、上記生活音を出している観測対象者の動作(例えば、洗面、食事、身繕いなど)が終了したとしてステップS112に進み(Yesの場合)、引続き停止状態であれば観測対象者の動作が終了してないとしてステップS110に戻る(Noの場合)。   In step S111, the observation unit 10 uses an acceleration sensor to measure whether or not the observation target person has started walking from a stationary state. If the operation (for example, washing, eating, grooming, etc.) is completed, the process proceeds to step S112 (in the case of Yes), and if it is still stopped, the operation of the observation subject is not completed and the process returns to step S110 (No If).

ステップS111において、観測対象者が歩行を開始したため、抽出部40は、2次記憶部50に音響シーンクラスタリングによって求められた生活音に対応した識別行動(例えば、洗面、食事、身繕いなど)を記憶し、ステップS102に戻る。   In step S111, since the observation subject has started walking, the extraction unit 40 stores, in the secondary storage unit 50, the identification behavior (for example, a wash surface, a meal, a dressing, etc.) corresponding to the life sound obtained by the acoustic scene clustering. Then, the process returns to step S102.

以上により、生活行動記憶装置1は、観測対象者が、歩行を開始した場合の歩数、歩行距離、識別行動を、開始時刻と終了時刻と合わせて生活行動データを検出し、記憶ができる。   As described above, the living behavior storage device 1 can detect and store the living behavior data by combining the start time and the end time with respect to the number of steps, the walking distance, and the identification behavior when the observation target starts walking.

上記したように、生活行動記憶装置1が検出した観測対象者の生活行動データを、変換部70が、規則記憶部80に記憶されている変換規則を用いてどのように利用者に提示するかを図4に基づいて説明する。図4は、2次記憶部50に時刻単位に記憶されている2月20日~2月26日までの1週間分の観測対象者の生活行動データであって、1日の最後にその日の合計のデータが記憶されている。   As described above, how the conversion unit 70 presents to the user the living behavior data of the observation target detected by the living behavior storage device 1 using the conversion rules stored in the rule storage unit 80. Will be described with reference to FIG. FIG. 4 shows the daily behavior data of the observation target for one week from February 20 to February 26 stored in the secondary storage unit 50 in time units. Total data is stored.

ADLに関しては、変換部70は、図3におけるADLの変換規則に基づいて、図4の1週間分の生活行動データから、観測対象者に45m以上の歩行があったかどうかを解析する。2月25日に1サイクルで観測対象者が600m歩行しており、1サイクルで45mを越えている。したがって、変換部70は、図3におけるADLの変換規則の提示内容「歩行は困難ではない」という項目を呼出し、提示部60は、ADLの利用者(例えば、介護の担当医)に対して、図7に示すように、歩行距離600mと「歩行困難ではない」を提示する。逆に、1週間の間に一度も観測対象者に45mを越える歩行がなければ、この「歩行困難ではない」という提示がされないので、ADLの利用者は、観測対象者が歩行困難と判断できる。   Regarding ADL, the conversion unit 70 analyzes whether or not the observation target person has walked more than 45 m from the one-week life behavior data in FIG. 4 based on the ADL conversion rule in FIG. 3. On February 25, the observation subject walks 600 m in one cycle and exceeds 45 m in one cycle. Therefore, the conversion unit 70 calls the item “A walking is not difficult” in the presentation content of the ADL conversion rule in FIG. 3, and the presentation unit 60 gives the ADL user (for example, a caregiver) As shown in FIG. 7, a walking distance of 600 m and “not difficult to walk” are presented. Conversely, if the observation subject has not walked more than 45 m once a week, this “not difficult to walk” is not presented, so the ADL user can determine that the observation subject is difficult to walk. .

上記で説明したADLの提示に関して、図6のフローチャートに基づいて更に説明する。   The presentation of ADL described above will be further described based on the flowchart of FIG.

ステップS200において、生活行動記憶部1は、ADLに関する判定を開始し、ステップS201に進む。   In step S200, the living behavior storage unit 1 starts determination regarding ADL, and proceeds to step S201.

ステップS201において、変換部70は、観測対象者が、1サイクルで45m以上の歩行距離が有ったか否かを検出し、有ればステップS202に進み(Yesの場合)、無ければステップS201に進む(Noの場合)。   In step S201, the conversion unit 70 detects whether or not the observation target person has a walking distance of 45 m or more in one cycle. If there is, the process proceeds to step S202 (in the case of Yes), and if not, the process proceeds to step S201. Proceed (if no).

ステップS202において、1サイクルで45m以上の歩行距離が有ったため、提示部60は、観測対象者が歩行が困難でないと提示する。そしてステップS203に進む。   In step S202, since there was a walking distance of 45 m or more in one cycle, the presentation unit 60 presents that the observation target is not difficult to walk. Then, the process proceeds to step S203.

ステップS210において、1サイクルの歩行距離が45m未満であるため、観測対象者が歩行困難であると提示部60が提示し、ステップS203に進む。   In step S210, since the walking distance in one cycle is less than 45 m, the presentation unit 60 presents that the observation target is difficult to walk, and the process proceeds to step S203.

ステップS203において、観測対象者が1日の食事を3回取っているか否かを検出し、3回以上であればステップS204に進み(Yesの場合)、3回未満の場合にはステップS2011に進む(Noの場合)。   In step S203, it is detected whether or not the observation subject has taken a meal three times a day. If it is three times or more, the process proceeds to step S204 (in the case of Yes), and if it is less than three, the process proceeds to step S2011. Proceed (if no).

ステップS211において、観測対象者の食事回数が3回でない日の日付と食事回数とを提示部60が提示し、ステップS204に進む。   In step S211, the presentation unit 60 presents the date and the number of meals on the day when the number of meals of the observation subject is not three, and the process proceeds to step S204.

ステップS204において、変換部70は、他のADLの判定へ移行する。   In step S204, the conversion unit 70 proceeds to another ADL determination.

以上により、ADLに関する判定を行い、ADLの利用者に確実に観測対象者の生活行動を提示できる。   By the above, the determination regarding ADL can be performed and the living behavior of the observation target can be surely presented to the user of ADL.

メタボリックシンドロームに関しては、変換部70は、図3におけるメタボリックシンドロームの変換規則に基づいて、図4の1週間分の生活行動データから、1日に1万歩を越えるかどうかを解析する。2月20日における観測対象者の合計歩数が5312歩なので、図3のメタボリックシンドロームの変換規則の中の1万歩未満に一致する。したがって、変換部70は、図3におけるメタボリックシンドロームの変換規則の提示内容「目標未達成」という項目を呼出し、提示部60が5312歩と「目標未達成」を提示する。これに対し、2月25日は1万歩を越えているので、1004歩と「目標達成」と提示する。   With respect to the metabolic syndrome, the conversion unit 70 analyzes whether or not 10,000 steps per day are exceeded from the one-week life activity data of FIG. 4 based on the conversion rule of the metabolic syndrome in FIG. Since the total number of steps of the observation subject on February 20 is 5312 steps, it corresponds to less than 10,000 steps in the metabolic syndrome conversion rule of FIG. Therefore, the conversion unit 70 calls the item “target not achieved” in the metabolic syndrome conversion rule in FIG. 3, and the presentation unit 60 presents 5312 steps and “target not achieved”. On the other hand, since February 25 has exceeded 10,000 steps, 1004 steps are indicated as “achievement of target”.

このように、本実施例の生活行動記憶装置1は、観測対象者の生活行動データに関して、異なる利用者毎にそれぞれ必要な生活行動データと提示内容を提示できる。   As described above, the living behavior storage device 1 according to the present embodiment can present necessary living behavior data and presentation contents for each different user regarding the living behavior data of the observation target person.

図3に示す規則記憶部80に記憶されている変換規則に対し、新たに変換規則が追加される場合について、図8と図9に基づいて説明する。   A case where a new conversion rule is added to the conversion rule stored in the rule storage unit 80 shown in FIG. 3 will be described with reference to FIGS.

図8は図3の変換規則に対し、見守りの利用者に関する変換規則が追加されている。「見守りの利用者」とは、本明細書では、遠隔に暮らす家族などが想定されている。追加された変換規則は、項目「提示内容」に観測対象者の食事写真と、その観測対象者自身の食事風景の写真を撮影することであり、この追加は、例えば、見守りの利用者自身が、制御部90を用いて行う。   In FIG. 8, a conversion rule relating to the watching user is added to the conversion rule of FIG. In this specification, the “watching user” is assumed to be a family living remotely. The added conversion rule is to take a photograph of the observation subject's meal and a photograph of the observation subject's own meal scenery in the item “presentation content”. The control unit 90 is used.

規則記憶部80に新たな変換規則が追加されたことにより、制御部90は、観測部10の画像取得部13のカメラを用いて、観測対象者の食事時の写真を撮影するアプリケーションを観測知識部30に追加する。   By adding a new conversion rule to the rule storage unit 80, the control unit 90 uses the camera of the image acquisition unit 13 of the observation unit 10 to detect an application for taking a photograph of the observation subject at the time of meal. Add to part 30.

この結果、抽出部40が、2次記憶部50に記憶する生活行動データの内容は、図4から図9のように変更される。すなわち、観測対象者の食事を検出したときに、食事写真の撮影だけでなく、観測対象者自身の写真撮影も行う。そして、提示部60は、見守りの利用者に対して、食事写真に加えて、その観測対象者の撮影写真を提示する。これにより、見守りの利用者は、この提示によって観測対象者が元気か否かを知ることができる。   As a result, the contents of the living behavior data stored in the secondary storage unit 50 by the extraction unit 40 are changed as shown in FIGS. That is, when the observation subject's meal is detected, not only the meal photograph is taken, but also the observation subject's own photograph is taken. Then, the presentation unit 60 presents the observation user with a photograph of the observation subject in addition to the meal photograph. Thereby, the watching user can know whether or not the observation target person is fine by this presentation.

このように本実施例の生活行動記憶装置1は、規則記憶部80に変換規則を追加することで、新たな利用者が増えたときにも対応できる。   As described above, the living behavior storage device 1 according to the present embodiment can cope with an increase in the number of new users by adding conversion rules to the rule storage unit 80.

次に、本発明の実施例2の生活行動記憶装置1について図10と図11に基づいて説明する。   Next, the living behavior storage device 1 according to the second embodiment of the present invention will be described with reference to FIGS.

図10は、本実施例の生活行動記憶装置1のブロック図である。本実施例の生活行動記憶装置1と実施例1の生活行動記憶装置1の異なる点は、通信部70が追加され、さらに複数の提示部61,62,63を有している点にある。   FIG. 10 is a block diagram of the living behavior storage device 1 of the present embodiment. The difference between the living behavior storage device 1 of the present embodiment and the living behavior storage device 1 of the first embodiment is that a communication unit 70 is added and a plurality of presentation units 61, 62, and 63 are provided.

実施例1では、利用者毎に変換規則と表示内容が異なっていたが、本実施例では、制御部90が各利用者に各提示部61,62,63から連絡するかどうかをリアルタイムに制御できる。   In the first embodiment, conversion rules and display contents differ for each user, but in this embodiment, the control unit 90 controls in real time whether or not each presentation unit 61, 62, 63 is contacted to each user. it can.

図8は、本実施例に対応する変換規則の例を示している。   FIG. 8 shows an example of conversion rules corresponding to this embodiment.

識別行動項目として「転倒」、利用者の種別として転倒の利用者が追加されている。転倒の利用者は、この場合、ホームセキュリティセンターの監視員などを想定している。   “Fall” is added as the identification action item, and the fall user is added as the user type. In this case, the fallen user is assumed to be a home security center monitor.

制御部90は、観測部10と知識記憶部30に対し、観測対象者の転倒を生活行動データとして検出するように制御する。この検出方法としては、例えば、加速度センサの値と、カメラで撮影した観測対象者の画像から検出する。   The control unit 90 controls the observation unit 10 and the knowledge storage unit 30 so as to detect the fall of the observation target person as life activity data. As this detection method, for example, the detection is performed from the value of the acceleration sensor and the image of the observation subject photographed by the camera.

観測対象者の転倒を生活行動データとして検出したときに、見守りの利用者は、転倒後の観測対象者の反応の有無にかかわらず、リアルタイムに転倒したことを連絡する。すなわち、観測対象者の転倒を検出すると、制御部90は、通信部70を介して、見守りの利用者の提示部61に観測対象者が転倒したことの連絡を送信する。   When the fall of the observation subject is detected as the living behavior data, the watching user notifies that the fall has occurred in real time regardless of whether the observation subject has reacted after the fall. That is, when the fall of the observation subject is detected, the control unit 90 transmits a notification that the observation subject has fallen to the presentation unit 61 of the watching user via the communication unit 70.

これに対し、転倒の利用者では、観測対象者の転倒を検出したときに、観測対象者の意識があるかどうかの確認を、提示部62を介して観測対象者に対して問い合わせる。そして、転倒した観測対象者から応答がなければ、リアルタイムに転倒の利用者の提示部63にその旨を連絡する。連絡を受け取った転倒の利用者は、救急車の手配などを行う。一方、観測対象者から応答があり、観測対象者が動けることが確認できれば、転倒の回数を2次記憶部50に記憶し、提示部61は転倒の利用者にその回数を提示する。   On the other hand, when the fall user detects the fall of the observation target, the user of the fall makes an inquiry to the observation target via the presentation unit 62 to confirm whether the observation target is conscious. If there is no response from the fallen observation subject, the fact is notified in real time to the presentation unit 63 of the fallen user. The user of the fall who received the communication arranges an ambulance. On the other hand, if there is a response from the observation subject and it can be confirmed that the observation subject can move, the number of falls is stored in the secondary storage unit 50, and the presentation unit 61 presents the number of falls to the user.

本実施例によれば、利用者毎の提示部にそれぞれ必要な生活行動データと提示内容を提示することにより、より細かく観測対象者の生活行動を取得できる。   According to the present embodiment, the living behavior of the person to be observed can be acquired in more detail by presenting the necessary living behavior data and the presentation content to the presentation unit for each user.

変更例Example of change

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の主旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1・・・生活行動記憶装置、10・・・観測部、20・・・1次記憶部、30・・・知識記憶部、40・・・抽出部、50・・・2次記憶部、60・・・提示部、70・・・変換部、80・・・規則記憶部、90・・・制御部   DESCRIPTION OF SYMBOLS 1 ... Living action storage device, 10 ... Observation part, 20 ... Primary storage part, 30 ... Knowledge storage part, 40 ... Extraction part, 50 ... Secondary storage part, 60 ... Presentation unit, 70 ... Conversion unit, 80 ... Rule storage unit, 90 ... Control unit

Claims (5)

観測対象者の観測情報を観測する観測部と、
前記観測情報を記憶する1次記憶部と、
利用者の種類毎に必要な生活行動データを前記観測情報から求めるための観測知識を記憶する知識記憶部と、
前記観測知識に基づいて、前記1次記憶部に記憶された前記観測情報から前記利用者の種類毎に必要な生活行動データをそれぞれ抽出する抽出部と、
前記生活行動データを記憶する2次記憶部と、
前記利用者の種類に応じて、前記2次記憶部に記憶した前記生活行動データを提示する提示部と、
を具備したことを特徴とする生活行動記憶装置。
An observation unit for observing observation information of the observation target;
A primary storage unit for storing the observation information;
A knowledge storage unit that stores observation knowledge for obtaining necessary living behavior data for each type of user from the observation information;
Based on the observation knowledge, an extraction unit that extracts life activity data necessary for each type of the user from the observation information stored in the primary storage unit;
A secondary storage unit for storing the living behavior data;
In accordance with the type of the user, a presentation unit that presents the living behavior data stored in the secondary storage unit;
A living behavior storage device comprising:
前記生活行動データから、前記利用者の種類毎に必要な提示内容に変換するための変換規則を記憶する規則記憶部と、
前記変換規則に基づいて、前記生活行動データを前記提示内容に変換する変換部と、
をさらに具備し、
前記提示部は、前記生活行動データと共に前記提示内容を提示する、
ことを特徴とする請求項1に記載の生活行動記憶装置。
A rule storage unit for storing a conversion rule for converting from the living behavior data to a presentation content necessary for each type of the user;
Based on the conversion rule, a conversion unit that converts the living behavior data into the presentation content;
Further comprising
The presenting unit presents the presentation content together with the living behavior data.
The living activity storage device according to claim 1, wherein:
異なる利用者毎に、前記生活行動データと前記提示内容をそれぞれ送信する通信部をさらに具備する、
ことを特徴とする請求項2に記載の生活行動記憶装置。
For each different user, further comprising a communication unit that transmits the living behavior data and the presentation content,
The living activity storage device according to claim 2, wherein:
前記観測部は、少なくとも加速度センサを有し、前記観測部は、前記加速度センサを用いて、前記観測対象者の加速度を前記観測情報として検出し、
前記抽出部は、前記観測知識と前記加速度に基づいて、前記観測対象者の歩行距離、又は、歩数を生活行動データとして抽出する、
ことを特徴とする請求項3に記載の生活行動記憶装置。
The observation unit includes at least an acceleration sensor, and the observation unit detects acceleration of the observation target as the observation information using the acceleration sensor,
The extraction unit extracts the walking distance of the person to be observed or the number of steps as living behavior data based on the observation knowledge and the acceleration.
The living behavior storage device according to claim 3.
前記規則変換部が記憶している前記変換規則は、前記歩行距離、又は、前記歩数が、前記利用者の種類毎に設定された閾値を超えた場合に、前記利用者の種類毎に提示する前記提示内容がそれぞれ記述されており、
前記変換部は、前記歩行距離、又は、前記歩数と、前記利用者の種類毎の前記閾値とを比較して、前記歩行距離、又は、前記歩数が前記利用者の種類毎の前記閾値を超えている場合は、前記閾値を超えた前記利用者の種類に対応した前記提示内容を前記変換規則から呼び出す、
ことを特徴とする請求項4に記載の生活行動記憶装置。
The conversion rule stored in the rule conversion unit is presented for each type of user when the walking distance or the number of steps exceeds a threshold set for each type of user. Each of the presentation contents is described,
The conversion unit compares the walking distance or the number of steps with the threshold value for each type of user, and the walking distance or the number of steps exceeds the threshold value for each type of user. If so, call the presentation content corresponding to the type of user exceeding the threshold from the conversion rule,
The living activity storage device according to claim 4, wherein:
JP2010207634A 2010-09-16 2010-09-16 Living behavior storage device Active JP5225344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010207634A JP5225344B2 (en) 2010-09-16 2010-09-16 Living behavior storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010207634A JP5225344B2 (en) 2010-09-16 2010-09-16 Living behavior storage device

Publications (2)

Publication Number Publication Date
JP2012063977A true JP2012063977A (en) 2012-03-29
JP5225344B2 JP5225344B2 (en) 2013-07-03

Family

ID=46059626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010207634A Active JP5225344B2 (en) 2010-09-16 2010-09-16 Living behavior storage device

Country Status (1)

Country Link
JP (1) JP5225344B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108364443A (en) * 2018-04-23 2018-08-03 孙其国 A kind of female type intelligent monitoring and controlling device, system and method
JP2021140802A (en) * 2017-07-04 2021-09-16 株式会社Nttドコモ Information processing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253516A (en) * 2001-03-06 2002-09-10 Matsushita Electric Ind Co Ltd Data processing device for health support service
JP2006254948A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Health management support system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253516A (en) * 2001-03-06 2002-09-10 Matsushita Electric Ind Co Ltd Data processing device for health support service
JP2006254948A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Health management support system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140802A (en) * 2017-07-04 2021-09-16 株式会社Nttドコモ Information processing apparatus
JP7104207B2 (en) 2017-07-04 2022-07-20 株式会社Nttドコモ Information processing equipment
CN108364443A (en) * 2018-04-23 2018-08-03 孙其国 A kind of female type intelligent monitoring and controlling device, system and method

Also Published As

Publication number Publication date
JP5225344B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
Pannurat et al. Automatic fall monitoring: A review
Kaluža et al. An agent-based approach to care in independent living
Camp et al. Technology used to recognize activities of daily living in community-dwelling older adults
Wagner et al. A review of monitoring technology for use with older adults
US10813572B2 (en) Intelligent system for multi-function electronic caregiving to facilitate advanced health diagnosis, health monitoring, fall and injury prediction, health maintenance and support, and emergency response
Ganyo et al. Ethical issues in the use of fall detectors
JP2012194808A (en) Infection notification method and infection notification device
KR20200104759A (en) System for determining a dangerous situation and managing the safety of the user
Rafferty et al. Fall detection through thermal vision sensing
KR20200104758A (en) Method and apparatus for determining a dangerous situation and managing the safety of the user
WO2016096935A1 (en) Device, system and method for assessing the ability of a person to carry out one or more activities
JP5225344B2 (en) Living behavior storage device
Nugent et al. Managing sensor data in ambient assisted living
US20200375505A1 (en) Method and apparatus for health prediction by analyzing body behaviour pattern
JP2014092945A (en) Physical condition determination system and physical condition determination method
JP4665490B2 (en) Life support device
Sukreep et al. Recognizing Falls, Daily Activities, and Health Monitoring by Smart Devices.
Wang et al. Monitoring for elderly care: the role of wearable sensors in fall detection and fall prediction research
JP7388200B2 (en) Method of providing information to support rehabilitation and rehabilitation support system
JP7327397B2 (en) Computer-implemented programs, information processing systems, and computer-implemented methods
JP2018022429A (en) Detection system, detection method and program
Jähne-Raden et al. Wireless sensor network for fall prevention on geriatric wards: A report
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
Kaluža et al. A multi-agent system for remote eldercare
Broadley How to build better fall detection technology: a search for characteristics unique to falls and methods to robustly evaluate performance

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130312

R151 Written notification of patent or utility model registration

Ref document number: 5225344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3