JP2020009378A - Monitoring device - Google Patents
Monitoring device Download PDFInfo
- Publication number
- JP2020009378A JP2020009378A JP2018132581A JP2018132581A JP2020009378A JP 2020009378 A JP2020009378 A JP 2020009378A JP 2018132581 A JP2018132581 A JP 2018132581A JP 2018132581 A JP2018132581 A JP 2018132581A JP 2020009378 A JP2020009378 A JP 2020009378A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- subject
- motion
- learning
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 60
- 239000000284 extract Substances 0.000 claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims description 78
- 230000005856 abnormality Effects 0.000 claims description 43
- 230000002159 abnormal effect Effects 0.000 claims description 41
- 230000009471 action Effects 0.000 claims description 20
- 238000012544 monitoring process Methods 0.000 claims description 16
- 230000000694 effects Effects 0.000 claims description 5
- 206010000117 Abnormal behaviour Diseases 0.000 claims description 2
- 230000008859 change Effects 0.000 description 42
- 238000012545 processing Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 208000028752 abnormal posture Diseases 0.000 description 17
- 238000007726 management method Methods 0.000 description 17
- 238000005259 measurement Methods 0.000 description 16
- 230000000474 nursing effect Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 10
- 238000013500 data storage Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 10
- 230000007937 eating Effects 0.000 description 8
- 230000035622 drinking Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 235000012054 meals Nutrition 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000010349 pulsation Effects 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 206010019468 Hemiplegia Diseases 0.000 description 1
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 229910003798 SPO2 Inorganic materials 0.000 description 1
- 101100478210 Schizosaccharomyces pombe (strain 972 / ATCC 24843) spo2 gene Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000004207 dermis Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003743 erythrocyte Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、居宅や施設等において特定の対象者を監視する監視装置に関する。 The present invention relates to a monitoring device that monitors a specific target person in a home, a facility, or the like.
従来、監視カメラにより撮像された画像データに基づいて、対象者の動作が異常であるか否かを判定し、異常を報知するようにした装置が知られている(例えば特許文献1参照)。特許文献1の装置では、自動取引装置を使用するときの一連の標準的な動作を学習し、対象者の動作が標準的な動作から外れている場合に異常と判定する。
2. Description of the Related Art Conventionally, there has been known an apparatus that determines whether or not an operation of a target person is abnormal based on image data captured by a surveillance camera and reports the abnormality (for example, see Patent Document 1). In the device of
上記特許文献1記載の装置では、対象者の動作を標準的な動作と比較して異常であるか否かを判定するため、対象者の身体の状態などに応じた特徴的な動作については、正確に判定することができない。しかしながら、特に介護の目的で24時間体勢の監視を行う場合などには、身体の状態などが異なる対象者ごとに異常な動作(異変)を判定することが望まれる。
In the device described in
本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作を学習する動作学習部と、動作学習部により学習された動作を記憶する動作記憶部と、動作記憶部により記憶された動作に基づいて、対象者の動作を判定する動作判定部と、を備える。 One embodiment of the present invention is a monitoring device that monitors a specific target person, an operation learning unit that learns the operation of the target person, an operation storage unit that stores the operation learned by the operation learning unit, and an operation storage An operation determining unit that determines an operation of the subject person based on the operation stored by the unit.
本発明によれば、監視対象者ごとに動作を検出することができる。 According to the present invention, an operation can be detected for each monitoring target person.
以下、図1〜図8を参照して本発明の実施形態について説明する。本発明の実施形態に係る監視装置は、特定の対象者を常時見守るために、例えば介護施設の居室などに設置され、腰が曲がっているなどの身体の状態によって通常の動作が標準的な動作とは異なる対象者につき、報知すべき異常な動作を含む種々の動作を学習して判定するものである。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. The monitoring device according to the embodiment of the present invention is installed in a living room of a nursing care facility, for example, to constantly monitor a specific target person, and a normal operation is performed according to a physical condition such as a bent back. The determination is made by learning various operations including an abnormal operation to be reported for a different target person.
図1は、本発明の実施形態に係る監視装置1A,1B(以下、1と総称する)の設置の一例を概略的に示す図である。監視装置1は、監視カメラなどにより構成され、介護施設の居室や独居の高齢者の自宅など見守り対象者が一人で過ごす場所に設置されて対象者の見守り監視を行う。監視装置1により出力される画像データなどは、介護施設のナースステーションに設置された端末や、見守り対象者の家族の携帯端末などに送信される。図1は、監視装置1を介護施設の居室に設置する場合の一例である。居室は、例えば、図1に左側から示すように、居室の出入口、間仕切られたエリアAR1(トイレなど)、対象者が歩いて移動するエリアAR2(洗面エリアなど)、対象者が主に臥位で過ごすエリアAR3(ベッドなどが置かれたエリア)により構成される。
FIG. 1 is a diagram schematically illustrating an example of installation of
図1に示すように、監視装置1Aは、出入口とは反対側の壁等に設置される。監視装置1Aは、対象者の居室への入室や居室からの退出を監視し、エリアAR2における対象者の歩行等の動作を監視し、エリアAR3における対象者の就寝中の様子を上方から監視する。監視装置1Bは、間仕切られたエリアAR1の天井等、対象者が気にならないような位置に設置される。図1では、監視装置1A,1Bを設置する例を示すが、監視装置1の設置台数は、居室の広さやレイアウトによって1台または3台以上としてもよい。
As shown in FIG. 1, the
図2は、監視装置1の斜視図である。監視装置1は、略電球形状の筐体11を備える。筐体11は、一端部において、ねじ部12aが形成された導電性の口金部12を有する。ねじ部12aは、例えば壁面に取り付け可能なスタンドの先端部のソケットに螺合され、口金部12を介して本体に電力が供給される。壁面に取り付けられたダクトレールのソケットに螺号されるようにしてもよい。筐体11の他端部には、透光性を有する樹脂材により構成されるカバー13が取り付けられる。このような電球形状とすることにより、監視装置1は、市販の電球のように簡易に設置できるとともに、一般的な監視カメラが対象者に与える「見張られている」という意識を低減することができる。
FIG. 2 is a perspective view of the
図3は、監視装置1の断面図である。図示のように、筐体11内には、見守り対象者を撮像するカメラ14と、カメラ14の周囲に周方向等間隔に配置された複数(例えば8個)のLED15と、カメラ14の周囲に周方向等間隔に配置された3個のコントローラ20,30,40(コントローラ群50)とが配置され、口金部12および図示しないケーブルなどを介してこれらに外部から電力が供給される。カメラ14は、図示しないケーブルなどを介してコントローラ20,30,40のそれぞれに接続される。筐体11には排熱用のスリット11sが設けられる(図1)。コントローラ群50は、ナースステーションに設置されたナースコール親機(ナースコールボード)などの報知部や、介護記録の作成、管理を行うための管理用端末(例えば、介護スタッフ用のノートパソコンなど)に、有線または無線で電気的に接続される。なお、図示は省略するが、各コントローラ20,30,40には、USB(Universal Serial Bus)などの外部入力ポートが設けられる。
FIG. 3 is a sectional view of the
カメラ14は、見守り対象者を常時撮像し、その画像データをコントローラ群50に送信する。カメラ14としては、例えば5〜10倍程度の光学ズーム機能を有する通常のRGBカメラを使用する。図3に示すように、カメラ14は、レンズ部がカバー13の表面と平行となるように、筐体11内の中央に配置される。カメラ14は、レンズ部がカバー13に固定され、本体部が筐体11に設けられたレール11rに沿って矢印で示す筐体11の長さ方向に移動可能であり、これにより倍率を適宜調整することができる。
The
LED15は、例えば、高輝度白色LEDにより構成される。LED15は、照射面がカバー13の表面と平行となるように配置される。なお、対象者の就寝中など居室が暗い状態で見守り監視を行う場合には、カメラ14として通常のRGBカメラに代えて赤外線カメラを使用し、LED15として高輝度白色LEDに代えて赤外線LEDを使用してもよい。カメラ14として赤外線カットフィルタを除去したRGBカメラを使用するとともに、LED15として高輝度白色LEDと赤外線LEDとを交互にカメラ14の周囲に周方向等間隔に配置して使用してもよい。
The
ここで、ナースコールや監視カメラなどの従来の見守りシステムの課題について説明する。従来のナースコールによる見守りシステムでは、対象者本人が異変を感じたときに、対象者自身が居室のナースコール子機を操作することで介護スタッフなどへの報知が行われる。このため、対象者本人が意識を失った場合や動けなくなった場合には報知を行うことができない。また、従来の監視カメラによる見守りシステムでは、監視カメラの映像を介護スタッフなどが見て対象者に異変があるか否かを判断する。このため、一人の介護スタッフが複数の対象者の見守りを行う場合や、独居の対象者を一人の家族が常時監視する場合などには、見落としや見過ごしによって対象者の異変に気付くのが遅れることがある。例えば、対象者が転倒やむせ込みにより意識を失ったり動けなくなったりした場合には、介護スタッフなどが気付くまでの間、対象者は放置されることになる。 Here, problems of a conventional watching system such as a nurse call or a surveillance camera will be described. In the conventional nurse call monitoring system, when the target person feels something unusual, the target person himself / herself operates the nurse call slave unit in the living room to notify the care staff and the like. For this reason, when the target person loses consciousness or cannot move, the notification cannot be performed. In a conventional monitoring system using a surveillance camera, a care staff or the like looks at an image of the surveillance camera and determines whether or not there is any abnormality in the target person. For this reason, when one care staff watches over multiple subjects, or when a single family member constantly monitors a single person, delay in noticing the target person's abnormality due to oversight or oversight is delayed. There is. For example, if the subject loses consciousness or becomes unable to move due to a fall or depression, the subject is left unattended until the care staff or the like notices.
そこで、本発明の実施形態では、異変があったときの異常な動作(異常動作)を含む見守り対象者の種々の動作を動作モデルとして学習し、監視カメラ(カメラ14)により撮像された見守り対象者の動作が異常動作であるか否かを判定することで、対象者の異変を自動的に検出するように構成する。 Therefore, in the embodiment of the present invention, various operations of the watching target person including an abnormal operation (abnormal operation) when an abnormality occurs are learned as an operation model, and the watching target captured by the monitoring camera (camera 14) is learned. By determining whether or not the user's operation is an abnormal operation, an abnormality of the target person is automatically detected.
高齢者など介護を必要とする見守り対象者の動作は、腰が曲がっているなどの身体の状態に応じて、標準的な成人の標準的な動作とは異なることがある。このような場合には、標準的な動作を事前に学習し、監視カメラにより撮像された見守り対象者の動作と比較して異変を検出することは難しい。例えば、腰が曲がったまま移動する動作のように、その対象者にとっては問題のない動作を異常動作と判定してしまう可能性がある。 The operation of the watching target who needs care, such as the elderly, may be different from the standard operation of a standard adult depending on the state of the body such as bending. In such a case, it is difficult to learn the standard operation in advance, and to detect an abnormality as compared with the operation of the watching target imaged by the monitoring camera. For example, there is a possibility that an operation that has no problem for the subject, such as an operation of moving while the hip is bent, may be determined as an abnormal operation.
このような誤検出を防ぐため、監視装置1では、見守り対象者ごとに動作モデルを学習し、対象者ごとに動作を判定して異変を検出する。具体的には、見守り対象者の介護記録などに基づいて、その対象者ごとに想定される報知すべき異常動作を含む種々の動作を事前に介護スタッフなどが実演し、動作モデルとして学習する。例えば、腰が曲がっている対象者を見守る監視装置1であれば、腰が曲がった状態で移動する動作や転倒する動作などを動作モデルとして学習する。また、対象者の見守り監視中に実際の対象者の動作を動作モデルとしてさらに学習することで、動作モデルをその対象者の実情により見合ったものに更新する。
In order to prevent such erroneous detection, the
上記したような動作モデルの学習と、動作および異変の判定とを実現可能な監視装置1の構成について説明する。
The configuration of the
図4は、監視装置1の構成を概略的に示すブロック図である。監視装置1は、カメラ14と、カメラ14に電気的に接続されるコントローラ群50と、コントローラ群50に有線または無線で電気的に接続される報知部16と、管理用端末17とを有する。コントローラ群50は、相互に通信可能に構成されたコントローラ20,30,40を含んで構成される。
FIG. 4 is a block diagram schematically illustrating a configuration of the
報知部16は、例えば介護施設のナースステーションに設置されたナースコール親機であり、コントローラ群50からの指令に応じて、介護スタッフなどへの報知を行う。報知部16は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が独居の対象者の居宅に設置される場合には、報知部16を医療機関の端末などとしてもよい。また、上記の端末を組み合わせて報知部16としてもよい。
The
管理用端末17は、例えば介護施設の介護スタッフが介護記録の作成、管理に使用するノートパソコンであり、介護記録に含まれる対象者の行動予定や、対象者の動作の判定結果等のテキストデータをコントローラ群50との間で送受信する。管理用端末17は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が医療施設に入院中の対象者の見守りに適用される場合には、管理用端末17を医療機関の端末などとして、介護記録を作成するようにしてもよい。また、複数の端末を組み合わせて管理用端末17としてもよい。
The
コントローラ20は、GPU(Graphics Processing Unit:画像処理装置)21、ROM,RAMなどのメモリ22、その他の周辺回路を有するコンピュータを含んで構成される。
The
GPU21は、機能的構成として、見守り対象者の動作モデルに基づいて現在の動作を判定する動作判定部211と、対象者の姿勢モデルに基づいて現在の姿勢を判定する姿勢判定部212と、姿勢判定部212により判定された姿勢をコントローラ30に出力する出力部213とを有する。動作判定部211と姿勢判定部212とをそれぞれ別のGPUにより構成してもよい。
The
メモリ22は、機能的構成として、移動、食事、睡眠などの通常の動作と、転倒や誤嚥などの異常動作とを含む対象者の動作のモデルを記憶する動作モデル記憶部221と、立位、座位、臥位などの対象者の姿勢のモデルを記憶する姿勢モデル記憶部222とを有する。
The
コントローラ30は、CPU(Central Processing Unit:中央演算処理装置)31、ROM,RAMなどのメモリ32、その他の周辺回路を有するコンピュータを含んで構成される。
The
CPU31は、機能的構成として、異常な姿勢変化の判定条件に基づいて出力部213により出力された対象者の姿勢の変化が異常であるか否かを判定するとともに異変の種類を特定する異常姿勢変化判定部311と、カメラ14からの画像データに基づいて対象者の心拍数、血圧、呼吸数、血中酸素飽和度(SPO2)、体温などのバイタルサインを測定するバイタル測定部312と、バイタル測定部312による現在の測定値などに基づいて対象者に異変が生じたか否かを判定するとともに異変の種類を特定する異変判定部313と、異常姿勢変化判定部311および異変判定部313の判定結果に応じて報知部16および管理用端末17に異変の情報を出力する異変情報出力部314と、異常姿勢変化判定部311および異変判定部313により特定された異変の種類に応じてカメラ14からの画像データのうち対象者の異常動作として学習すべき時刻tps〜tpe,tvs〜tveを決定する学習時刻決定部315と、学習時刻決定部315により決定された時刻tps〜tpe,tvs〜tveの画像データを抽出し、異常姿勢変化判定部311および異変判定部313により特定された異変の種類とともに対象者の動作(異常動作)の学習データとしてコントローラ40に出力する学習データ出力部316とを有する。
The
バイタル測定部312は、カメラ14からの画像データに基づいて対象者の各種バイタルサインを測定する。例えば、心拍数は、カメラ14によって受光される光の受光強度の変動に基づいて測定することができる。RGBカメラにより受光される3成分の光のうち、波長の短い青(B)成分の光は対象者の皮膚表面で反射し、それより波長の長い緑(G)成分の光は毛細血管の存在する真皮層にまで浸透し、血液中の赤血球に含まれるヘモグロビンにより吸収される。すなわち、青(B)成分の受光強度は居室の明るさ(環境光)に応じて変動し、緑(G)成分の受光強度は対象者の脈動に応じて変動する。したがって、これらの受光強度の変動に基づいて、環境光の影響を受けずに脈動周期(心拍数)を測定することができる。
The
メモリ32は、機能的構成として、対象者の介護記録などに基づいて予め入力される食事や入退室などの対象者の行動予定を記憶する行動予定記憶部321と、対象者に異変があるときの異常な姿勢の変化(姿勢変化)の判定条件を異変の種類ごとに記憶する異常姿勢変化判定条件記憶部322と、対象者のバイタルサインの測定値などに基づく異変の判定条件を異変の種類ごとに記憶する異変判定条件記憶部323と、バイタル測定部312により測定された対象者のバイタルサインの測定値を記憶するバイタル測定値記憶部324とを有する。異常な姿勢変化の判定条件の一例として、例えば、転倒を判定する場合には、対象者の姿勢が一定の時間以内(例えば3秒以内)に立位から臥位に変化することなどを条件とする。また、誤嚥を判定する場合には、行動予定に基づいて食事中であると推定され、かつ、心拍数が所定値(例えば100回/分)を超えることなどを条件とする。
The
コントローラ40は、GPU(Graphics Processing Unit:画像処理装置)41、ROM,RAMなどのメモリ42、その他の周辺回路を有するコンピュータを含んで構成される。
The
GPU41は、機能的構成として、対象者の動作の学習データに基づいて動作の特徴に相当する特徴量を抽出して学習し、対象者の動作の学習モデルを生成する動作学習部411と、対象者の姿勢の学習データに基づいて姿勢の特徴量を抽出して学習し、対象者の姿勢の学習モデルを生成する姿勢学習部412と、対象者の動作および姿勢の学習モデルをコントローラ20の動作モデル記憶部221および姿勢モデル記憶部222に出力する出力部413とを有する。
The
メモリ42は、機能的構成として、学習データ出力部316により出力された対象者の動作の学習データを動作の種類ごとに記憶する動作学習データ記憶部421と、予めカメラ14により撮像された対象者の姿勢の学習データ(画像データ)を姿勢の種類ごとに記憶する姿勢学習データ記憶部422とを有する。動作学習データ記憶部421には、学習データ出力部316により出力された学習データに加え、予めカメラ14により撮像された対象者の動作の学習データを動作の種類ごとに記憶するように構成してもよい。
The
動作学習部411および姿勢学習部412は、画像データの学習に適した既知の機械学習プログラム、例えば多層のニューラルネットワークによる機械学習手法である深層学習(Deep Learning)により画像データの教師あり学習を行う。すなわち、動作学習部411は、動作学習データ記憶部421により動作の種類ごとに記憶、蓄積された画像データ(時刻tps〜tpe,tvs〜tveの画像データなど)を学習し、動作の種類ごとの動作モデルを生成する。また、姿勢学習部412は、姿勢学習データ記憶部422により姿勢の種類ごとに記憶、蓄積された画像データを学習し、姿勢の種類ごとの姿勢モデルを生成する。学習後の動作モデルおよび姿勢モデルは、出力部413によりコントローラ20に出力され、動作モデル記憶部221および姿勢モデル記憶部222にそれぞれ記憶され、更新される。
The
コントローラ20の動作判定部211は、動作モデル記憶部221に記憶された対象者の最新の動作モデルに基づいて、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、姿勢モデル記憶部222に記憶された対象者の最新の姿勢モデルに基づいて、対象者の現在の姿勢を判定する。
The
より具体的には、動作判定部211は、カメラ14からの画像データにおける対象者の現在の動作の特徴量を抽出し、対象者の動作モデルと比較して、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、画像データにおける対象者の現在の姿勢の特徴量を抽出し、姿勢モデル記憶部222に記憶された対象者の姿勢モデルの特徴量と比較して、対象者の現在の姿勢を判定する。学習モデル(異常動作モデル、姿勢モデル)との相関度合が最も高い動作または姿勢が、現在の動作または姿勢として判定される。なお、動作判定部211は、画像データにおける対象者の現在の動作に基づいて、動作の絶対量(活動量)を算出することもできる。バイタルサインとともに活動量の変化を記録しておくことで、事故や疾病だけでなく認知症の初期症状を判定することができる。
More specifically, the
図5Aは、予めコントローラ群50のメモリ22,32,42に記憶されたプログラムに従いコントローラ群50のGPU21,41およびCPU31で実行される、画像データに基づく動作判定処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば監視装置1の電源オン時に開始され、所定周期で繰り返される。まず、ステップS1で、動作判定部211での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS2で、動作モデル記憶部221に記憶された動作モデルに基づいて現在の画像データにおける対象者の動作を判定し、ステップS3で、その動作が異常動作であるか否か判定する。ステップS3で肯定されるとステップS4に進み、否定されると処理を終了する。ステップS4では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。
FIG. 5A is a flowchart illustrating an example of an operation determination process based on image data, which is executed by the
図5Bは、コントローラ群50で実行される、画像データに基づく姿勢判定処理の一例を示すフローチャートである。まず、ステップS10で、姿勢判定部212での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS11で、姿勢モデル記憶部222に記憶された姿勢モデルに基づいて現在の画像データにおける対象者の姿勢を判定する。次いで、ステップS12で、出力部213での処理により、姿勢判定部212により判定された対象者の現在の姿勢のデータを異常姿勢変化判定部311に出力する。
FIG. 5B is a flowchart illustrating an example of a posture determination process performed by the
図6Aは、コントローラ群50で実行される、姿勢データに基づく異変判定処理の一例を示すフローチャートである。まず、ステップS20で、異常姿勢変化判定部311での処理により、出力部213により出力された対象者の現在の姿勢のデータを読み込む。次いで、ステップS21で、異常姿勢変化判定条件記憶部322に記憶された異常な姿勢変化の判定条件に基づいて、前回以前に読み込んだ姿勢と今回読み込んだ姿勢との間の姿勢変化が異常であるか否かを判定するとともに、異変の種類を特定する。ステップS21で肯定されるとステップS22に進み、否定されると処理を終了する。ステップS22では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。
FIG. 6A is a flowchart illustrating an example of an anomaly determination process performed by the
次いで、ステップS23では、学習時刻決定部315での処理により、異常姿勢変化判定部311により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tps〜tpeを決定する。次いで、ステップS24で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tps〜tpeの画像データを抽出して対象者の動作の学習データとして出力する。
Next, in step S23, the learning
図6Bは、コントローラ群50で実行される、測定値に基づく異変判定処理の一例を示すフローチャートである。まず、ステップS30で、バイタル測定部312での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS31で、画像データに基づいて対象者の現在のバイタルサインを測定する。次いで、ステップS32で、異変判定部313での処理により、バイタル測定部312による測定値と、行動予定記憶部321により記憶された対象者の行動予定と、異変判定条件記憶部323により記憶された異変の判定条件とに基づいて、対象者に異変が生じたか否かを判定するとともに、異変の種類を特定する。ステップS32で肯定されるとステップS33に進み、否定されると処理を終了する。ステップS33では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。
FIG. 6B is a flowchart illustrating an example of the abnormal change determination process based on the measurement value, which is executed by the
次いで、ステップS34では、学習時刻決定部315での処理により、異変判定部313により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tvs〜tveを決定する。次いで、ステップS35で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tvs〜tveの画像データを抽出して対象者の動作の学習データとして出力する。
Next, in step S34, the time tvs to tve to be learned as the abnormal motion of the subject is determined by the process of the learning
図7は、コントローラ群50で実行される、動作の学習処理の一例を示すフローチャートである。このフローチャートに示す処理は、図5A〜図6Bのフローチャートの処理とは異なり、監視装置1を管理するユーザが適宜なスイッチなどを介して入力する指示に応じて随時開始される。まず、ステップS40で、動作学習部411での処理により、学習データ出力部316により出力され、動作学習データ記憶部421に記憶された対象者の動作の学習データを読込む。次いで、ステップS41で、対象者の動作を学習し、ステップS42で、動作モデルを生成する。次いで、ステップS43で、出力部413での処理により、動作学習部411により生成された動作モデルをコントローラ20の動作モデル記憶部221に出力する。
FIG. 7 is a flowchart illustrating an example of an operation learning process performed by the
姿勢の学習処理も動作の学習処理と同様に実行される。すなわち、姿勢学習部412での処理により姿勢学習データ記憶部422に記憶された対象者の姿勢の学習データを読込み(S40)、対象者の姿勢を学習し(S41)、姿勢モデルを生成し(S42)、出力部413での処理により姿勢モデルをコントローラ20の姿勢モデル記憶部222に出力する(S43)。
The posture learning process is executed in the same manner as the operation learning process. That is, the learning data of the posture of the subject stored in the posture learning
本実施形態に係る監視装置1の主要な動作についてより具体的に説明する。図8は、監視装置1の動作を説明するための図である。図8には、図の上から、姿勢判定部212により判定された対象者の姿勢、行動予定記憶部321により記憶された対象者の行動予定、異常姿勢変化判定部311による異常な姿勢変化の判定結果、バイタル測定部312により測定されたバイタルサインの一例として心拍数、および異変判定部313による異変の判定結果が、それぞれ時系列で示される。
The main operation of the
監視装置1により、例えば介護施設に入居する腰が曲がった高齢の対象者の見守りを行うと仮定する。介護施設の居室に一人でいる対象者が時刻tps〜tpeにおいて転倒すると、居室に設置された監視装置1により姿勢変化が異常であると判定されるとともに、転倒が発生したことが特定される(S10〜S12,S20〜S21)。対象者の異変は、ナースステーションに設置されたナースコールボード(報知部16)を介して介護スタッフに報知される(S22)。このため、対象者が転倒によって動けなくなるなどして自身でナースコールを使用できない場合でも、介護スタッフに異変を報知することができる。また、介護スタッフが監視カメラ14の映像から目を離しているときであっても、監視装置1による報知によって対象者の異変に気付くことができる。また、対象者の異変の情報は、介護スタッフのノートパソコン(管理用端末17)にも送信される(S22)。これにより、対象者に発生した異変の種類や発生時刻などの情報が介護記録のフォーマットなどに自動的に記録され、介護スタッフの事務負担を軽減することができる。
For example, it is assumed that the
対象者に転倒が発生したと推定される時刻tps〜tpeの画像データが、転倒の動作の学習データとして抽出され、蓄積される(S23,S24)。監視装置1のユーザは、ソケットから取り外してカバー13を外した監視装置1を、USBケーブル等を介してパソコン等のユーザ端末に接続し、コントローラ40のメモリ42に記憶、蓄積された動作の学習データの蓄積状態等を確認することができる。ユーザが、転倒の動作の学習に必要な量の学習データの蓄積を確認し、転倒の動作の学習開始を指示すると、コントローラ40による学習が開始され、学習モデルが生成されて、コントローラ20の学習モデルが更新される(S40〜S43)。動作の判定に用いられる学習モデルが、介護スタッフなどの実演をもとに生成された動作モデルから、実際の対象者による動作の学習モデルへと更新されることで、対象者の動作を判定する精度が向上する。
Image data at times tps to tpe at which it is estimated that the subject has fallen is extracted and accumulated as learning data of the fall operation (S23, S24). The user of the
対象者が食事中に誤嚥が発生し、むせ込みにより、時刻taにおいて対象者の心拍数が所定値(例えば100回/分)を超えて上昇すると、監視装置1により誤嚥(異変)が発生したと判定される(S31〜S33)。誤嚥および誤嚥のきっかけがあったと推定される時刻tvs〜tveの画像データが、誤嚥の動作の学習データとして抽出、蓄積され、ユーザの指示に応じて学習される(S34,S35,S40〜S43)。動作の学習データとして抽出される時刻は、異変の種類に応じて決定されるため、異変が発生する前の動作を含めて学習することができる。例えば、誤嚥が発生する前の動作である飲食時の不適切な姿勢を含めて学習することができる。
If the subject's aspiration occurs during a meal and the subject's heart rate rises above a predetermined value (for example, 100 times / minute) at time ta due to choking, the
誤嚥の動作モデルが更新された後、飲食時の対象者が誤嚥につながる不適切な姿勢をとると、監視装置1により誤嚥の動作(誤嚥につながる動作)であると判定され、対象者の異変が報知される(S1〜S3)。報知を受けた介護スタッフが、対象者の居室へ駆けつけ、あるいはナースコールなどにより、対象者の飲食時の姿勢を注意することができる。対象者が一人で飲食する場合であっても、誤嚥の発生を未然に防ぐことができる。また、誤嚥につながる姿勢を対象者ごとに学習するため、背骨の曲がりや片麻痺等により飲食時の適切な姿勢が標準的な成人の姿勢とは異なる対象者にも適用することができる。なお、介護スタッフなどが飲食時の対象者を介助するときに、その対象者の状態に応じて、様子を見ながら、誤嚥につながる姿勢を判断し、そのときの姿勢を誤嚥の動作として学習させることもできる。すなわち、見守り対象者ごとに異常な動作を検出することができる。
If the subject at the time of eating or drinking takes an inappropriate posture that leads to aspiration after the aspiration operation model is updated, the
監視装置1には、コントローラ30のメモリ32に、対象者の行動予定およびバイタルサインの測定値が時系列で記憶される。見守り対象者が医療機関を受診するとき、これらのデータを医師に提示することもできる。食事や起床などの行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。
In the
本実施形態によれば以下のような作用効果を奏することができる。
(1)特定の見守り対象者を監視する監視装置1は、見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の動作の学習モデルを生成する動作学習部411と、動作学習部411により生成された動作の学習モデルを記憶する動作モデル記憶部221と、動作モデル記憶部221により記憶された動作の学習モデルに基づいて、見守り対象者の動作を判定する動作判定部211とを備える(図4)。対象者ごとに動作を学習することにより、身体の状態などが異なる対象者ごとに異常な動作(異変)を含む動作を判定することができる。
According to the present embodiment, the following effects can be obtained.
(1) The
(2)監視装置1は、見守り対象者のバイタルサインを測定するバイタル測定部312と、バイタル測定部312により測定されたバイタルサインに基づいて、見守り対象者に異変が生じたか否かを判定する異変判定部313とをさらに備える(図4)。動作学習部411は、異変判定部313により見守り対象者に異変が生じたと判定されたときの見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の異常動作の学習モデルを生成する。これにより、バイタルサインの変化に基づいて、自動的に、異変が生じたときの動作や異変が生じる前後の動作の学習データを抽出することができる。
(2) The
(3)監視装置1は、見守り対象者の行動予定を取得する管理用端末17をさらに備える(図4)。異変判定部313は、さらに管理用端末17により取得された行動予定に基づいて、見守り対象者に異変が生じたかを判定する。対象者の行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。
(3) The
なお、上記実施形態は種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、監視装置1が特定の対象者の動作を学習し、学習された動作に基づいてその対象者の動作を判定するようにしたが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、特定の身体状態の対象者に監視装置を適用して、その身体状態に応じた動作モデルを学習し、学習された動作モデルを用いて同様の身体状態の別の対象者の動作を判定してもよい。
The above embodiment can be modified into various forms. Hereinafter, modified examples will be described. In the above embodiment, the
上記実施形態では、バイタル測定部312がカメラ14からの画像データに基づいて対象者のバイタルサインを測定するようにしたが、対象者の生体情報を取得する生体情報取得部の構成はこのようなものに限らない。対象者が装着するタイプのバイタルセンサの測定値を有線または無線で取得してもよい。
In the above-described embodiment, the
上記実施形態では、管理用端末17により作成された介護記録に含まれる対象者の行動予定のテキストデータをコントローラ群50に送信するようにしたが、対象者の行動予定を取得する行動予定取得部の構成はこのようなものに限らない。例えば、コントローラ群50側で行われる動作の判定として、カメラ14からの画像データに基づいて食事や睡眠などの対象者の行動を自動的に判定し、判定された行動を介護記録用のテキストデータとして管理用端末17に出力してもよい。
In the above embodiment, the text data of the subject's behavior included in the nursing care record created by the
上記実施形態では、監視装置1が本体内にカメラ14を含むように構成したが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、監視装置とは別の監視カメラなどから有線または無線で対象者の画像データを取得し、取得した画像データに基づいて動作の学習および判定を行うようにしてもよい。この場合、例えばONVIF(Open Network Video Interface Forum)等のネットワークカメラの標準化規格に対応することで、異なるメーカーの監視カメラの画像データを学習用データとして利用することができる。
In the above embodiment, the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or more of the above-described embodiment and the modifications, and it is also possible to combine the modifications.
1(1A,1B) 監視装置、11 筐体、11r レール、11s スリット、12 口金部、13 カバー、14 カメラ、15 LED、16 報知部、17 管理用端末、20,30,40 コントローラ、21,41 GPU、22,32,42 メモリ、31 CPU、50 コントローラ群、211 動作判定部、212 姿勢判定部、213 出力部、221 動作モデル記憶部、222 姿勢モデル記憶部、311 異常姿勢変化判定部、312 バイタル測定部、313 異変判定部、314 異変情報出力部、315 学習時刻決定部、316 学習データ出力部、321 行動予定記憶部、322 異常姿勢変化判定条件記憶部、323 異変判定条件記憶部、324 バイタル測定値記憶部、411 動作学習部、412 姿勢学習部、413 出力部、421 動作学習データ記憶部、422 姿勢学習データ記憶部 1 (1A, 1B) monitoring device, 11 case, 11r rail, 11s slit, 12 base, 13 cover, 14 camera, 15 LED, 16 notification unit, 17 management terminal, 20, 30, 40 controller, 21, 41 GPU, 22, 32, 42 memory, 31 CPU, 50 controller group, 211 operation determination unit, 212 posture determination unit, 213 output unit, 221 operation model storage unit, 222 posture model storage unit, 311 abnormal posture change determination unit, 312 vital measurement section, 313 abnormal change determination section, 314 abnormal change information output section, 315 learning time determination section, 316 learning data output section, 321 action schedule storage section, 322 abnormal posture change determination condition storage section, 323 abnormal change determination condition storage section, 324 vital measurement storage unit, 411 operation learning unit, 412 posture learning unit, 413 output unit, 421 motion learning data storage unit, 422 posture learning data storage unit
本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作の画像データに基づいて対象者の姿勢変化を含む動作の特徴量を抽出し、対象者の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された学習モデルに基づいて、対象者の動作を判定する動作判定部と、を備える。
One embodiment of the present invention is a monitoring device that monitors a specific subject, extracts a feature amount of a motion including a posture change of the subject based on image data of the motion of the subject, and A learning model generation unit that generates a learning model; a learning model storage unit that stores a learning model of the operation generated by the learning model generation unit; and a motion of the subject based on the learning model stored by the learning model storage unit. And an operation determination unit that determines
本発明の一態様は、特定の対象者を監視する監視装置であって、対象者に固有の動作の画像データに基づいて対象者に固有の姿勢変化を含む動作の特徴量を抽出し、対象者に固有の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された対象者に固有の動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された対象者に固有の動作の学習モデルと対象者に固有の動作の画像データとに基づいて、対象者の動作を判定する動作判定部と、を備える。
One embodiment of the present invention is a monitoring device that monitors a specific target person , and extracts a feature amount of an operation including a posture change unique to the target person based on image data of an operation unique to the target person. a learning model storage unit for storing a learning model of the specific behavior and learning model generating unit for generating a learning model of the specific behavior, the subject generated by the learning model generating unit to user, stored by the learning model storage unit And a motion determining unit that determines the motion of the target person based on the learning model of the motion specific to the target person and the image data of the motion specific to the target person.
本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作の画像データに基づいて対象者の動作の特徴量を抽出し、対象者の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された学習モデルに基づいて、対象者の動作を判定する動作判定部と、対象者の生体情報を取得する生体情報取得部と、生体情報取得部により取得された生体情報に基づいて、対象者に異変が生じたか否かを判定する異変判定部と、を備える。学習モデル生成部は、異変判定部により対象者に異変が生じたと判定されたときの対象者の動作の画像データに基づいて対象者の動作の特徴量を抽出し、対象者の異常動作の学習モデルを生成する。
One aspect of the present invention, generates a particular a monitoring device for monitoring a subject, extracting a feature amount of operation of the subject based on the image data of the operation subject, learning model of the operation of the subject a learning model generating unit to a learning model storage unit for storing a learning model of the operation generated by the learning model generating unit, based on the stored learned model by learning model storage unit, the operation of the subject An operation determining unit for determining , a biological information acquiring unit for acquiring biological information of the subject, and an abnormality determining unit for determining whether an abnormality has occurred in the subject based on the biological information acquired by the biological information acquiring unit. And . The learning model generation unit extracts a feature amount of the target person's movement based on the image data of the target person's movement when the change determination unit determines that the target person has an abnormality, and learns the abnormal movement of the target person. Generate a model.
Claims (3)
前記対象者の動作の画像データに基づいて前記対象者の動作の特徴量を抽出し、前記対象者の動作の学習モデルを生成する学習モデル生成部と、
前記学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部により記憶された学習モデルに基づいて、前記対象者の動作を判定する動作判定部と、を備えることを特徴とする監視装置。 A monitoring device for monitoring a specific target person,
A learning model generation unit that extracts a feature amount of the motion of the target person based on the image data of the motion of the target person, and generates a learning model of the motion of the target person;
A learning model storage unit that stores a learning model of the operation generated by the learning model generation unit,
A monitoring device comprising: an operation determining unit that determines an operation of the subject based on a learning model stored in the learning model storage unit.
前記対象者の生体情報を取得する生体情報取得部と、
前記生体情報取得部により取得された生体情報に基づいて、前記対象者に異変が生じたか否かを判定する異変判定部と、をさらに備え、
前記学習モデル生成部は、前記異変判定部により前記対象者に異変が生じたと判定されたときの前記対象者の動作の画像データに基づいて前記対象者の動作の特徴量を抽出し、前記対象者の異常動作の学習モデルを生成することを特徴とする監視装置。 The monitoring device according to claim 1,
A biological information acquisition unit that acquires the biological information of the subject;
An abnormality determination unit configured to determine whether an abnormality has occurred in the subject based on the biological information acquired by the biological information acquisition unit,
The learning model generating unit extracts a feature amount of the motion of the subject based on image data of the motion of the subject when it is determined that the abnormal has occurred in the subject by the abnormal determination unit, and A monitoring device for generating a learning model of abnormal behavior of a user.
前記対象者の行動予定を取得する行動予定取得部をさらに備え、
前記異変判定部は、さらに前記行動予定取得部により取得された行動予定に基づいて、前記対象者に異変が生じたか否かを判定することを特徴とする監視装置。 The monitoring device according to claim 2,
Further comprising an activity schedule acquisition unit for acquiring the activity schedule of the target person,
The monitoring device, wherein the abnormality determination unit further determines whether or not an abnormality has occurred in the subject based on the action schedule acquired by the action schedule acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018132581A JP6611871B1 (en) | 2018-07-12 | 2018-07-12 | Monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018132581A JP6611871B1 (en) | 2018-07-12 | 2018-07-12 | Monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6611871B1 JP6611871B1 (en) | 2019-11-27 |
JP2020009378A true JP2020009378A (en) | 2020-01-16 |
Family
ID=68692068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018132581A Active JP6611871B1 (en) | 2018-07-12 | 2018-07-12 | Monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6611871B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6759397B2 (en) * | 2019-03-06 | 2020-09-23 | 東芝エレベータ株式会社 | Passenger conveyor maintenance and inspection work support system |
JP6721221B1 (en) * | 2019-05-27 | 2020-07-08 | 株式会社Lightblue Technology | Teacher data creation system, learned model creation system, and teacher data creation method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230555A (en) * | 2001-02-01 | 2002-08-16 | Noa Syst:Kk | Detection device and method for detecting movement |
JP2008252852A (en) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | Image recorder |
JP2008289676A (en) * | 2007-05-24 | 2008-12-04 | Sysmex Corp | Patient abnormality notification system |
JP2013039300A (en) * | 2011-08-19 | 2013-02-28 | Toyama Prefecture | Patient behavior identification method and patient behavior detection system |
JP2015203881A (en) * | 2014-04-10 | 2015-11-16 | 富士通株式会社 | Observation device, display method and program |
JP2015219868A (en) * | 2014-05-21 | 2015-12-07 | キヤノン株式会社 | Information processor, information processing method and program |
JPWO2016199749A1 (en) * | 2015-06-10 | 2017-06-22 | コニカミノルタ株式会社 | Image processing system, image processing apparatus, image processing method, and image processing program |
WO2018105171A1 (en) * | 2016-12-06 | 2018-06-14 | コニカミノルタ株式会社 | Image recognition system and image recognition method |
-
2018
- 2018-07-12 JP JP2018132581A patent/JP6611871B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230555A (en) * | 2001-02-01 | 2002-08-16 | Noa Syst:Kk | Detection device and method for detecting movement |
JP2008252852A (en) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | Image recorder |
JP2008289676A (en) * | 2007-05-24 | 2008-12-04 | Sysmex Corp | Patient abnormality notification system |
JP2013039300A (en) * | 2011-08-19 | 2013-02-28 | Toyama Prefecture | Patient behavior identification method and patient behavior detection system |
JP2015203881A (en) * | 2014-04-10 | 2015-11-16 | 富士通株式会社 | Observation device, display method and program |
JP2015219868A (en) * | 2014-05-21 | 2015-12-07 | キヤノン株式会社 | Information processor, information processing method and program |
JPWO2016199749A1 (en) * | 2015-06-10 | 2017-06-22 | コニカミノルタ株式会社 | Image processing system, image processing apparatus, image processing method, and image processing program |
WO2018105171A1 (en) * | 2016-12-06 | 2018-06-14 | コニカミノルタ株式会社 | Image recognition system and image recognition method |
Also Published As
Publication number | Publication date |
---|---|
JP6611871B1 (en) | 2019-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160345832A1 (en) | System and method for monitoring biological status through contactless sensing | |
JP6915421B2 (en) | Watching support system and its control method | |
JP6520831B2 (en) | Display control apparatus, display control system, display control method, display control program, recording medium | |
CA2926709C (en) | Pressure ulcer detection methods, devices and techniques | |
WO2016108582A1 (en) | Smart bed system and control method | |
CN105007808B (en) | Access duration control system and method | |
EP3432772B1 (en) | Using visual context to timely trigger measuring physiological parameters | |
KR101712191B1 (en) | Patient Fall Prevention Monitoring Device | |
JP6852733B2 (en) | Living body monitoring device and living body monitoring method | |
JP6806145B2 (en) | Monitored person monitoring system and monitored person monitoring method | |
CN108430322B (en) | Device, method and computer program product for continuous monitoring of vital signs | |
WO2018037073A1 (en) | Device, system and method for patient monitoring to predict and prevent bed falls | |
JP6611871B1 (en) | Monitoring device | |
WO2020003715A1 (en) | Report output program, report output method, and report output device | |
JP2020077388A (en) | Motion analyzer | |
JPWO2020071374A1 (en) | Status monitoring device and status monitoring method | |
JP6908028B2 (en) | Observer monitoring device, method, system and program | |
WO2019021743A1 (en) | Alarm control system, detection unit, care support system, and alarm control method | |
JP3236269U (en) | Biometric information monitoring equipment and systems | |
WO2020137061A1 (en) | Information display method, program, and information display device | |
WO2020003953A1 (en) | Program executed by computer, information processing device, and method executed by computer | |
WO2020003714A1 (en) | Report output program, report output method, and report output device | |
WO2020008995A1 (en) | Image recognition program, image recognition device, learning program, and learning device | |
JPWO2019239716A1 (en) | Report output program, report output method, and report output device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180712 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180712 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6611871 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |