JP2019008638A - 見守り支援システム及びその制御方法 - Google Patents

見守り支援システム及びその制御方法 Download PDF

Info

Publication number
JP2019008638A
JP2019008638A JP2017125232A JP2017125232A JP2019008638A JP 2019008638 A JP2019008638 A JP 2019008638A JP 2017125232 A JP2017125232 A JP 2017125232A JP 2017125232 A JP2017125232 A JP 2017125232A JP 2019008638 A JP2019008638 A JP 2019008638A
Authority
JP
Japan
Prior art keywords
state
image
bed
score
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017125232A
Other languages
English (en)
Other versions
JP6822328B2 (ja
Inventor
純平 松永
Jumpei Matsunaga
純平 松永
田中 清明
Kiyoaki Tanaka
清明 田中
信二 高橋
Shinji Takahashi
信二 高橋
達哉 村上
Tatsuya Murakami
達哉 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017125232A priority Critical patent/JP6822328B2/ja
Priority to PCT/JP2018/021984 priority patent/WO2019003859A1/ja
Publication of JP2019008638A publication Critical patent/JP2019008638A/ja
Application granted granted Critical
Publication of JP6822328B2 publication Critical patent/JP6822328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知するための技術を提供する。【解決手段】ベッド上の対象者の見守りを支援する見守り支援システム1が、前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置10から画像を取得する画像取得部110と、前記画像取得部により得られた前記監視領域の画像に基づいて、前記対象者の状態を定量化したスコアを出力する状態定量化部と、前記状態定量化部から出力されるスコアの時間的な変化を示すグラフを表示装置に表示する状態表示部116と、を有する。【選択図】図1

Description

本発明は、ベッド上の対象者の見守りを支援するための技術に関する。
ベッドからの転落事故などを未然に防ぐため、病院や介護施設などにおける患者の見守りを支援するシステムが知られている。特許文献1には、施設の各居室内に、非接触で入居者の状況が把握できるように人感センサ、呼吸センサ、体動センサ、ドアセンサなどが設置され、施設内に設置されたサーバに各センサからのセンサデータが収集され、施設内の複数の入居者の状況が瞬時に把握できるように、管理用PCの現在状況表示画面に各入居者の呼吸回数や体動の振幅や人感センサの検知結果をグラフ表示する構成が開示されている。また、特許文献2には、体動や呼吸などをグラフ表示することが開示されている。また、特許文献3には、患者の転倒が発生したときにアラート用のアイコンを表示することが開示されている。
特開2017−016611号公報 特開2009−082511号公報 特開2008−289676号公報
特許文献1、2のように、センサにより計測された体動をグラフ表示することで、見守り側(看護師、医師、介護士など)は患者の動きの有無や大きさを監視することができる。しかしながら、動きの有無やその大きさだけでは、その動きが危険行動に因るものかどうかは判別できない。例えば、患者がベッドから離れたり転落しそうになっているのか、あるいは単にベッド上で伸びをしただけなのかは、体動センサの出力だけでは区別することはできない。言い換えると、体動センサの出力には、ノイズ(検知したい行動以外の動きに因る信号)が多く含まれるため、それだけでは患者の状態や行動を精度良く検知ないし予測することはできない。また、特許文献3のように転倒などが発生した場合にアラートを出力するだけでは、ベッドからの転落や転倒などの事故を未然に防ぐことはできない。
本発明は、上記実情に鑑みなされたものであって、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知するための技術を提供することを目的とする。
上記目的を達成するために、本発明では、画像を基に対象者の状態を定量化したスコアを生成し、そのスコアの時間変化をグラフ表示する、という方法を採用する。
具体的には、本発明の第一態様は、ベッド上の対象者の見守りを支援する見守り支援システムであって、前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、前記画像取得部により得られた前記監視領域の画像に基づいて、前記対象者の状態を定量化したスコアを出力する状態定量化部と、前記状態定量化部から出力されるスコアの時間的な変化を示すグラフを表示装置に表示する状態表示部と、を有することを特徴とする見守り支援システムを提供する。
この構成によれば、対象者の状態を定量化したスコアの時間的な変化を示すグラフを出力するので、見守り側(看護師、介護者など)は対象者の状態の変化や傾向を簡単に確認することができる。そして、状態の変化や傾向がわかると、例えば、対象者の行動を予測し危険の発生を未然に防止できたり、対象者の毎日の行動パターンを把握し見守りに役立てたりすることができる。
前記状態定量化部は、ベッドと人が写る画像を入力とし前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習された回帰器を有しており、前記監視領域の画像を前記回帰器に入力することにより、前記対象者の状態を定量化したスコアを取得するとよい。回帰器を用いて入力画像における対象者の状態を推定するので、未知の入力画像に対して高精度な状態推定を行うことができる。また、回帰器のスコアは連続値で出力されるので、対象者の状態が明確に分類できないものであったとしても、妥当な推定結果を得ることができる。さらに、対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることが期待できる。
前記回帰器は、ニューラルネットワークであるとよい。ニューラルネットワークを用いることにより、高精度かつ頑健性の高い状態推定を行うことができる。
前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されているとよい。このような設計とすることにより、人がとり得るさまざまな状態を一次元のスコアで表現できるようになるので、「人の状態」を数学的にあるいはプログラムにおいて取り扱うのが容易になり、例えば後段の処理(状態表示部によるグラフ出力など)を極めて簡易に構築できる。
例えば、前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含むとよい。少なくとも状態0〜状態2の3種類の状態が判別できれば、見守りのニーズが高い「起床」と「離床」の検知が可能になるからである。
前記対象者の状態を定量化したスコアは、前記対象者の状態の危険度合いを表すスコアであってもよい。対象者の状態の危険度合いをグラフ表示することにより、見守り側は、対象者の危険を予測することが容易にでき、事故等の発生を未然に防ぐことが可能となる。
前記監視領域の画像内のベッドの領域に基づき設定される複数の判定領域ごとに、危険な状態を判定するための判定基準があらかじめ設定されている判定基準記憶部を有し、前記状態定量化部は、前記監視領域の画像から前記対象者の頭部を検出する検出部を有しており、前記頭部が検出された位置に対応する判定領域の判定基準を用いて、前記対象者の状態の危険度合いを表すスコアを算出するとよい。この構成によれば、ベッド上の対象者が安全な状態にあるのか危険な状態にあるのかを、画像から簡単にかつ精度良く判定することが可能となる。
前記状態定量化部は、頭部の向き、頭部の移動速度、頭部の移動方向、頭部の移動ベクトルのうち少なくとも1つ以上の項目に基づいて、前記対象者の状態の危険度合いを表すスコアを算出するとよい。
なお、本発明は、上記構成ないし機能の少なくとも一部を有する見守り支援システムと
して捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、見守り支援方法又は見守り支援システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知することができる。
図1は第1実施形態の見守り支援システムのハードウェア構成および機能構成を模式的に示すブロック図である。 図2は撮像装置の設置例を示す図である。 図3は画像に対し設定された監視領域の例である。 図4は人の状態の類型と画像の例である。 図5は回帰器の機械学習を模式的に示す図である。 図6は回帰器の能力を模式的に示す図である。 図7は状態監視処理のフローチャートである。 図8は状態表示例である。 図9は第2実施形態の見守り支援システムのハードウェア構成および機能構成を模式的に示すブロック図である。 図10A〜図10Cは画像に対し設定された判定領域の例である。 図11Aは判定領域ごとの頭部向きの判定基準のデータ構造の一例であり、図11Bは8方向を表す符号を説明する図である。 図12は第2実施形態の実施例1の状態監視処理のフローチャートである。 図13は第2実施形態の実施例1の危険度合い判定の例である。 図14は第2実施形態の状態表示例である。 図15は第2実施形態の実施例2の状態監視処理のフローチャートである。 図16は第2実施形態の実施例2の危険度合い判定の例である。 図17は第2実施形態の実施例3の状態監視処理のフローチャートである。 図18は第2実施形態の実施例4の状態監視処理のフローチャートである。
本発明は、ベッド上の対象者の見守りを支援するための技術に関する。この技術は、病院や介護施設などにおいて、患者や要介護者などの離床・起床行動を自動で検知し、危険な状態が発生した場合などに必要な通知を行うシステムに適用することができる。このシステムは、例えば、高齢者、認知症患者、子供などの見守り支援に好ましく利用することができる。
以下、図面を参照して本発明を実施するための好ましい形態の一例を説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
<第1実施形態>
(システム構成)
図1と図2を参照して、本発明の実施形態に係る見守り支援システムの構成を説明する。図1は、見守り支援システム1のハードウェア構成および機能構成を模式的に示すブロック図であり、図2は、撮像装置の設置例を示す図である。
見守り支援システム1は、主なハードウェア構成として、撮像装置10と情報処理装置11と表示装置13を有している。撮像装置10と情報処理装置11の間は有線又は無線により接続されている。また、情報処理装置11と表示装置13の間も有線又は無線により接続されている。例えば、撮像装置10と情報処理装置11を含む子機ユニットを見守り対象者21の部屋に設置し、表示装置13を含む親機ユニットをナースセンターや集中監視室に設置し、子機ユニットと親機ユニットの間は有線LAN又は無線LANで通信する構成を採ることができる。あるいは、情報処理装置11の全部又は一部を親機ユニット側に設けてもよい。また、一台の親機ユニットに複数台の子機ユニットを接続してもよい。
撮像装置10は、ベッド上の対象者を撮影して画像データを取り込むためのデバイスである。撮像装置10としては、モノクロ又はカラーの可視光カメラ、赤外線カメラ、三次元カメラなどを用いることができる。本実施形態では、夜間でも(部屋内が暗い場合でも)対象者の見守りを可能とするため、赤外線LED照明100と近赤外線カメラ101で構成される撮像装置10を採用する。撮像装置10は、図2に示すように、ベッド20の頭側上方から足側に向かって、ベッド20の全体を俯瞰するように設置される。撮像装置10は所定の時間間隔(例えば、30fps)で撮影を行い、その画像データは情報処理装置11に順次取り込まれる。
情報処理装置11は、撮像装置10から取り込まれる画像データをリアルタイムに分析して、ベッド20上の対象者21の状態および行動を検知し、表示装置13に検知結果を出力する機能を備える装置である。情報処理装置11は、具体的な機能モジュールとして、画像取得部110、領域設定部111、前処理部112、回帰器113、スコア安定化部114、判定部115、状態表示部116、記憶部117を有している。なお、本実施形態では、前処理部112と回帰器113とスコア安定化部114と判定部115とで、対象者21の状態を定量化したスコアを出力する状態定量化部が構成されている。
本実施形態の情報処理装置11は、CPU(プロセッサ)、メモリ、ストレージ(HDD、SSDなど)、入力デバイス(キーボード、マウス、タッチパネルなど)、通信インタフェースなどを具備する汎用のコンピュータにより構成され、上述した情報処理装置11の各モジュールは、ストレージ又はメモリに格納されたプログラムをCPUが実行することにより実現される。ただし、情報処理装置11の構成はこの例に限られない。例えば、複数台のコンピュータによる分散コンピューティングを行ってもよいし、上記モジュールの一部をクラウドサーバにより実行してもよいし、上記モジュールの一部をASICやFPGAのような回路で構成してもよい。
画像取得部110は、撮像装置10により撮影された画像を取得するためのモジュールである。画像取得部110より入力された画像データは一時的にメモリ又はストレージに記憶され、後述する領域設定処理や状態監視処理に供される。
領域設定部111は、撮像装置10により撮影される画像に対し監視領域を設定するためのモジュールである。監視領域は、撮像装置10の視野のうち状態監視処理の対象となる範囲(言い換えると、回帰器113の入力として用いられる画像範囲)である。領域設定処理の詳細は後述する。
前処理部112は、状態監視処理において、画像取得部110より入力された画像(以
後「オリジナル画像」と呼ぶ)に対し必要な前処理を施すためのモジュールである。例えば、前処理部112は、オリジナル画像から監視領域内の画像をクリップする処理を行う(クリップされた画像を以後「監視領域画像」と呼ぶ)。また、前処理部112は、監視領域画像に対して、リサイズ(縮小)、アフィン変換、輝度補正などの処理を施してもよい。リサイズ(縮小)は、回帰器113の演算時間を短縮する効果がある。リサイズには既存のどのような手法を用いてもよいが、演算コストと品質のバランスがよいバイリニア法が好ましい。アフィン変換は、例えば、画像において台形状に写るベッドを長方形状に変形するなど、必要な歪み補正を行うことで、回帰器113への入力画像を規格化し、推定精度を向上する効果が期待できる。輝度補正は、例えば、照明環境の影響を低減することで、推定精度を向上する効果が期待できる。なお、オリジナル画像をそのまま回帰器113に入力する場合には、前処理部112は省略してもよい。
回帰器113は、監視領域画像が与えられたときに、当該監視領域画像に写る対象者21の状態(例えば、就床状態、起床状態、離床状態)を示すスコアを出力するためのモジュールである。回帰器113は、ベッドと人が写る画像を入力とし、ベッドに対する人の状態を定量的に示すスコアを出力するように、入力画像の特徴と人の状態との関係モデルを機械学習により構築したものである。回帰器113のトレーニングは、多数のトレーニング用画像を用いて、学習装置12によって事前に(システムの出荷前ないし稼働前に)行われているものとする。なお、回帰器113の学習モデルとしては、ニューラルネットワーク、ランダムフォレスト、サポートベクターマシンなど、どのようなモデルを用いてもよい。本実施形態では、画像認識に好適な畳み込みニューラルネットワーク(CNN)を用いる。なお、本実施形態のスコアは「状態スコア」ともよぶ。
スコア安定化部114は、回帰器113から出力されるスコアの急激な変化やばたつきを抑制するためのモジュールである。スコア安定化部114は、例えば、現在のフレームの画像から得られた現在スコアと、直前の2フレームの画像からそれぞれ得られた過去スコアの平均を計算し、安定化スコアとして出力する。この処理は、スコアの時系列データに時間的なローパスフィルタをかけることと等価である。なお、スコアの安定化が不要であれば、スコア安定化部114は省略してもよい。
判定部115は、回帰器113により得られたスコアに基づいて、対象者の行動を判定するためのモジュールである。具体的には、判定部115は、スコアの時間的な変化(つまり、スコアが示す「対象者の状態」の遷移)に基づいて、対象者がどのような行動(例えば、起床行動、離床行動など)をとったのかを推定する。判定部115の処理の詳細は後述する。
状態表示部116は、スコア安定化部114から出力されるスコアの時間的な変化を示すグラフ(以後「状態変化グラフ」という)を表示装置13にリアルタイム表示するモジュールである。
記憶部117は、見守り支援システム1が処理に用いる各種のデータを記憶するモジュールである。記憶部117には、例えば、監視領域の設定情報、前処理で用いるパラメータ、スコア安定化処理で用いるパラメータ、スコアの時系列データ、判定処理で用いるパラメータなどが記憶される。
(監視領域の設定)
撮像装置10の画角内にはベッド20や対象者21以外にさまざまな物が写り込んでいる。対象者21の状態や行動を検知するにあたっては、ベッド20と対象者21以外の物はノイズとして作用する可能性があるため、出来る限り除外することが好ましい。また、回帰器113に入力する画像については、画像サイズ(幅、高さ)および画像内のベッド
の位置・範囲・大きさなどが規格化されているほうが、推定精度の向上が図りやすい。そこで、本実施形態では、ベッド20を基準にした所定の範囲を監視領域に設定し、後述する状態監視処理では監視領域内の画像をクリッピングして回帰器113の入力画像とする。
監視領域の設定は、手動で行ってもよいし自動で行ってもよい。手動設定の場合、領域設定部111は、画像内のベッド20の領域ないし監視領域そのものをユーザに入力させるためのユーザインタフェースを提供するとよい。自動設定の場合、領域設定部111は、物体認識処理により画像からベッド20を検出し、検出したベッド20の領域を包含するように監視領域を設定するとよい。なお、領域設定処理は、監視領域が未設定の場合(例えば、システムの設置時など)、ベッド20や撮像装置10の移動に伴い監視領域を更新する必要がある場合などに実行される。
図3Aは、オリジナル画像に対し設定された監視領域の例である。本実施形態では、ベッド20の領域の左側・右側・上側(足側)にそれぞれ所定幅のマージンを付加した範囲を、監視領域30に設定する。マージンの幅は、ベッド20上で起き上がっている人(図3B参照)の全身が監視領域30内に入るように設定される。
(状態の類型と機械学習)
本システムでは、人の状態を回帰で取り扱うために、「ベッドに対する人の状態」をあらかじめ第0〜第2の3つの類型に分類する。「第0類型」は、人がベッドに寝ている状態(「就床状態」又は「状態0」と呼ぶ)、「第1類型」は、人がベッド上で起き上がっている状態(「起床状態」又は「状態1」と呼ぶ)、「第2類型」は、人がベッドから離れている(降りている)状態(「離床状態」又は「状態2」と呼ぶ)である。図4は、寝ていた人が起き上がり、ベッドから離れる、という一連の行動を表す時系列画像と、3つの類型との対応を示す例である。
図5は、回帰器113の機械学習を模式的に示している。まず、実際の病室等を撮影した画像を集め、各画像を第0類型〜第2類型に分類する。そして、各画像の監視領域に相当する部分をクリッピングし、類型の番号(0,1,2)をラベルとして割り当て、トレーニング用画像のセットを生成する。回帰の精度向上のため、十分な数の画像を用意することが好ましく、またそれぞれの類型についてさまざまなバリエーションの画像を用意することが好ましい。ただし、人の状態がどちらの類型に属するかあいまいな画像は、トレーニング用画像に適さないので、除外することが好ましい。
学習装置12は、トレーニング用画像のセットを用い、各入力画像に対してそのラベルと同じスコア(つまり、第1類型に属する入力画像であればスコア=1)を出力するように、畳み込みニューラルネットワークのトレーニングを行う。そして、学習装置12は、学習結果であるニューラルネットワークのパラメータ群を、本システムの回帰器113に組み込む。なお、ニューラルネットワークの具体的な層構造、フィルタ、活性化関数、入力画像の仕様などは、実装や要求精度にあわせて適宜設計すればよい。
図6は、回帰器113の能力を模式的に示している。回帰器113は、画像の「特徴量」と人の状態を示す「スコア」との対応関係をモデル化したものである。回帰器113は、その関係モデルに従って、入力画像から特徴量を抽出し、特徴量に対応したスコアを計算し出力する。なお、図6では、説明の便宜のため関係モデルを2次元の線型モデルで示しているが、実際の特徴量空間は多次元であり、関係モデルは非線型となる。
回帰器113から出力されるスコアは0〜2の範囲の実数値(連続値)である。例えば、第1類型(起床状態)の入力画像が与えられた場合は、その出力スコアは1又は1に極
めて近い値となる。他の類型の場合も同様である。他方、入力画像のなかには、寝た姿勢から上半身を起こそうとしている状態や、ベッドから立ち上がろうとしている状態のように、どちらの類型に属するかあいまいな画像も存在する。そのような中間状態の画像の場合、抽出される特徴量は2つの類型のあいだの特徴量となるため、2つの類型の中間のスコアが出力されることとなる。例えば、寝た姿勢から上半身を起こそうとしている状態の画像であれば、第0類型と第1類型の中間状態ゆえ、0より大きく1より小さい値のスコアが得られる。
このように、本システムでは回帰器113を用いて、入力画像における人の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。また、中間状態の画像が入力された場合でも妥当な推定結果を得ることができる。さらに、対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができる。
(状態監視処理)
図7を参照して本システムの状態監視処理の一例を説明する。図7の処理フローは、撮像装置10から1フレームの画像が取り込まれる度に実行される。
ステップS70において、画像取得部110が、撮像装置10から1フレームの画像を取り込む。取得されたオリジナル画像は記憶部117に一時的に記憶される。次に前処理部112が、オリジナル画像から監視領域画像をクリップし、必要に応じてリサイズ、アフィン変換、輝度補正などを実行する(ステップS71)。次に回帰器113が、監視領域画像を入力し、対応するスコアを出力する(ステップS72)。次にスコア安定化部114が、ステップS72で得られたスコアの安定化処理を行い(ステップS73)、得られたスコアを判定部115に引き渡す。
判定部115は、スコア(連続値)に基づいて、対象者21の現在の状態を就床状態/起床状態/離床状態のいずれかに分類する。分類方法は問わないが、本実施形態では、スコア≦閾値th1の場合は就床状態(ステップS74,S75)、閾値th1<スコア≦閾値th2の場合は起床状態(ステップS76,S77)、閾値th2<スコアの場合は離床状態(ステップS78)、と分類する。閾値th1、th2は、例えば、th1=0.5、th2=1.5のように設定される。閾値th1、th2を変更することで、検知感度を調整することができる。
続いて、状態表示部116が、検知結果であるスコアおよび対象者21の状態を表示装置13に出力する(ステップS79)。以上のステップS70〜S79は、システムが終了するまでフレーム毎に実行される(ステップS80)。
(表示例)
図8に、表示装置13に出力される状態表示画面の一例を示す。画面左側には、見守りの対象者A〜Dそれぞれの現在の状態をグラフィカルに示す状態画像80が表示されている。図8の例では、対象者AとCが就床状態であり、対象者Bが起床状態、対象者Dが離床状態であることが示されている。また、画面右側には、対象者A〜Dそれぞれの状態変化グラフ81が表示されている。状態変化グラフ81の横軸は時間、縦軸は状態スコアである。また現時刻における各対象者A〜Dの状態スコアがわかるよう、現時刻の時点を示すマーカー82が表示されている。
以上述べた本実施形態によれば、回帰器113により対象者21の状態推定を行うので、対象者21の状態ないし行動を精度良く判定することができる。また、対象者21の状
態を定量化した状態スコアの時間変化を示す状態変化グラフ81を出力するので、見守り側(看護師、介護者など)は対象者21の状態の変化や傾向を簡単に確認することができる。そして、状態の変化や傾向がわかると、例えば、対象者21の行動を予測し危険の発生を未然に防止できたり、対象者21の毎日の行動パターンを把握し見守りに役立てたりすることができる。
<第2実施形態>
次に本発明の第2実施形態について説明する。第1実施形態では回帰器により対象者21の状態を推定したのに対し、本実施形態では対象者21の頭部を検出し、頭部の位置や状態から対象者2の状態(危険度合い)を推定する。
図9は、第2実施形態の見守り支援システム1のハードウェア構成および機能構成を模式的に示すブロック図である。第1実施形態(図1)との構成上の違いは、状態定量化部が、検出部90、状態認識部91、および判定部92により構成されている点、並びに、領域設定部93および状態表示部94の機能が異なる点である。以下、本実施形態に特有の構成を主に説明し、第1実施形態と重複する説明については省略する。
検出部90は、画像取得部110により取得された画像を分析し、当該画像から、見守り対象者21の人体又はその一部(頭部、顔、上半身など)を検出するモジュールである。画像から人体やその一部を検出する方法としてはいかなる方法を用いてもよい。例えば、古典的なHaar−like特徴量やHoG特徴量を用いた識別器による手法や近年のFaster R−CNNによる手法を用いた物体検出アルゴリズムを好ましく用いることができる。本実施形態の検出部90は、Haar−like特徴量を用いた識別器により対象者21の頭部(首より上の部分)22を検出し、検出結果として、頭部22の位置(x,y)及びサイズ(縦横のピクセル数)を出力する。頭部22の位置(x,y)は、例えば、頭部22を囲む矩形枠の中心点の画像座標で表される。なお、本実施形態の検出部90は検出結果を画像座標系の位置・サイズで出力するが、検出部90が画像座標系を空間座標系に換算し、対象者21の空間座標系における3次元位置や3次元的なサイズを出力してもよい。
状態認識部91は、検出部90により検出された対象者21の状態を認識するモジュールである。本実施形態では、対象者21の頭部22の状態、具体的には、(1)頭部22の向き、(2)頭部22の移動速度、(3)頭部22の移動方向の3つの少なくともいずれかを計算する。
頭部22の向きは、例えば、頭部22の画像における顔器官(目、鼻、口など)の位置関係に基づき認識してもよいし、頭部22の向きごとに学習した複数種類の識別器を用いることで認識してもよいし、その他のアルゴリズムを用いてもよい。また、頭部22の向きについては、連続値(角度)を計算してもよいし、例えば右向き・正面・左向きというように予め決められたN種類の向き(方向)のいずれに該当するかを判別してもよい。また、yaw、pitch、rollの3軸まわりの向きを計算してもよいし、単純に、画像座標系(xy面内)での向きを計算してもよい。
頭部22の移動速度は、所定時間あたりの頭部22の移動量である。例えば、複数フレーム前の画像における頭部22の位置と最新の画像における頭部22の位置との間の距離を計算することにより、移動速度を得ることができる。また、頭部22の移動方向は、例えば、複数フレーム前の画像における頭部22の位置と最新の画像における頭部22の位置とを結ぶ線分の向き(角度)から計算できる。移動速度と移動方向を組み合わせて、頭部22の移動ベクトルを求めてもよい。なお、この場合も、画像座標系を空間座標系に換算することで、実空間(3次元空間)での移動速度、移動方向、移動ベクトルを計算して
もよい。
判定部92は、検出部90及び状態認識部91の結果に基づき、対象者21の状態が安全な状態であるか危険な状態であるかを判定するモジュールである。具体的には、判定部92は、危険な状態を評価・判定するための「判定基準」を用いて、状態認識部91で認識された頭部22の状態(向き、移動速度、移動方向、移動ベクトルの少なくともいずれか)の「危険度合い」を判定する処理を行う。危険度合いの判定は、安全/危険の2段階判定でもよいし、危険度合い=0,1,2,・・・のような多段階判定でもよい。この危険度合いを危険度スコアともよぶ。本実施形態では、記憶部117内の判定基準記憶部に複数の判定基準があらかじめ設定されており、判定部92が、対象者21(の頭部22)が検出された位置に応じて、用いる判定基準を切り替える。この特徴については後ほど詳しく説明する。
領域設定部93は、画像に対し監視領域および判定領域を設定するためのモジュールである。状態表示部94は、危険度スコアの時間的な変化を示すグラフを表示装置13にリアルタイム表示するモジュールである。
(判定領域の設定)
図10A〜図10Cを参照して、監視領域と判定領域の設定処理の一例について説明する。図10A〜図10Cは、画像に対し設定された監視領域と判定領域の例である。
まず、画像取得部110が、撮像装置10から画像を取得する(図10A)。次に、領域設定部93が、監視領域30とベッドの四隅の点40〜43をユーザに入力させ、その4点40〜43で囲まれた四角形をベッド領域44に設定する(図10B)。次に、領域設定部93が、ベッド領域44に基づき4つの判定領域A1〜A4の範囲を計算する(図4C)。そして、領域設定部93が、監視領域30とベッド領域44の情報(ベッド領域44の四隅の座標)及び4つの判定領域A1〜A4の情報(各判定領域の四隅の座標)を記憶部117に格納し、設定処理を終了する。
判定領域A1はベッド20の頭側に設定される領域であり、対象者21がベッド20に寝ている場合に頭部22が存在し得る範囲に対応する。判定領域A2はベッド20の足側の中央に設定される領域であり、対象者21が寝ている状態から上半身を起こした場合や、ベッド20の足側から降りる又は落ちる場合に、頭部22が存在し得る範囲に対応する。判定領域A3はベッド20の足側の左方に設定される領域であり、対象者21がベッド20の左の縁に腰かけている場合や、ベッド20の左側から降りる又は落ちる場合に、頭部22が存在し得る範囲に対応する。判定領域A4はベッド20の足側の右方に設定される領域であり、対象者21がベッド20の右の縁に腰かけている場合や、ベッド20の右側から降りる又は落ちる場合に、頭部22が存在し得る範囲に対応する。図10Cに示すように、判定領域A2〜A4は、ベッド領域44の外側まで拡張している。
このように複数の判定領域を設定した理由は、安全な状態か危険な状態かの評価が、対象者21がベッド20上のどこに存在するかに依存して、変化し得るからである。例えば、対象者21の頭部22が判定領域A1内に存在する場合は、対象者21は正常な姿勢でベッド20に寝ていると考えられ、頭部22が大きく移動もしくは向きを変えたとしても、対象者21がベッド20から転落する危険性は低いといえる。また、対象者21の頭部22が判定領域A3内に存在する場合において、頭部22が左側を向いていれば、対象者21は自らの意思でベッド20から降りようとしていると考えられ、危険度合いは低いと評価できるが、頭部22が上や下あるいは右側を向いていたら、何らかの異常が発生しているか転落の危険性ありと判断すべきである。判定領域A4については、判定領域A3とは左右反対の判定となる。
図11Aは、記憶部117に設定されている判定基準のデータ構造の一例を示している。図11Aは頭部向きの判定基準の例である。「−1,−1」、「−1,0」・・・などの符号は図11Bに示すように頭部向き(8方向)を表しており、判定基準の値が危険度合いを表している。値が大きいほど危険度合いが高いことを示し、1が最も危険度合いの低い頭部向き、5が最も危険度合いの高い頭部向きである。前述のように判定領域A1〜A4のそれぞれで安全な状態か危険な状態かの評価が変わるため、記憶部117内の判定基準記憶部には、判定領域ごとに異なる判定基準が対応付けられている。なお、図11Aの例は、頭部向きの判定基準であるが、頭部の移動速度、移動方向など、判定部92で評価に用いる複数項目に対応する判定基準を設定してもよい。
次に、第2実施形態の見守り支援システム1による状態監視処理の具体的な実施例について説明する。
(実施例1)
図12、図13、図14を参照して実施例1の状態監視処理の一例を説明する。図12は、情報処理装置11により実行される実施例1の状態監視処理のフローチャートであり、図13は、危険度合い判定の例であり、図14は、表示装置13に表示される状態表示画面の一例である。
ステップS60において、画像取得部110が、撮像装置10から画像を取得する。取得された画像は記憶部117に一時的に記憶される。ステップS61では、検出部90が、ステップS60で取得された画像における監視領域から対象者21の頭部22を検出する。ステップS62では、状態認識部91が、ステップS61で検出された頭部の向きを推定する。図13は、判定領域A3内で頭部22が検出され、頭部22の向きが矢印70の方向と推定された例を示している。
ステップS63では、判定部92が、判定領域A3に対応する判定基準を記憶部117から読み出す。図13の符号71は、判定領域A3に対応する判定基準を模式的に図示したものであり、8方向(矢印)それぞれに危険度合い(1〜5)が設定されている。そして、ステップS64において、判定部92は、判定領域A3に対応する判定基準を用いて、頭部22の向き(矢印70)が安全な向きか危険な向きかを判定する。図13の例では、安全な向き(危険度合い=1)という判定結果が得られる。すなわち、頭部22の向きがベッドの外側を向いていることから、対象者が自らの意思でベッドから降りようとしているとみなし、危険度合いは低いと判定するのである。判定部92の判定結果(危険度スコア)は記憶部117に格納される。
続いて、状態表示部94が、危険度スコアおよび対象者21の状態を表示装置13に出力する(ステップS65)。以上のステップS60〜S65は、システムが終了するまでフレーム毎に実行される(ステップS66)。
図14に、表示装置13に出力される状態表示画面の一例を示す。画面左側には、見守りの対象者A〜Dそれぞれの現在の状態をグラフィカルに示す状態画像83が表示されている。図14の例では、対象者Aの危険度スコアが1、対象者BとDの危険度スコアが2、対象者Cの危険度スコアが5であることが示されている。例えば、危険度スコアが3以上の場合に点滅表示するなど、アラートを報知するようにしてもよい。また、画面右側には、対象者A〜Dそれぞれの状態変化グラフ84が表示されている。状態変化グラフ84の横軸は時間、縦軸は危険度スコアである。また現時刻における各対象者A〜Dの状態スコアがわかるよう、現時刻の時点を示すマーカー85が表示されている。
以上述べた本実施形態によれば、対象者21の状態(危険度合い)を定量化した危険度スコアの時間変化を示す状態変化グラフ84を出力するので、見守り側(看護師、介護者など)は対象者21の危険度合いの変化や傾向を簡単に確認することができる。したがって、第1実施形態と同様、対象者1の危険を予測することが容易にでき、事故等の発生を未然に防ぐことが可能となる。
(実施例2)
図15と図16を参照して第2実施形態の実施例2の状態監視処理の一例を説明する。図15は、情報処理装置11により実行される実施例2の状態監視処理のフローチャートであり、図16は、危険度合い判定の例である。
ステップS150において、画像取得部110が、撮像装置10から画像を取得する。取得された画像は記憶部117に一時的に記憶される。ステップS151では、検出部90が、ステップS150で取得された画像から対象者21の頭部22を検出する。検出された頭部22の位置の情報は、当該画像の時刻情報又はフレーム番号に対応付けて記憶部117に記憶される。次に、状態認識部91が、所定時間前(例えば1秒前)の画像における頭部22の位置の情報を記憶部117から読み出し(ステップS152)、所定時間前の頭部22の位置とステップS151で検出した頭部22の位置に基づき、頭部22の移動速度(所定時間あたりの移動量)と移動方向とを算出し、頭部22の移動ベクトルを求める(ステップS153)。図16は、判定領域A3内で頭部22が検出され、頭部22の移動ベクトルが矢印150のように計算された例を示している。
ステップS154では、判定部92が、判定領域A3に対応する判定基準を記憶部117から読み出す。図16の符号151、152は、判定領域A3に対応する判定基準を模式的に図示したものである。符号151は移動方向に関する判定基準の例である。また、符号152は移動速度(移動量)に関する判定基準の例であり、矢印が長いほど危険度合いが大きいことを示している。この例では、移動速度に応じて1〜4の4段階の危険度合いが割り当てられている。
ステップS155では、判定部92が、判定基準151、152を用いて、頭部22の移動ベクトル150の危険度合いを判定する。例えば、移動方向についての危険度合いと移動速度についての危険度合いの積(乗算値)又は和(加算値)などを、移動ベクトル150の危険度合いとすることができる。図16の例では、移動方向は安全(危険度合い=1)であるが、移動速度が大きい(危険度合い=4)ため、移動ベクトル90の危険度合いは4(乗算値の場合)という判定結果が得られる。すなわち、頭部22の移動方向だけをみればベッドから降りる方向ではあるが、その移動速度(移動量)が非常に大きいので、通常のベッドから降りる動作ではなくベッドから転落ないし転倒する動きであるとみなし、危険度合が高いと判定するのである。判定部92の判定結果(危険度スコア)は記憶部117に格納される。
続いて、状態表示部94が、危険度スコアおよび対象者21の状態を表示装置13に出力する(ステップS156)。以上のステップS150〜S156は、システムが終了するまでフレーム毎に実行される(ステップS157)。状態表示画面は実施例1(図14)と同様である。本実施例の方法によっても実施例1と同様の効果を得ることができる。
(実施例3)
図17を参照して第2実施形態の実施例3の状態監視処理の一例を説明する。図17は、情報処理装置11により実行される実施例3の状態監視処理のフローチャートである。
ステップS100において、画像取得部110が、撮像装置10から画像を取得する。
取得された画像は記憶部117に一時的に記憶される。ステップS101では、検出部90が、ステップS100で取得された画像から対象者21の頭部22を検出する。検出された頭部22の位置の情報は、当該画像の時刻情報又はフレーム番号に対応付けて記憶部117に記憶される。次に、状態認識部91が、所定時間前(例えば1秒前)の画像における頭部22の位置の情報を記憶部117から読み出し(ステップS102)、所定時間前の頭部22の位置とステップS101で検出した頭部22の位置に基づき、頭部22の移動速度(所定時間あたりの移動量)を算出する(ステップS103)。
ステップS104では、判定部92が、頭部22が検出された判定領域に対応する判定基準を記憶部117から読み出す。本実施例では、移動速度と危険度合いとを対応付けた判定基準が、判定領域ごとに設定されている。例えば、判定領域A1で頭部22が検出される場合、対象者21は寝ている状態にあるはずである。したがって、起き上がり動作(上半身を起こす動作)における頭部22の一般的な速度(例えば20cm/秒)に基づいて、判定領域A1に対する判定基準を設定するとよい(例えば、移動速度が20cm/秒以下の場合:危険度合い=1、20〜40cm/秒の場合:危険度合い=2、40cm/秒より大きい場合:危険度合い=3など)。また、判定領域A3やA4で頭部22が検出される場合、対象者21が次にとり得る動作として、立ち上がり動作が想定される。したがって、立ち上がり動作における頭部22の一般的な速度(例えば50cm/秒)に基づいて、判定領域A3やA4に対する判定基準を設定するとよい(例えば、移動速度が50cm/秒以下の場合:危険度合い=1、50〜80cm/秒の場合:危険度合い=2、80cm/秒より大きい場合:危険度合い=3など)。
ステップS105では、判定部92が、上述した判定基準を用いて、頭部22の移動速度の危険度合いを判定する。続いて、状態表示部94が、危険度スコアおよび対象者21の状態を表示装置13に出力する(ステップS106)。以上のステップS100〜S106は、システムが終了するまでフレーム毎に実行される(ステップS107)。状態表示画面は実施例1(図14)と同様である。本実施例の方法によっても実施例1と同様の効果を得ることができる。
(実施例4)
図18を参照して第2実施形態の実施例4の状態監視処理の一例を説明する。図18は、情報処理装置11により実行される実施例4の状態監視処理のフローチャートである。
ステップS110において、画像取得部110が、撮像装置10から画像を取得する。取得された画像は記憶部117に一時的に記憶される。ステップS111では、検出部90が、ステップS100で取得された画像から対象者21の頭部22を検出する。検出された頭部22の位置の情報は、当該画像の時刻情報又はフレーム番号に対応付けて記憶部117に記憶される。ステップS112では、状態認識部91が、頭部22の向き、移動速度、移動方向を計算する。具体的な計算方法は、実施例1〜3で述べたものと同じでよい。
ステップS113では、判定部92が、頭部22が検出された判定領域に対応する判定基準を記憶部117から読み出す。そして、判定部92は、頭部22の向きに対する危険度合い(ステップS114)、頭部22の移動ベクトルに対する危険度合い(ステップS115)、頭部22の移動速度に対する危険度合い(ステップS116)をそれぞれ計算する。具体的な計算方法は、実施例1〜3で述べたものと同じでよい。次にステップS117において、判定部92が、ステップS114〜S116で得られた危険度合いの3つの値を統合して、危険度合いの統合スコアを計算する。例えば、3つのうちの最大値を統合スコアに選んでもよいし、3つないし2つの値の平均値、乗算値、加算値などを統合スコアに選んでもよい。
続いて、状態表示部94が、統合スコアおよび対象者21の状態を表示装置13に出力する(ステップS118)。以上のステップS110〜S118は、システムが終了するまでフレーム毎に実行される(ステップS119)。状態表示画面は実施例1(図14)と同様である。本実施例の方法によっても実施例1と同様の効果を得ることができる。
<その他>
上記の各実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
上記実施形態では、画像から就床状態/起床状態/離床状態を推定するとともに、対象者の起床行動と離床行動を検知する例を説明した。ただし、推定対象の状態や、検知対象の行動はこれらに限られない。すなわち、画像に異なる特徴が現れるものであれば、さまざまな「人の状態」や「行動」を取り扱うことが可能である。例えば、食事、読書などの行動を検知することも可能である。
1:見守り支援システム
10:撮像装置、11:情報処理装置、12:学習装置、13:表示装置
100:照明、101:近赤外線カメラ、110:画像取得部、111:領域設定部、112:前処理部、113:回帰器、114:スコア安定化部、115:判定部、116:状態表示部、117:記憶部
20:ベッド、21:対象者、22:頭部
30:監視領域、40〜43:ベッドの四隅の点、44:ベッド領域、A1〜A4:判定領域
70:頭部の向きを示す矢印、71:判定基準
80:状態画像、81:状態変化グラフ、82:マーカー、83:状態画像、84:状態変化グラフ、85:マーカー
90:検出部、91:状態認識部、92:判定部、93:領域設定部、94:状態表示部
150:頭部の移動ベクトル、151:移動方向に関する判定基準、152:移動速度に関する判定基準

Claims (10)

  1. ベッド上の対象者の見守りを支援する見守り支援システムであって、
    前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、
    前記画像取得部により得られた前記監視領域の画像に基づいて、前記対象者の状態を定量化したスコアを出力する状態定量化部と、
    前記状態定量化部から出力されるスコアの時間的な変化を示すグラフを表示装置に表示する状態表示部と、
    を有することを特徴とする見守り支援システム。
  2. 前記状態定量化部は、ベッドと人が写る画像を入力とし前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習された回帰器を有しており、前記監視領域の画像を前記回帰器に入力することにより、前記対象者の状態を定量化したスコアを取得することを特徴とする請求項1に記載の見守り支援システム。
  3. 前記回帰器は、ニューラルネットワークである
    ことを特徴とする請求項2に記載の見守り支援システム。
  4. 前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
    前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
    ことを特徴とする請求項2又は3に記載の見守り支援システム。
  5. 前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含む
    ことを特徴とする請求項4に記載の見守り支援システム。
  6. 前記対象者の状態を定量化したスコアは、前記対象者の状態の危険度合いを表すスコアである
    ことを特徴とする請求項1に記載の見守り支援システム。
  7. 前記監視領域の画像内のベッドの領域に基づき設定される複数の判定領域ごとに、危険な状態を判定するための判定基準があらかじめ設定されている判定基準記憶部を有し、
    前記状態定量化部は、前記監視領域の画像から前記対象者の頭部を検出する検出部を有しており、前記頭部が検出された位置に対応する判定領域の判定基準を用いて、前記対象者の状態の危険度合いを表すスコアを算出する
    ことを特徴とする請求項6に記載の見守り支援システム。
  8. 前記状態定量化部は、頭部の向き、頭部の移動速度、頭部の移動方向、頭部の移動ベクトルのうち少なくとも1つ以上の項目に基づいて、前記対象者の状態の危険度合いを表すスコアを算出する
    ことを特徴とする請求項7に記載の見守り支援システム。
  9. ベッド上の対象者の見守りを支援する見守り支援システムの制御方法であって、
    前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得するステップと、
    前記監視領域の画像に基づいて、前記対象者の状態を定量化したスコアを出力するステップと、
    前記スコアの時間的な変化を示すグラフを表示装置に表示するステップと、
    を有することを特徴とする見守り支援システムの制御方法。
  10. 請求項9に記載の見守り支援システムの制御方法の各ステップをコンピュータに実行させるためのプログラム。
JP2017125232A 2017-06-27 2017-06-27 見守り支援システム及びその制御方法 Active JP6822328B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017125232A JP6822328B2 (ja) 2017-06-27 2017-06-27 見守り支援システム及びその制御方法
PCT/JP2018/021984 WO2019003859A1 (ja) 2017-06-27 2018-06-08 見守り支援システム及びその制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017125232A JP6822328B2 (ja) 2017-06-27 2017-06-27 見守り支援システム及びその制御方法

Publications (2)

Publication Number Publication Date
JP2019008638A true JP2019008638A (ja) 2019-01-17
JP6822328B2 JP6822328B2 (ja) 2021-01-27

Family

ID=64742966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017125232A Active JP6822328B2 (ja) 2017-06-27 2017-06-27 見守り支援システム及びその制御方法

Country Status (2)

Country Link
JP (1) JP6822328B2 (ja)
WO (1) WO2019003859A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021005229A (ja) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ 安全管理装置、安全管理方法及び安全管理プログラム
JPWO2020218409A1 (ja) * 2019-04-25 2021-05-06 株式会社クロスエッジラボ 見守り監視システム
JP2022102516A (ja) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP7237382B1 (ja) 2021-12-24 2023-03-13 知能技術株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP7477764B2 (ja) 2020-08-19 2024-05-02 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109582A (ja) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 情報処理装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040482A (ja) * 1996-07-23 1998-02-13 Hiroshi Akashi 文章情報による無人報知システム
JP2002024962A (ja) * 2000-07-07 2002-01-25 Nippon Lsi Card Co Ltd 現場状況報知方法とそのシステム並びにこれに用いる撮像ユニット
JP2007213528A (ja) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2007241477A (ja) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd 画像処理装置
JP2009082511A (ja) * 2007-09-29 2009-04-23 Kohshin Rubber Co Ltd 就寝モニター装置
JP2015138460A (ja) * 2014-01-23 2015-07-30 富士通株式会社 状態認識方法及び状態認識装置
JP2016157219A (ja) * 2015-02-24 2016-09-01 株式会社日立製作所 画像処理方法、画像処理装置
JP2017098180A (ja) * 2015-11-27 2017-06-01 株式会社レイトロン 照明装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040482A (ja) * 1996-07-23 1998-02-13 Hiroshi Akashi 文章情報による無人報知システム
JP2002024962A (ja) * 2000-07-07 2002-01-25 Nippon Lsi Card Co Ltd 現場状況報知方法とそのシステム並びにこれに用いる撮像ユニット
JP2007213528A (ja) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2007241477A (ja) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd 画像処理装置
JP2009082511A (ja) * 2007-09-29 2009-04-23 Kohshin Rubber Co Ltd 就寝モニター装置
JP2015138460A (ja) * 2014-01-23 2015-07-30 富士通株式会社 状態認識方法及び状態認識装置
JP2016157219A (ja) * 2015-02-24 2016-09-01 株式会社日立製作所 画像処理方法、画像処理装置
JP2017098180A (ja) * 2015-11-27 2017-06-01 株式会社レイトロン 照明装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020218409A1 (ja) * 2019-04-25 2021-05-06 株式会社クロスエッジラボ 見守り監視システム
JP2021005229A (ja) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ 安全管理装置、安全管理方法及び安全管理プログラム
JP7477764B2 (ja) 2020-08-19 2024-05-02 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
JP2022102516A (ja) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP7138158B2 (ja) 2020-12-25 2022-09-15 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP7237382B1 (ja) 2021-12-24 2023-03-13 知能技術株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2023095698A (ja) * 2021-12-24 2023-07-06 知能技術株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
JP6822328B2 (ja) 2021-01-27
WO2019003859A1 (ja) 2019-01-03

Similar Documents

Publication Publication Date Title
JP6822328B2 (ja) 見守り支援システム及びその制御方法
US20230222887A1 (en) Machine learning based monitoring system
US10786183B2 (en) Monitoring assistance system, control method thereof, and program
Kwolek et al. Human fall detection on embedded platform using depth maps and wireless accelerometer
JP6588978B2 (ja) 人の向き及び/又は位置の自動検出のための装置、システム、及び方法
WO2016199749A1 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6915421B2 (ja) 見守り支援システム及びその制御方法
US10229491B1 (en) Medical environment monitoring system
US20210219873A1 (en) Machine vision to predict clinical patient parameters
WO2020145380A1 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
US10475206B1 (en) Medical environment event parsing system
JP6822326B2 (ja) 見守り支援システム及びその制御方法
Seredin et al. The study of skeleton description reduction in the human fall-detection task
JP3767898B2 (ja) 人物行動理解システム
JP6729510B2 (ja) 見守り支援システム及びその制御方法
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
JP6870514B2 (ja) 見守り支援システム及びその制御方法
Inoue et al. Bed exit action detection based on patient posture with long short-term memory
Su et al. A smart ward with a fall detection system
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
GB2581767A (en) Patient fall prevention
US10853679B2 (en) Monitoring assistance system, control method thereof, and program
JP7489248B2 (ja) 情報処理システム、情報処理方法、及び、情報処理プログラム
JP6729512B2 (ja) 見守り支援システム及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6822328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150