JPWO2016185738A1 - 画像解析装置、画像解析方法、及び、画像解析プログラム - Google Patents

画像解析装置、画像解析方法、及び、画像解析プログラム Download PDF

Info

Publication number
JPWO2016185738A1
JPWO2016185738A1 JP2017518775A JP2017518775A JPWO2016185738A1 JP WO2016185738 A1 JPWO2016185738 A1 JP WO2016185738A1 JP 2017518775 A JP2017518775 A JP 2017518775A JP 2017518775 A JP2017518775 A JP 2017518775A JP WO2016185738 A1 JPWO2016185738 A1 JP WO2016185738A1
Authority
JP
Japan
Prior art keywords
bed
person
watched
image
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017518775A
Other languages
English (en)
Other versions
JP6607253B2 (ja
Inventor
松本 修一
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Precision Co Ltd filed Critical Noritsu Precision Co Ltd
Publication of JPWO2016185738A1 publication Critical patent/JPWO2016185738A1/ja
Application granted granted Critical
Publication of JP6607253B2 publication Critical patent/JP6607253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Nursing (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Image Analysis (AREA)

Abstract

見守り対象者のずり落ちを検知する技術を提供する。本発明の一側面に係る画像解析装置は、見守り対象者のベッドからのずり落ちを検知するために、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前景領域が所定時間以上継続して現れるか否かを判定し、当該所定の大きさ以上の前景領域がずり落ち用検知領域に所定時間以上継続して現れたと判定した場合に、見守り対象者のベッドからのずり落ちを検知する。

Description

本発明は、画像解析装置、画像解析方法、及び、画像解析プログラムに関する。
近年、入院患者、施設入居者、要介護者等の見守り対象者がベッドから転倒、転落する事故、及び、認知症患者の徘徊による事故が年々増加する傾向にある。このような事故を防止するため、室内に設置したカメラで見守り対象者を撮影し、撮影した画像を解析することで、起き上がり、端座位、離床等の見守り対象者の行動を検知する見守りシステムが開発されている。
例えば、特許文献1では、見守り対象者の身体の少なくとも一部が予め設定された監視領域から逸脱したか否かによって、当該見守り対象者の行動を検知する方法が提案されている。この方法では、ベッド面上の所定の範囲に矩形状監視領域が設定され、ベッド全体を覆う範囲に半球状監視領域が設定される。これにより、見守り対象者の腕、足等の一部が矩形状監視領域から逸脱したことを検出することで、当該見守り対象者の身体の一部がベッドからはみ出したことを検知することができる。また、見守り対象者の頭部又は上半身が矩形状監視領域から逸脱したことを検出することで、当該見守り対象者の起き上がりを検知することができる。更に、見守り対象者の身体が半球状監視領域から逸脱したことを検出することで、当該見守り対象者の離床を検知することができる。
また、例えば、特許文献2では、各画素の深度を含む撮影画像から前景領域を抽出し、抽出された前景領域とベッド等との位置関係に基づいて、見守り対象者の行動を推定する方法が提案されている。この方法では、抽出される前景領域が見守り対象者の行動に関連すると仮定して各推定条件が設定されており、抽出された前景領域とベッド等との位置関係が各推定条件を満たすか否かを判定することで、当該見守り対象者の行動を検知することができる。なお、この特許文献2では、検知対象の行動として、見守り対象者の起き上がり、端座位、柵越え、落下及び離床が例示されている。
特開2014−149731号公報 特開2014−236896号公報
見守り対象者を介護する現場では、起き上がり、離床等の行動の他に、見守り対象者のベッドからのずり落ちを検知してほしいとの要望がある。ずり落ちとは、見守り対象者がベッド上にいる状態からベッドの下に転落した状態に、例えば数分程度の時間をかけて段階的に変化していく際の行動を指す。
例えば、筋力が著しく低下し、自力で起き上がることが困難な高齢者は、自力で離床しようとする際に、ベッド外に足を下ろして、ベッドの柵にしがみつきながら起き上がろうとする。このとき、この高齢者は、自身の上半身を起こすことができず、ベッドの柵にしがみ付いたまま下半身からベッド外に徐々に転落してしまう可能性がある。このベッド外に徐々に転落していく一連の動作が、見守り対象者のずり落ち行動に相当する。
見守り対象者のずり落ちを検知することができれば、当該見守り対象者がベッドから完全に転落してしまう事故を防止することができる。しかしながら、このずり落ち行動は、転落に向かって段階的に移動する動作であり、ベッド上での起き上がり、端座位等の行動とは相違している。そして、従来の見守りシステムでは、このようなベッド上からベッド下に段階的に転落していくような動作を検知することは想定されていなかった。そのため、従来の見守りシステムによれば、見守り対象者の起き上がり、離床等の行動を検知することはできるものの、このような見守り対象者のずり落ち行動を検知することができなかった。
本発明は、一側面では、このような点を考慮してなされたものであり、見守り対象者のずり落ちを検知する技術を提供することを目的とする。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る画像解析装置は、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得する画像取得部と、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知する行動検知部と、を備える。そして、前記行動検知部は、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定し、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する。
上記構成によれば、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像が取得され、取得された撮影画像と撮影画像の背景に設定された背景画像との差分が算出される。これによって、取得された撮影画像において前景領域が抽出される(いわゆる背景差分法)。前景領域は、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。したがって、抽出される前景領域の位置に基づいて、見守り対象者の行動を解析することができる。
ここで、ずり落ちとは、見守り対象者がベッド上にいる状態からベッドの下に転落した状態に、例えば数分程度の時間をかけて段階的に変化していく際の行動である。そのため、見守り対象者がベッドからずり落ちる場合には、ベッドサイドにおいてベッド面から所定の高さの範囲に、当該見守り対象者に対応する所定の大きさ以上の前景領域が継続的に現れ得る。
そこで、上記構成では、見守り対象者のベッドからのずり落ちを検知するために、ベッドサイドにおいてベッド面から所定の高さの範囲にずり落ち用検知領域が設定される。そして、当該ずり落ち用検知領域に所定の大きさ以上の前景領域が所定時間以上継続して現れるか否かが判定される。これによって、所定の大きさ以上の前景領域がずり落ち用検知領域に所定時間以上継続して現れたと判定した場合に、当該見守り対象者のベッドからのずり落ちを検知することができる。したがって、上記構成によれば、見守り対象者のずり落ちを検知する技術を提供することができる。
また、上記一側面に係る画像解析装置の別の形態として、前記行動検知部は、抽出された前記前景領域の解析に基づいて、前記見守り対象者以外の人物がベッドサイドに存在している第1条件と、前記見守り対象者が前記ベッド上で就寝する以外の行動を行っている第2条件と、が満たされているか否かを判定してもよい。そして、前記行動検知部は、前記第1条件及び前記第2条件の少なくともいずれか一方が満たされていると判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を停止してもよく、前記第1条件及び前記第2条件が共に満たされていないと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を開始してもよい。
上記のとおり、見守り対象者のベッドからのずり落ちを検知するためのずり落ち用検知領域は、ベッドサイドに設定される。そのため、見守り対象者以外の人物がベッドサイドに存在している場合には、当該見守り対象者以外の人物に対応する前景領域を見守り対象者に対応する前景領域と間違え、見守り対象者のベッドからのずり落ちを誤検知してしまう可能性がある。
また、見守り対象者がベッド上で就寝している以外の状態(例えば、見守り対象者がベッド上で起き上がっている、ベッドから離床している等)にある場合には、見守り対象者のずり落ち以外の行動によって、ずり落ち用検知領域に前景領域が現れる可能性がある。そのため、見守り対象者がベッド上で就寝している以外の状態にある場合には、当該見守り対象者のずり落ち以外の行動をずり落ち行動と誤検知してしまう可能性がある。更に、このような場合には、見守り対象者がベッドからずり落ちる可能性は殆どなく、当該見守り対象者のベッドからのずり落ちを検知する必要性が極めて低くなる。
そこで、当該構成では、抽出された前景領域の解析に基づいて、見守り対象者以外の人物がベッドサイドに存在している第1条件と、見守り対象者がベッド上で就寝する以外の行動を行っている第2条件と、が満たされているか否かを判定する。そして、第1条件及び第2条件の少なくともいずれか一方が満たされている場合には、見守り対象者のベッドからのずり落ちを検知する判定処理の実行を停止する。一方、第1条件及び第2条件が共に満たされていない場合には、見守り対象者のベッドからのすり落ちを検知する判定処理の実行を開始する。これによって、当該構成によれば、上記のような場合に生じるずり落ちの誤検知を防止することができる。
また、上記一側面に係る画像解析装置の別の形態として、上記画像解析装置は、前記第1条件及び前記第2条件が共に満たされていないと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を開始する際に、このときに取得された前記撮影画像を前記背景画像に設定することで、前記背景画像を更新する背景画像更新部を更に備えてもよい。
見守り対象者以外の人物がベッドサイドに存在する場合、又は、見守り対象者がベッド上で就寝する以外の行動を行っている場合には、ベッドサイドの領域において背景の状態が変更される可能性がある。例えば、見守り対象者以外の人物が、車椅子、点滴台等をベッドサイドに配置したケースが、ベッドサイドの領域において背景の状態が変更されるケースに該当する。このようにベッドサイドの領域において背景の状態が変更されたときには、ベッドサイドに設定されたずり落ち用検知領域に前景領域が現れてしまい、見守り対象者のベッドからのずり落ちを誤検知してしまう可能性がある。
これに対して、当該構成によれば、見守り対象者のずり落ちを検知する判定処理の実行を開始する際に取得される撮影画像を背景画像に設定することで、前景領域の抽出に利用する背景画像の更新が行われる。そのため、上記のような理由によりベッドサイドの領域において背景の状態が変更されても、その変更が生じた後に取得される撮影画像で背景画像を更新するため、その背景の変更が生じた領域で前景領域が抽出されるのを防ぐことができる。したがって、当該構成によれば、上記のような場合に生じるずり落ちの誤検知を防止することができる。
また、上記一側面に係る画像解析装置の別の形態として、前記ずり落ち用検知領域は、少なくとも布団の厚み分は前記ベッドから離れた位置に設定されてよい。上記のとおり、見守り対象者のベッドからのずり落ちを検知するためのずり落ち用検知領域は、ベッドサイドに設定される。ベッド上から布団がはみ出した場合には、この布団に対応する前景領域がこのずり落ち用検知領域に表れてしまい、見守り対象者のベッドからのずり落ちを誤検知してしまう可能性がある。これに対して、当該構成では、ずり落ち用検知領域は、少なくとも布団の厚み分はベッドから離れた位置に設定される。そのため、当該構成によれば、ベッド上から布団がはみ出したことに起因するずり落ちの誤検知を防止することができる。
また、上記一側面に係る画像解析装置の別の形態として、前記画像取得部は、前記撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得してもよい。また、前記前景抽出部は、深度データを含む前記背景画像と取得された前記撮影画像との差分を算出することで、取得された前記撮影画像の前記前景領域を抽出してもよい。そして、前記行動検知部は、抽出された前記前景領域に含まれる各画素の深度を参照することにより特定される前記前景領域の実空間における位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知してもよい。
当該構成では、撮影画像及び背景画像はそれぞれ、各画素の深度を示す深度データを含む。各画素の深度は、各画素に写る被写体の深さを表現する。そのため、この深度データによれば、被写体の実空間における位置を特定することができる。したがって、当該構成によれば、撮影装置の設置場所及び視野方向に依存することなく、見守り対象者、ベッド等の見守り空間に存在する対象物の実空間上の位置を特定することができる。よって、当該構成によれば、撮影装置の設置条件に限定されず、見守り対象者の行動を精度よく検知することができる。
また、上記一側面に係る画像解析装置の別の形態として、上記画像解析装置は、前記見守り対象者の前記ベッドからのずり落ちを検知した場合に、当該見守り対象者が前記ベッドからずり落ちている状態にあることを知らせるための通知を行う通知部を更に備えてもよい。当該構成によれば、見守り対象者のベッドからのずり落ちを検知したことを通知することができる。なお、通知先及び通知方法は、実施の形態に応じて適宜選択することができる。例えば、当該通知は、見守り者に対して行われてもよい。見守り者は、見守り対象者の行動を見守る者である。見守り対象者が、入院患者、施設入居者、要介護者等である場合は、見守り者は、例えば、看護師、施設職員、介護者等である。
なお、上記各形態に係る画像解析装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理装置によって実現されてもよい。
例えば、本発明の一側面に係る画像解析方法は、コンピュータが、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知するステップと、を実行し、前記見守り対象者の行動を検知するステップでは、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定し、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する、情報処理方法である。
また、例えば、本発明の一側面に係る画像解析プログラムは、コンピュータに、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知するステップと、を実行させ、前記見守り対象者の行動を検知するステップでは、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定させ、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知させる、ためのプログラムである。
本発明によれば、見守り対象者のずり落ちを検知することが可能になる。
図1は、本発明が適用される場面の一例を模式的に例示する。 図2は、実施の形態に係る画像解析装置のハードウェア構成を例示する。 図3は、実施の形態に係るカメラにより取得される深度と被写体との関係を例示する。 図4は、実施の形態に係る画像解析装置の機能構成を例示する。 図5は、実施の形態に係る画像解析装置における見守り対象者の行動解析に関する処理手順を例示する。 図6は、実施の形態に係るカメラにより取得される撮影画像を例示する。 図7は、実施の形態に係る撮影画像内の座標関係を例示する。 図8は、実施の形態に係る撮影画像の任意の点(画素)とカメラとの実空間内での位置関係を例示する。 図9は、撮影画像に含まれる深度データに基づいて特定される撮影範囲内の被写体の三次元分布を例示する。 図10は、撮影画像から抽出される前景領域の三次元分布を例示する。 図11Aは、見守り対象者のベッド上での起き上がりを検知する場面を模式的に例示する。 図11Bは、見守り対象者のベッド上での起き上がりを検知する場面を模式的に例示する。 図12Aは、見守り対象者のベッドでの端座位を検知する場面を模式的に例示する。 図12Bは、見守り対象者のベッドでの端座位を検知する場面を模式的に例示する。 図13Aは、見守り対象者のベッドからの離床を検知する場面を模式的に例示する。 図13Bは、見守り対象者のベッドからの離床を検知する場面を模式的に例示する。 図14Aは、見守り対象者のベッドからのずり落ちを検知する場面を模式的に例示する。 図14Bは、見守り対象者のベッドからのずり落ちを検知する場面を模式的に例示する。 図15は、ずり落ち検知の判定処理モードの変化を例示する状態遷移図である。 図16は、ずり落ち検知の判定処理モードの制御に関する処理手順を例示する。 図17Aは、第三者がベッドサイドに存在する場面を例示する。 図17Bは、第三者がベッドサイドに存在する場面を例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。
§1 適用場面
まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る画像解析装置1が用いられる場面を模式的に例示する。本実施形態に係る画像解析装置1は、カメラ2によって見守り対象者を撮影し、それにより得られた撮影画像3を画像解析することで、見守り対象者の行動を検知する情報処理装置である。そのため、本実施形態に係る画像解析装置1は、見守り対象者の見守りを行う場面で広く利用可能である。
具体的には、図1で例示されるように、本実施形態に係る画像解析装置1は、カメラ2によって見守り対象者を撮影する。カメラ2は、本発明の「撮影装置」に相当する。また、見守り対象者は、見守りの対象となる人物であり、例えば、入院患者、施設入居者、要介護者である。
この見守り対象者は、例えば、ベッド上で就寝しており、カメラ2は、そのような状態の見守り対象者のベッドにおける行動を撮影するために設置されている。このカメラ2は、この見守り対象者の見守りを行う範囲を撮影可能であれば、いかなる場所に配置されてもよい。
本実施形態に係る画像解析装置1は、このようなカメラ2によって撮影された撮影画像3を取得する。そして、画像解析装置1は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像(後述する背景画像4)との差分を算出することにより、取得された撮影画像3の前景領域を抽出する。すなわち、画像解析装置1は、いわゆる背景差分法に基づいて、撮影画像3の前景領域を抽出する。
前景領域は、撮影画像3と背景画像とで差がある場所、換言すると、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。例えば、図1に例示されるように、見守り対象者がベッド上で起き上がった場合には、ベッド面上の所定の高さの範囲に前景領域が現れる。そこで、画像解析装置1は、抽出された前景領域の位置に基づいて見守り対象者の行動を解析することで、見守り対象者のベッドにおける行動を検知する。
ここで、ずり落ちとは、見守り対象者がベッド上にいる状態からベッドの下に転落した状態に、比較的に長い時間をかけて段階的に変化していく際の行動である。したがって、見守り対象者がベッドからずり落ちる場合には、見守り対象者の身体は、ベッドサイドにおいてベッド上からベッド下に徐々に移行していく。そのため、見守り対象者がベッドからずり落ちる場合には、当該見守り対象者の身体が移動する経路に、換言すると、ベッドサイドにおけるベッド面から所定の高さの範囲に、当該見守り対象者の身体部位に対応する所定の大きさ以上の前景領域が継続的に現れ得る。
そこで、本実施形態では、見守り対象者のベッドからのずり落ちを検知するために、ベッドサイドにおいてベッド面から所定の高さの範囲にずり落ち用検知領域(後述するずり落ち用検知領域DD)が設定される。画像解析装置1は、上記見守り対象者の行動を解析する際に、このずり落ち用検知領域に所定の大きさ以上の前景領域が所定時間以上継続して現れるか否かを判定する。そして、所定の大きさ以上の前景領域がずり落ち用検知領域に所定時間以上継続して現れたと判定した場合に、画像解析装置1は、見守り対象者のベッドからのずり落ちを検知する。したがって、本実施形態によれば、見守り対象者のずり落ちを検知する技術を提供することができる。
なお、画像解析装置1の配置場所は、カメラ2から撮影画像3を取得可能であれば、実施の形態に応じて適宜決定可能である。例えば、画像解析装置1は、図1に例示されるように、カメラ2に近接するように配置されてもよい。また、画像解析装置1は、ネットワークを介してカメラ2と接続してもよく、当該カメラ2とは全く異なる場所に配置されてもよい。
§2 構成例
<ハードウェア構成>
次に、図2を用いて、画像解析装置1のハードウェア構成を説明する。図2は、本実施形態に係る画像解析装置1のハードウェア構成を例示する。画像解析装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
なお、画像解析装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、例えば、タッチパネルディスプレイ13は、それぞれ別個独立に接続される入力装置及び表示装置に置き換えられてもよい。また、例えば、スピーカ14は省略されてもよい。また、例えば、スピーカ14は、画像解析装置1の内部装置としてではなく、外部装置として画像解析装置1に接続されてもよい。また、画像解析装置1はカメラ2を内蔵してもよい。更に、画像解析装置1は、複数の外部インタフェース15を備えてもよく、複数の外部装置と接続してもよい。
本実施形態では、カメラ2は、外部インタフェース15を介して画像解析装置1に接続している。このカメラ2は、本発明の撮影装置に相当する。本実施形態に係るカメラ2は、被写体の深度を測定するための深度センサ21を備えている。この深度センサ21の種類及び測定方法は、実施の形態に応じて適宜選択されてよい。例えば、深度センサ21として、TOF(Time Of Flight)方式等のセンサを挙げることができる。
ただし、カメラ2の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、カメラ2は、ステレオカメラであってもよい。ステレオカメラは、撮影範囲内の被写体を複数の異なる方向から撮影するため、当該被写体の深度を記録することができる。また、カメラ2は、深度センサ21単体に置き換わってもよい。
なお、見守り対象者を撮影する場所は暗い可能性がある。そこで、撮影場所の明るさに影響されずに深度を取得可能なように、深度センサ21は、赤外線の照射に基づいて深度を測定する赤外線深度センサであってもよい。このような赤外線深度センサを含む比較的安価な撮影装置として、例えば、マイクロソフト社のKinect、ASUS社のXtion、Occipital社のStucture Sensorを挙げることができる。
ここで、図3を用いて、本実施形態に係る深度センサ21によって測定される深度を詳細に説明する。図3は、本実施形態に係る深度として扱うことが可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3で例示されるように、被写体の深さは、例えば、カメラ2と対象物との直線の距離Aで表現されてもよいし、カメラ2の被写体に対する水平軸から下ろした垂線の距離Bで表現されてもよい。
すなわち、本実施形態に係る深度は、距離Aであってもよいし、距離Bであってもよい。本実施形態では、距離Bを深度として扱うことにする。ただし、距離Aと距離Bとは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離Bを用いた以降の説明は、そのまま、距離Aに適用することが可能である。このような深度を利用することで、本実施形態に係る画像解析装置1は、実空間上における被写体の位置を特定することができる。
このカメラ2は、見守り対象者のベッドにおける行動を見守るために、ベッド周辺の領域を撮影可能なように設置されている。例えば、図1では、カメラ2は、ベッドのフットボード側から見守り対象者を撮影するように配置されている。ただし、上記のとおり、本実施形態では、カメラ2は、被写体の深度を測定可能に構成される。これにより、本実施形態では、カメラ2の設置場所及び撮影方向に依存することなく、被写体の実空間上の位置を特定することができる。そのため、カメラ2の設置場所及び撮影方向は、このような例に限定されなくてもよく、ベッド周辺を撮影可能であれば、実施の形態に応じて適宜選択されてよい。
また、本実施形態では、記憶部12は、プログラム5を格納する。このプログラム5は、画像解析装置1に後述する背景画像の設定に関する各処理を実行させるためのプログラムであり、本発明の「画像解析プログラム」に相当する。このプログラム5は記憶媒体6に記録されていてもよい。
記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、このような画像解析装置1は、例えば、提供されるサービス専用に設計された装置であってもよいし、PC(Personal Computer)、タブレット端末等の汎用の装置であってもよい。更に、画像解析装置1は、1又は複数のコンピュータにより実装されてもよい。
<機能構成例>
次に、図4を用いて、画像解析装置1の機能構成を説明する。図4は、本実施形態に係る画像解析装置1の機能構成を例示する。本実施形態では、画像解析装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、画像解析装置1は、画像取得部111、前景抽出部112、行動検知部113、背景更新部114及び通知部115を備えるコンピュータとして機能する。
画像取得部111は、カメラ2によって撮影された撮影画像3を取得する。カメラ2には深度センサ21が含まれているため、取得される撮影画像3には、当該撮影画像3内の各画素の深度を示す深度データが含まれる。前景抽出部112は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、取得された撮影画像3の前景領域を抽出する。すなわち、前景抽出部112は、いわゆる背景差分法に基づいて、背景から変化した領域である前景領域を撮影画像3において抽出する。
行動検知部113は、抽出された前景領域の解析に基づいて見守り対象者の行動を検知する。上記のとおり、前景領域は、背景画像4から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。そこで、行動検知部113は、抽出された前景領域の位置に基づいて見守り対象者の行動を解析することで、当該見守り対象者のベッドにおける行動を検知する。
特に、行動検知部113は、見守り対象者のベッドからのずり落ちを検知可能に構成される。具体的には、見守り対象者のベッドからのずり落ちを検知するために、ベッドサイドにおいてベッド面から所定の高さの範囲にずり落ち用検知領域が設定される。このずり落ち用検知領域は、ユーザによって設定されてもよいし、システム上で予め設定されてもよい。行動検知部113は、当該ずり落ち用検知領域に所定の大きさ以上の前景領域が所定時間以上継続して現れるか否かを判定する。そして、行動検知部113は、所定の大きさ以上の前景領域がずり落ち用検知領域に所定時間以上継続して現れたと判定した場合に、当該見守り対象者のベッドからのずり落ちを検知する。
また、背景更新部114は、取得された撮影画像3によって、前景抽出部112の利用する背景画像4を更新する。特に、背景更新部114は、見守り対象者のベッドからのずり落ちを検知する判定処理の実行を開始する際に、このときに取得された撮影画像3を背景画像4に設定することで、画像解析装置1に保持された背景画像4を更新する。更に、通知部115は、見守り対象者のベッドからのずり落ちを検知した場合に、当該見守り対象者がベッドからずり落ちている状態にあることを知らせるための通知を行う。
なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、画像解析装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換、及び追加が行われてもよい。例えば、画像解析装置1が背景画像4の更新を行わない場合には、背景更新部114は省略されてもよい。また、画像解析装置1がずり落ち検知の通知を行わない場合には、通知部115は省略されてもよい。各機能に関しては後述する動作例で詳細に説明する。
§3 動作例
次に、図5を用いて、画像解析装置1の動作例を説明する。図5は、画像解析装置1による見守り対象者の行動解析に関する処理手順を例示する。なお、以下で説明する見守り対象者の行動解析に関する処理手順は、本発明の「画像解析方法」に相当する。ただし、以下で説明する見守り対象者の行動解析に関する処理手順は一例にすぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換及び追加が可能である。
(ステップS101)
ステップS101では、制御部11は、画像取得部111として機能し、カメラ2により撮影された撮影画像3を取得する。そして、撮影画像3を取得すると、制御部11は、次のステップS102に処理を進める。
上記のとおり、本実施形態では、カメラ2は、深度センサ21を備えている。そのため、本ステップS101において取得される撮影画像3には、各画素の深度を示す深度データが含まれている。制御部11は、この深度データを含む撮影画像3として、例えば、図6で例示される撮影画像3を取得する。
図6は、深度データを含む撮影画像3の一例を示す。図6で例示される撮影画像3は、各画素の濃淡値が当該各画素の深度に応じて定められた画像である。黒色の画素ほど、カメラ2に近いことを示す。一方、白色の画素ほど、カメラ2から遠いことを示す。この撮影画像3は、深度画像と称されてもよい。制御部11は、この深度データに基づいて、各画素の写る対象の実空間での位置を特定することができる。すなわち、制御部11は、撮影画像3内の各画素の座標(二次元情報)と深度とから、当該各画素内に写る被写体の三次元空間(実空間)での位置を特定することができる。以下、図7及び図8を用いて、制御部11が各画素の実空間上での位置を特定する計算例を示す。
図7は、撮影画像3内の座標関係を例示する。また、図8は、撮影画像3の任意の画素(点s)とカメラ2との実空間内での位置関係を例示する。なお、図7の左右方向は、図8の紙面に垂直な方向に対応する。すなわち、図8で表れている撮影画像3の長さは、図7で例示される縦方向の長さ(Hピクセル)に対応する。また、図7で例示される横方向の長さ(Wピクセル)は、図8で表れていない撮影画像3の紙面垂直方向の長さに対応する。
図7で例示されるように、撮影画像3の任意の画素(点s)の座標が(xs,ys)であるとし、カメラ2の横方向の画角がVx、縦方向の画角がVyであるとする。また、撮影画像3の横方向のピクセル数がWであるとし、縦方向のピクセル数がHであるとし、撮影画像3の中心点(画素)の座標が(0,0)であるとする。
制御部11は、カメラ2の画角(Vx、Vy)を示す情報をカメラ2から取得することができる。ただし、カメラ2の画角(Vx、Vy)を示す情報を取得する方法はこのような例に限られず、制御部11は、カメラ2の画角(Vx、Vy)を示す情報を、ユーザ入力に基づき取得してもよいし、予め設定されている設定値として取得してもよい。また、制御部11は、撮影画像3から、点sの座標(xs,ys)及び撮影画像3のピクセル数(W×H)を取得することができる。更に、制御部11は、撮影画像3に含まれる深度データを参照することによって、点sの深度Dsを取得することができる。
制御部11は、これらの情報を利用することで、当該各画素(点s)の実空間上の位置を特定することができる。例えば、制御部11は、以下の数1〜3で示される関係式に基づいて、図8に例示されるカメラ座標系におけるカメラ2から点sまでのベクトルS(Sx,Sy,Sz,1)の各値を算出することができる。これにより、撮影画像3内の二次元座標系における点sの位置とカメラ座標系における点sの位置とは相互に変換可能になる。
ただし、上記ベクトルSは、カメラ2を中心とした三次元座標系のベクトルである。このカメラ2は、図8に例示されるように、水平方向に対して傾いている場合がある。すなわち、カメラ座標系は、三次元空間(実空間)のワールド座標系から傾いている場合がある。そのため、制御部11は、カメラ2のロール角、ピッチ角(図8のα)及びヨー角を用いた射影変換を上記ベクトルSに適用することによって、上記カメラ座標系のベクトルSをワールド座標系のベクトルに変換し、ワールド座標系における点sの位置を算出してもよい。
なお、深度データを含む撮影画像3のデータ形式は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてもよい。例えば、撮影画像3は、撮影範囲内の被写体の深度が二次元状に分布したデータ(例えば、深度マップ)であってもよい。また、例えば、撮影画像3は、深度データとともに、RGB画像を含んでもよい。
また、撮影画像3は、動画像であってもよいし、1又は複数枚の静止画像であってもよい。更に、制御部11は、このような撮影画像3を、カメラ2のビデオ信号に同期して取得してもよい。そして、制御部11は、カメラ2と同期して取得した撮影画像3に対して、後述するステップS102〜S105までの処理を即座に実行してもよい。画像解析装置1は、このような動作を絶え間なく継続的に実行することにより、リアルタイム画像処理を実現し、カメラ2の撮影範囲に存在する見守り対象者の見守りをリアルタイムに行うことができる。以下では、このように継続的に取得される撮影画像3により見守り対象者の見守りを行う例を説明する。
(ステップS102)
図5に戻り、次のステップS102では、制御部11は、前景抽出部112として機能し、ステップS101で取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、当該撮影画像3の前景領域を抽出する。背景画像4は、背景差分法に基づいて撮影画像3において前景領域を抽出するために利用されるデータである。制御部11は、例えば、当該見守り対象者の見守りを開始したとき等任意のタイミングに取得される撮影画像3によって、この背景画像4を作成することができる。
撮影画像3により背景画像4を作成する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、カメラ2により得られる1フレーム分の撮影画像3をそのまま背景画像4に設定してもよい。また、例えば、制御部11は、カメラ2により得られる数フレーム分の撮影画像3の平均を算出することで、背景画像4を作成してもよい。これによって、各画素の深度を示す深度データを含む背景画像4を生成することができる。
本ステップS102では、制御部11は、このように作成される背景画像4とステップS101で取得した撮影画像3との差分を算出することにより、ステップS101で取得した撮影画像3において前景領域を抽出する。例えば、制御部11は、図9及び図10で例示されるように、撮影画像3において前景領域を抽出することができる。
図9は、撮影画像3に含まれる深度データに基づいて特定される撮影範囲内の各画素(被写体)の三次元分布を例示する。図10は、図9で例示した被写体のうち撮影画像3から抽出される前景領域の三次元分布を例示する。上記のとおり、深度データに基づいて、撮影画像3の各画素の三次元空間(実空間)上の位置を特定することができる。そのため、撮影画像3内の位置と深度とにより各画素を三次元空間内でプロットすることで、図9で例示されるような三次元分布を作成することができる。また、背景画像4も、撮影画像3と同様に、深度データを含んでいる。そのため、背景画像4についても、図9で例示されるような各画素の三次元分布を特定することができる。
そこで、制御部11は、撮影画像3及び背景画像4の対応する画素の深度を比較する。そして、制御部11は、撮影画像3と背景画像4とで深度の相違する画素を前景領域として抽出する。これによって、制御部11は、図10で例示されるような前景領域を抽出することができる。ステップS101で取得した撮影画像3において前景領域を抽出すると、制御部11は、次のステップS103に処理を進める。
(ステップS103)
図5に戻り、次のステップS103では、制御部11は、行動検知部113として機能し、ステップS102で抽出した前景領域の位置に基づいて、見守り対象者の行動を解析する。本実施形態では、撮影画像3は深度データを含んでいる。そのため、制御部11は、前景領域に含まれる各画素の深度を参照することにより、図10で例示されるような前景領域の実空間における位置を特定する。そして、制御部11は、この前景領域の実空間における位置に基づいて見守り対象者の行動を解析する。これにより、制御部11は、見守り対象者のベッドにおける行動を検知する。
なお、前景領域の位置に基づいて見守り対象者の行動を解析する方法は、実施の形態に応じて適宜設定可能である。すなわち、見守り対象者の行動を検知する方法、各行動を検知するための所定の条件及び検出対象とする行動はそれぞれ、実施の形態に応じて適宜選択されてよい。以下では、見守り対象者の行動を検知する方法の一例として、前景領域とベッドとの位置関係に基づいて、見守り対象者の起き上がり、端座位、離床及びずり落ちを検知する方法を説明する。
(1)起き上がり
まず、図11A及び図11Bを用いて、見守り対象者の起き上がりを検知する方法の一例について説明する。図11Aは、見守り対象者がベッド上で起き上がる場面をベッドサイド側から見た状態を模式的に例示する。また、図11Bは、見守り対象者がベッド上で起き上がる場面をフットボード側から見た状態を模式的に例示する。なお、以下では、説明の便宜のため、ベッドのヘッドボードとフットボードとを結ぶ方向を「前後方向」と称し、サイドフレーム間を結ぶ方向を「左右方向」と称し、ベッドの鉛直方向を「上下方向」と称する。
図11A及び図11Bに例示されるように、見守り対象者がベッド上で起き上がった場合、見守り対象者の上半身がベッド面SUの上方に移動するため、ベッド面SUの上方に前景領域が現れると想定される。そのため、このような場所に現れる前景領域に基づいて見守り対象者の起き上がりを検知するために、ベッド面SUから所定の高さHAの位置に、起き上がり用検知領域DAが設定されてもよい。そして、制御部11は、この起き上がり用検知領域DAに所定の大きさを超える前景領域が現れた場合に、見守り対象者のベッド上での起き上がりを検知してもよい。
なお、ベッド面SUの範囲は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。本実施形態では、撮影画像3は深度データを含んでいる。そのため、ベッド面SUは、図9及び図10で例示されるカメラ2の撮影範囲の三次元空間上で適宜設定されてよい。
同様に、起き上がり用検知領域DAは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。また、起き上がり用検知領域DAは、カメラ2の撮影範囲の三次元空間上で適宜設定されてよい。この起き上がり用検知領域DAの範囲を定める所定の高さHA及び起き上がり用検知領域DAの前後方向、左右方向並びに上下方向それぞれの範囲は、見守り対象者がベッド上で起き上がる際に抽出される前景領域を含むように適宜設定される。
また、起き上がりを検知する基準となる前景領域の大きさの閾値は、実施の形態に応じて適宜設定されてよい。ここで、前景領域の大きさは、前景領域に含まれる画素数により与えられてもよい。ただし、カメラ2から被写体が遠ざかるほど、撮影画像3内の被写体の像は小さくなり、カメラ2に被写体が近づくほど、撮影画像3内の被写体の像は大きくなる。撮影画像3内に写る被写体の深度は被写体の表面に対して取得されるが、その撮影画像3の各画素に対応する被写体の表面部分の面積は各画素間で一致するとは限らない。
そこで、制御部11は、被写体の遠近による影響を除外するために、本ステップS103において、各画素の深度を利用して、抽出した前景領域の実空間における面積を算出してもよい。前景領域の実空間における面積は、例えば、次のようにして算出することができる。すなわち、制御部11は、まず、以下の数4及び数5の関係式に基づいて、図7及び図8に例示される任意の点s(1画素)の実空間内における横方向の長さw及び/又は縦方向の長さhをそれぞれ算出する。
続いて、制御部11は、このように算出されるwの2乗、hの2乗、又はwとhとの積によって、深度Dsにおける1画素の実空間内での面積を算出する。そして、制御部11は、前景領域に含まれる各画素の実空間内での面積の総和を求めることで、前景領域の実空間における面積を算出する。これにより、被写体の遠近の影響を除外し、前景領域の大きさを求めることができる。以下、起き上がり以外の行動を検知する際に算出する前景領域の大きさも同様である。
なお、このような面積は、深度データのノイズ、見守り対象者以外の物体の動き、等によって、大きく変化してしまう場合がある。これに対応するため、制御部11は、数フレーム分の面積の平均を利用してもよい。また、制御部11は、処理対象のフレームにおける該当領域の面積と当該処理対象のフレームよりも過去の数フレームにおける当該該当領域の面積の平均との差が所定範囲を超える場合、当該該当領域を処理対象から除外してもよい。
また、制御部11は、この起き上がり用検知領域DAに現れた所定の大きさの前景領域に写る被写体を見守り対象者として推定してもよい。そして、これ以降に行動解析の各処理が繰り返される場合に、制御部11は、見守り対象者が写る領域として推定した前景領域を追跡(トラッキング)することで、各撮影画像3で抽出される1又は複数の前景領域のうち、見守り対象者に対応する前景領域を特定してもよい。これによって、撮影画像3において複数の前景領域が抽出される場合に、制御部11は、いずれの前景領域が見守り対象者に対応するかを容易に推定することができる。
(2)端座位
次に、図12A及び図12Bを用いて、見守り対象者の端座位を検知する方法の一例について説明する。図12Aは、見守り対象者がベッド上で端座位を行っている場面をベッドサイド側から見た状態を模式的に例示する。また、図12Bは、見守り対象者がベッド上で端座位を行っている場面をフットボード側から見た状態を模式的に例示する。
図12A及び図12Bに例示されるように、見守り対象者がベッド上で端座位を行った場合、見守り対象者の身体がベッドのサイドフレーム寄りに移動するため、ベッドのサイドフレーム付近に前景領域が現れると想定される。そのため、このような場所に現れる前景領域に基づいて見守り対象者の端座位を検知するために、ベッド面SU上のサイドフレーム付近の位置に、端座位用検知領域DBが設定されてもよい。
そして、制御部11は、この端座位用検知領域DBに所定の大きさを超える前景領域が現れた場合に、見守り対象者のベッド上での端座位を検知してもよい。また、制御部11は、起き上がりを検知した後に、トラッキングしている前景領域が端座位用検知領域DBに進入した場合に、見守り対象者のベッド上での端座位を検知してもよい。
なお、端座位用検知領域DBは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。また、端座位用検知領域DBは、カメラ2の撮影範囲の三次元空間上で適宜設定されてよい。この端座位用検知領域DBの位置及び各方向の範囲は、見守り対象者が端座位を行った際に抽出される前景領域を含むように適宜設定される。更に、端座位を検知する基準となる前景領域の大きさの閾値は、実施の形態に応じて適宜設定されてよい。この閾値は、上記起き上がりを検知する際の閾値と相違してもよい。
ここで、図12A及び図12Bでは、端座位用検知領域DBは、ベッド面SUより上方に設定されている。しかしながら、端座位用検知領域DBの設定範囲はこのような例に限定されなくてもよく、端座位用検知領域DBは、ベッド面SUより下方の領域を含んでもよい。また、図12A及び図12Bでは、端座位用検知領域DBは、ベッドの両サイドに設定されている。しかしながら、端座位用検知領域DBは、いずれか一方のサイドにのみ設定されてもよい。
(3)離床
次に、図13A及び図13Bを用いて、見守り対象者の離床を検知する方法の一例について説明する。図13Aは、見守り対象者がベッドから離床する場面を模式的に例示する斜視図である。また、図13Bは、見守り対象者がベッドから離床する場面をフットボード側から見た状態を模式的に例示する。
図13A及び図13Bに例示されるように、見守り対象者がベッドから離床した場合には、見守り対象者の身体がベッドから離れる方向に移動するため、ベッドから離れた位置に前景領域が現れると想定される。そのため、このような場所に現れる前景領域に基づいて見守り対象者の離床を検知するために、離床用検知距離HCが設定されてもよい。
そして、制御部11は、所定の大きさを超える前景領域が、ベッド面SUの右サイドから右方向に又はベッド面SUの左サイドから左方向に離床用検知距離HC以上離れた位置に現れた場合に、見守り対象者のベッドからの離床を検知してもよい。また、制御部11は、起き上がりを検知した後に、トラッキングしている前景領域が、ベッド面SUの右サイドから右方向に又はベッド面SUの左サイドから左方向に離床用検知距離HC以上離れた場合に、見守り対象者のベッドからの離床を検知してもよい。
なお、離床用検知距離HCの値は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。この離床用検知距離HCの値は、見守り対象者の離床を検知可能に適宜設定される。また、ベッド面SUのサイドと前景領域との左右方向の距離は、適宜算出可能である。例えば、制御部11は、前景領域に含まれる任意の点とベッド面SUのサイドとの実空間における距離を計算することで、ベッド面SUのサイドと前景領域との左右方向の距離を算出してもよい。ここで、距離を計算する任意の点は、適宜設定することができる。例えば、この任意の点は、前景領域の重心であってもよいし、前景領域内のベッド面SUのサイドに最も近接する画素であってもよい。
また、図13A及び図13Bでは、画像解析装置1は、見守り対象者の離床をベッドの両サイドで検知可能に構成されている。しかしながら、画像解析装置1は、ベッドのいずれか一方のサイドで見守り対象者の離床を検知可能に構成されてもよい。すなわち、制御部11は、ベッドのいずれか一方のサイドで、見守り対象者の検知処理を省略してもよい。
更に、見守り対象者の離床を検知するため、この離床用検知距離HCに代えて、上記起き上がり及び端座位と同様に、離床用検知領域が設定されてもよい。この場合には、上記起き上がり及び端座位と同様の方法で、制御部11は、見守り対象者のベッドからの離床を検知することができる。また、離床を検知する基準となる前景領域の大きさの閾値は、実施の形態に応じて適宜設定されてよい。この閾値は、上記起き上がり及び端座位を検知する際の各閾値と相違してもよい。
(4)ずり落ち
次に、図14A及び図14Bを用いて、見守り対象者のずり落ちを検知する方法の一例について説明する。図14Aは、見守り対象者がベッドからずり落ちている場面をベッドサイド側から見た状態を模式的に例示する。また、図14Bは、見守り対象者がベッドからずり落ちている場面をフットボード側から見た状態を模式的に例示する。
上記のとおり、見守り対象者がベッドからずり落ちる場合には、見守り対象者の身体は、ベッドサイドにおいてベッド上からベッド下に徐々に移行していく。ベッドサイドとは、図14Bに例示されるように、ベッドの左右方向の各端部(サイドフレーム)からベッドと離間する方向の領域である。そのため、図14A及び図14Bに例示されるように、見守り対象者がベッドからずり落ちる場合には、ベッドサイドにおけるベッド面SUから所定の高さの範囲に、当該見守り対象者の身体部位に対応する所定の大きさ以上の前景領域が継続的に現れると想定される。
そこで、本実施形態では、このような場所に現れる前景領域に基づいて見守り対象者のずり落ちを検知するために、ベッドサイドにおけるベッド面SUから所定の高さの範囲に、ずり落ち用検知領域DDが設定される。制御部11は、このずり落ち用検知領域DDに所定の大きさを超える前景領域が所定時間以上継続して現れるか否かを判定する。そして、制御部11は、所定の大きさ以上の前景領域がずり落ち用検知領域DDに所定時間以上継続して現れたと判定した場合に、前記見守り対象者のベッドからのずり落ちを検知する。
なお、ずり落ち用検知領域DDは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。また、ずり落ち用検知領域DDは、カメラ2の撮影範囲の三次元空間上で適宜設定されてよい。このずり落ち用検知領域DDの位置及び各方向の範囲は、見守り対象者がベッドからずり落ちる際に抽出される前景領域を含むように適宜設定される。
例えば、ずり落ち用検知領域DDのベッド面SUからの上下方向の長さHD3はそれぞれ、300mmに設定されてもよい。ずり落ち用検知領域DDの上下方向の範囲は、このようにベッド面SUの高さを基準に設定されてもよいし、ベッド面SUの高さを基準にせずに設定されてもよい。また、例えば、ずり落ち用検知領域DDの左右方向の長さHD2は、450mmに設定されてもよい。更に、例えば、ずり落ち用検知領域DDの前後方向の長さHD4は、ベッド面SUの各サイドの長さに対応して設定されてよい。
ただし、ずり落ち用検知領域DDをベッド面SUのサイドに当接又は近接するように設定した場合、ベッド上から布団がはみ出すことで、布団に対応する前景領域がずり落ち用検知領域DDに現れる可能性がある。そこで、このずり落ち用検知領域DDは、少なくとも布団の厚み分はベッドから離れた位置に設定されるのが望ましい。例えば、ずり落ち用検知領域DDは、ベッドから左右方向に距離HD1だけ離間するように設定される。この距離HD1は、実施の形態に応じて適宜設定されてよい。距離HD1は、例えば、50mmに設定される。これによって、ずり落ち検知の精度を高めることができる。
また、ずり落ちを検知する基準となる前景領域の大きさの閾値は、実施の形態に応じて適宜設定されてよい。この閾値は、上記起き上がり、端座位及び離床を検知する際の各閾値と相違してもよい。ここで、図14A及び図14Bでは、ずり落ち用検知領域DDは、ベッドの両サイドに設定されている。しかしながら、ずり落ち用検知領域DDは、いずれか一方のサイドにのみ設定されてもよい。
(5)その他
本ステップS103では、制御部11は、上記のようにして、前景領域の位置に基づいて見守り対象者の行動を解析することで、当該見守り対象者の各行動を検知する。すなわち、制御部11は、上記各行動の判定条件を満たすと判定した場合に、見守り対象者は判定条件を満たした行動を行っていると認識し、次のステップS104に処理を進める。一方、上記各行動の判定条件を満たさないと判定した場合には、制御部11は、見守り対象者の上記各行動を検知することなく、次のステップS104に処理を進める。この場合、制御部11は、見守り対象者は上記各行動以外の状態(例えば、就寝状態)にあると認識してもよい。
なお、見守り対象者の行動を検出する方法は、上記の方法に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、前景領域に含まれる各画素の撮影画像3内の位置及び深度の平均を取ることで、前景領域の平均位置を算出してもよい。そして、制御部11は、実空間内において各行動を検出する条件として設定された検知領域に当該前景領域の平均位置が含まれるか否かを判定することで、見守り対象者の行動を検出してもよい。
また、制御部11は、前景領域の形状に基づいて、前景領域に写る身体部位を特定してもよい。前景領域は、背景画像からの変化を示す。そのため、前景領域に写る身体部位は、見守り対象者の動作部位に対応する。これに基づいて、制御部11は、特定した身体部位(動作部位)とベッド面SUとの位置関係に基づいて、見守り対象者の行動を検出してもよい。これと同様に、制御部11は、各行動の検知領域に含まれる前景領域に写る身体部位が所定の身体部位であるか否かを判定することで、見守り対象者の行動を検知してもよい。
(ステップS104)
図5に戻り、次のステップS104では、制御部11は、ステップS103において見守り対象者のベッドからのずり落ちを検知したか否かを判定する。そして、ステップS103において見守り対象者のベッドからのずり落ちを検知した場合には、制御部11は、次のステップS105に処理を進める。一方、ステップS103において見守り対象者のベッドからのずり落ちを検知しなかった場合には、制御部11は、次のステップS105の処理を省略して、本動作例に係る処理を終了する。
(ステップS105)
次のステップS105では、制御部11は、通知部115として機能し、上記ステップS103において見守り対象者のベッドからのずり落ちを検知した場合に、当該見守り対象者がベッドからずり落ちている状態にあることを知らせるための通知を行う。これによって、本動作例に係る処理が終了する。なお、通知先及び通知方法は、実施の形態に応じて適宜選択することができる。制御部11は、見守り対象者の行動を見守る見守り者又は見守り対象者自身に当該通知を行ってもよい。見守り対象者が、入院患者、施設入居者、要介護者等である場合は、見守り者は、例えば、看護師、施設職員、介護者等である。
例えば、本実施形態に係る画像解析装置1が病院等の施設で利用される場合、当該画像解析装置1は、外部インタフェース15を介して、ナースコールシステム等の設備と接続することができる。この場合、制御部11は、当該ナースコールシステム等の設備と連携して、ずり落ち検知の通知を行ってもよい。すなわち、制御部11は、外部インタフェース15を介して、当該ナースコールシステムを制御してもよい。そして、制御部11は、ずり落ち検知の通知として、当該ナースコールシステムによる呼び出しを行ってもよい。これによって、見守り対象者がベッドからずり落ちている状態にあることを当該見守り対象者の見守りを行う看護師等に適切に知らせることができる。
また、例えば、制御部11は、タッチパネルディスプレイ13上に、ずり落ち検知の通知として、見守り対象者がベッドからのずり落ちを検知したこと知らせるための画面を表示させてもよい。また、例えば、制御部11は、画像解析装置1に接続されるスピーカ14から所定の音声を出力することにより、ずり落ち検知の通知を行ってもよい。このタッチパネルディスプレイ13及びスピーカ14をそれぞれ見守り者の居室に設置することで、見守り対象者がベッドからずり落ちていることを当該見守り者に適切に知らせることができる。
また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、このようなずり落ち検知の通知を行ってもよい。このような通知を行う場合には、通知先となるユーザ端末の電子メールアドレス、電話番号等は記憶部12に予め登録されていてもよい。そして、制御部11は、この予め登録されている電子メールアドレス、電話番号等を利用して、ずり落ち検知の通知を行ってもよい。
なお、通知対象とする行動は、ベッドからのずり落ちのみに限定されなくてもよい。例えば、制御部11は、見守り対象者のベッドからのずり落ち以外の行動を検知した場合にも、当該行動を検知したことを知らせるための通知を行ってもよい。この場合、ステップS104において、制御部11は、ステップS103において通知対象とする行動を検知したか否かを判定する。そして、制御部11は、ステップS103において通知対象とする行動を検知したと判定した場合には、ステップS105において当該行動を検知したことを知らせるための通知を行う。これによって、画像解析装置1は、見守り対象者のベッドからのずり落ち以外の行動を検知した場合にも、当該行動を検知したことを見守り者等に知らせることができる。また、上記通知を行わない場合には、上記ステップS104及び本ステップS105は省略されてもよい。
<その他>
上記のとおり、見守り対象者のベッドからのずり落ちを検知するためのずり落ち用検知領域DDはベッドサイドに設定される。そのため、見守り対象者以外の人物(以下、「第三者」)がベッドサイドに存在している場合には、この第三者に対応する前景領域を見守り対象者の前景領域と誤り、見守り対象者のベッドからのずり落ちを誤検知する可能性がある。
同様に、見守り対象者がベッド上で就寝している以外の状態(例えば、見守り対象者がベッド上で起き上がっている、ベッドから離床している等)にある場合には、見守り対象者のずり落ち以外の行動によって、ずり落ち用検知領域に前景領域が現れる可能性がある。そのため、見守り対象者がベッド上で就寝している以外の状態にある場合には、見守り対象者のずり落ち以外の行動をずり落ち行動と誤検知してしまう可能性がある。更に、このような場合には、見守り対象者がベッドからずり落ちる可能性は殆どなく、当該見守り対象者のベッドからのずり落ちを検知する必要性が極めて低くなる。
そこで、上記のような誤検知を回避するため、本実施形態に係る画像解析装置1は、次のような場合に限り、上記ステップS103において、見守り対象者のベッドからのずり落ちを検知する判定処理を実行するように構成されてよい。すなわち、画像解析装置1は、見守り対象者以外の第三者がベッドサイドに存在している第1条件、及び、見守り対象者がベッド上で就寝する以外の行動を行っている第2条件、の少なくともいずれか一方が満たされる場合に、上記ステップS103においてずり落ち検知の判定処理の実行を停止するように構成されてもよい。一方、画像解析装置1は、第1条件及び第2条件が共に満たされていない場合に、上記ステップS103においてずり落ち検知の判定処理の実行を行う(開始する)ように構成されてもよい。以下、図15及び図16を用いて、このずり落ち検知の判定処理を実行するか否かを定める判定処理モードの制御の一例について説明する。
まず、図15を用いて、当該ずり落ち検知の判定処理モードについて説明する。図15は、本実施形態に係る判定処理モードの状態遷移を例示する。図15に例示されるように、本実施形態に係る判定処理モードは、実行モード及び停止モードの2種類である。実行モードは、上記ステップS103において見守り対象者のずり落ち検知の判定処理を実行するモードである。一方、停止モードは、上記ステップS103において見守り対象者のずり落ち検知の判定処理を省略するモードである。このような判定処理モードを示す情報は、例えば、RAM上に保持される。制御部11は、当該情報を更新することで、判定処理モードの切り替えを行う。
例えば、制御部11は、見守りを開始した時点では、判定処理モードを実行モードに設定する。そして、制御部11は、上記ステップS103において、ステップS102で抽出された前景領域の解析に基づいて、見守り対象者以外の第三者がベッドサイドに存在している第1条件と、見守り対象者がベッド上で就寝する以外の行動を行っている第2条件と、がそれぞれ満たされているか否かを判定する。そして、制御部11は、第1条件及び第2条件の少なくとも一方が満たされていると判定した場合に、実行モードから停止モードに判定処理モードを切り替える。その後、制御部11は、第1条件及び第2条件が共に満たされなくなると、停止モードから実行モードに判定処理モードを切り替える。これにより、制御部11は、ずり落ち検知の判定処理モードを制御する。
次に、図16を用いて、当該ずり落ち検知の判定処理モードの制御に関する処理手順を詳細に説明する。図16は、本実施形態に係る判定処理モードの制御に関する処理手順を例示する。なお、以下で説明するずり落ち検知の判定処理モードの制御に関する処理手順は一例にすぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換及び追加が可能である。
(ステップS201&ステップS202)
ステップS201では、制御部11は、行動検知部113として機能し、ステップS102で抽出された前景領域の解析に基づいて、見守り対象者以外の第三者がベッドサイドに存在している第1条件と、見守り対象者がベッド上で就寝する以外の行動を行っている第2条件と、がそれぞれ満たされているか否かを判定する。
そして、次のステップS202では、制御部11は、ステップS201において第1条件及び第2条件のいずれか一方が満たされていると判定した場合に、ステップS203に処理を進める。一方、制御部11は、ステップS201において第1条件及び第2条件が共に満たされていないと判定した場合には、ステップS204に処理を進める。なお、第1条件及び第2条件がそれぞれ満たされているか否かは次のようにして判定することができる。
(1)第1条件
まず、図17A及び図17Bを用いて、第1条件の判定処理について説明する。図17Aは、見守り対象者以外の第三者がベッドサイドに存在している場面を模式的に例示する斜視図である。また、図17Bは、見守り対象者以外の第三者がベッドサイドに存在している場面をフットボード側から見た状態を模式的に例示する。
図17A及び図17Bに例示されるように、第三者がベッドサイドに存在する場合には、ベッドサイドを移動する第三者に対応する前景領域がベッドから左右方向に所定の範囲に現れると想定される。そのため、このような場所に現れる前景領域に基づいて第三者の存在を検知するために、第三者用検知範囲HEが設定されてもよい。
そして、制御部11は、所定の大きさを超える前景領域が、ベッド面SUの右サイドから右方向に又はベッド面SUの左サイドから左方向に第三者用検知範囲HE内に現れた場合に、第1条件が満たされていると判定してもよい。一方、所定の大きさを超える前景領域がこの第三者用検知範囲HE内に現れていない場合に、第1条件が満たされていないと判定してもよい。
なお、第三者用検知範囲HEは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。また、第三者用検知範囲HEの各方向の長さは、カメラ2の撮影範囲の三次元空間上で適宜設定されてよい。この第三者用検知範囲HEは、ベッドサイドにおいて第三者の存在を検知可能に適宜設定される。
また、図17A及び図17Bでは、画像解析装置1は、第三者の存在をベッドの両サイドで検知可能に構成されている。しかしながら、画像解析装置1は、ベッドのいずれか一方のサイドでのみ第三者の存在を検知可能に構成されてもよい。すなわち、制御部11は、ベッドのいずれか一方のサイドで、第三者の存在の判定処理を省略してもよい。
なお、上記のように第三者の存在を判定する場合には、制御部11は、ベッドから離床し、再びベッドに戻ってきた見守り対象者を第三者と誤ってしまう可能性がある。そのため、このような誤認識に対応するため、制御部11は、次のようにして、見守り対象者を認識してもよい。
すなわち、第三者用検知範囲HEに進入した人物が見守り対象者である場合には、この人物はベッド上に移動すると想定される。一方、第三者用検知範囲HEに進入した人物が見守り対象者以外の第三者である場合には、この人物はベッド上には移動しないと想定される。
そこで、制御部11は、上記第三者用検知範囲HEの範囲内に現れた前景領域を、一旦、第三者に対応する前景領域と推定してもよい。加えて、これ以降の処理において、制御部11は、この前景領域をトラッキングしてもよい。そして、この前景領域が上記起き上がり用検知領域DAに進入した場合に、この前景領域は第三者に対応するものではなく、この前景領域は見守り対象者に対応するものであると上記推定を修正してもよい。これによって、見守り対象者に対応する前景領域を第三者に対応する前景領域と制御部11が誤認識するのを防止することができる。
(2)第2条件
次に、第2条件の判定処理について説明する。制御部11は、見守り対象者が就寝している以外の行動を行っていると推定可能な場合には、第2条件が満たされていると判定する。一方、制御部11は、見守り対象者が就寝していると推定可能な場合に、第2条件が満たされていないと判定する。
例えば、制御部11は、上記ステップS103と同様の方法で、見守り対象者の起き上がり、端座位又は離床を検知した場合に、見守り対象者が就寝している以外の行動を行っていると推定し、第2条件が満たされていると判定してもよい。一方、制御部11は、見守り対象者の起き上がり、端座位及び離床を検知できない場合に、見守り対象者が就寝していると推定し、第2条件が満たされていないと判定してもよい。
また、制御部11は、次のような場合に、見守り対象者が就寝していると推定してもよい。すなわち、見守り対象者がベッド上で就寝している場合には、当該見守り対象者に対応する前景領域が、ベッド面SUより上方で、かつ、上記起き上がり用検知領域DAより下方に現れると想定される。
そのため、制御部11は、例えば、トラッキングしている見守り対象者に対応する前景領域が、起き上がり用検知領域DAからベッド面SUの方向(下方向)に移動した場合に、見守り対象者がベッド上で就寝していると推定してもよい。また、制御部11は、例えば、上記起き上がり用検知領域DAに所定の大きさを超える前景領域が現れておらず、上記起き上がり用検知領域DAとベッド面SUとの間に所定の大きさを超える前景領域が現れている場合に、見守り対象者がベッド上で就寝していると推定してもよい。これらの推定に基づいて、制御部11は、第2条件が満たされていないと判定してもよい。
(ステップS203)
ステップS203では、制御部11は、ずり落ち検知の判定処理モードを停止モードにして、本動作例に係る処理手順を終了する。例えば、ずり落ち検知の判定処理モードが停止モードに設定されていた場合には、制御部11は、ずり落ち検知の判定処理モードを停止モードのままにする。一方、ずり落ち検知の判定処理モードが実行モードに設定されていた場合には、制御部11は、ずり落ち検知の判定処理モードを実行モードから停止モードに切り替える。これによって、これ以降に実行される上記ステップS103では、制御部11は、ずり落ち検知の判定処理を省略する。
(ステップS204)
ステップS204では、制御部11は、ずり落ち検知の判定処理モードを実行モードにして、次のステップS205に処理を進める。例えば、ずり落ち検知の判定処理モードが停止モードに設定されていた場合には、制御部11は、ずり落ち検知の判定処理モードを停止モードから実行モードに切り替える。一方、ずり落ち検知の判定処理モードが実行モードに設定されていた場合には、制御部11は、ずり落ち検知の判定処理モードを実行モードのままにする。これによって、これ以降に実行される上記ステップS103では、制御部11は、ずり落ち検知の判定処理を実行(再開)する。
(ステップS205)
次のステップS205では、制御部11は、背景更新部114として機能し、このときのステップS101で取得された撮影画像3により背景画像4の更新を行い、本動作例に係る処理手順を終了する。具体的には、制御部11は、ステップS201及びS202により、上記第1条件及び第2条件が共に満たされていないと判定した場合に、上記ステップS204により、見守り対象者のベッドからのずり落ちを検知する判定処理の実行を開始する。この際に、制御部11は、このときのステップS101で取得された撮影画像3を背景画像4に設定する。これによって、制御部11は、これ以降に実行される上記ステップS102で利用される背景画像4を更新する。なお、本ステップS205は、上記ステップS204の前に実行されてもよい。また、背景画像4の更新を行わない場合には、本ステップS205は省略されてもよい。
なお、上記ずり落ち検知の判定処理モードの制御に関する各処理は、任意のタイミングで実行されてもよい。例えば、上記ずり落ち検知の判定処理モードの制御に関する各処理は、上記ステップS102を処理した後、上記ステップS103でずり落ち検知の判定処理を実行する前に、実行されてもよい。また、画像解析装置1は、上記のような場合にずり落ち検知の判定処理の実行を停止するように構成されなくてもよく、上記ステップS103において常にずり落ち検知の判定処理を実行するように構成されてもよい。
(作用・効果)
以上のように、本実施形態に係る画像解析装置1は、上記ステップS101及びS102において、背景差分法に基づいて、カメラ2により撮影された撮影画像3から前景領域を抽出する。そして、上記ステップS103において、画像解析装置1は、抽出された前景領域の位置に基づいて、見守り対象者の行動を検知する。
ここで、本実施形態では、見守り対象者のベッドからのずり落ちを検知するために、ベッドサイドにおいてベッド面SUから所定の高さの範囲にずり落ち用検知領域DDが設定される。そして、上記ステップS103では、制御部11は、このずり落ち用検知領域DDに所定の大きさ以上の前景領域が所定時間以上継続して現れるか否かを判定する。そして、制御部11は、所定の大きさ以上の前景領域がずり落ち用検知領域DDに所定時間以上継続して現れたと判定した場合に、当該見守り対象者のベッドからのずり落ちを検知する。したがって、上記構成によれば、見守り対象者のずり落ちを検知する技術を提供することができる。
また、本実施形態では、上記ステップS201において、制御部11は、見守り対象者以外の第三者がベッドサイドに存在している第1条件及び見守り対象者がベッド上で就寝する以外の行動を行っている第2条件が、それぞれ満たされているか否かを判定する。そして、第1条件及び第2条件の少なくともいずれか一方が満たされていると判定した場合には、制御部11は、ステップS203の処理により、上記ステップS103における見守り対象者のずり落ち検知の判定処理の実行を停止する。一方、第1条件及び第2条件が共に満たされていないと判定した場合には、制御部11は、ステップS204の処理により、上記ステップS103における見守り対象者のずり落ち検知の判定処理の実行を開始する。これによって、本実施形態によれば、上記第1条件及び第2条件が満たされる場合に生じうるずり落ちの誤検知を防止することができる。すなわち、本実施形態によれば、見守り対象者のずり落ち検知の精度を高めることができる。
また、上記第1条件又は第2条件が満たされる場合には、第三者又は見守り対象者の行動に起因して、ベッドサイドの領域において背景の状態が変更される可能性がある。例えば、見守り対象者以外の第三者が、車椅子、点滴台等をベッドサイドに配置したケースが、ベッドサイドの領域において背景の状態が変更されるケースに該当する。このようにベッドサイドの領域において背景の状態が変更されたときには、ベッドサイドに設定されたずり落ち用検知領域DDに前景領域が継続的に現れてしまい、見守り対象者のベッドからのずり落ちを誤検知してしまう可能性がある。
これに対して、本実施形態では、上記ステップS205において、制御部11は、見守り対象者のベッドからのずり落ちを検知する判定処理の実行を開始する際に、このときにステップS101で取得された撮影画像3を背景画像4に設定することで、背景画像4の更新を行う。そのため、上記のような理由によりベッドサイドの領域において背景の状態が変更されても、その変更が生じた後に取得される撮影画像3で背景画像4を更新するため、その後に実行されるステップS102の処理において、その背景の変更が生じた領域で前景領域が抽出されるのを防ぐことができる。したがって、本実施形態によれば、上記のような場合に生じるずり落ちの誤検知を防止することができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
例えば、上記実施形態では、ステップS101において、制御部11は、深度データを含む撮影画像3を取得している。しかしながら、見守り対象者の行動を解析する対象となる撮影画像は、このような例に限定されなくてもよく、深度データを含まなくてもよい。すなわち、画像解析装置1は、二次元画像に基づいて見守り対象者の行動を解析するように構成されてもよい。この二次元画像は、赤外線カメラ、赤外線センサ等により撮影された2次元のサーモグラフィ、赤外線画像等であってもよい。
また、上記実施形態では、見守り対象者のずり落ちを検知した場合に、画像解析装置1は、そのことを知らせるための通知を行う。これに加えて、画像解析装置1は、事故の予防のための動作を行うよう構成されてもよい。例えば、見守り対象者の利用するベッドがコンピュータで制御可能な電動ベッドである場合、この電動ベッドは、外部インタフェース15を介して、画像解析装置1に接続されてもよい。この場合に、上記ステップS103において、見守り対象者のベッドからのずり落ちを検知したとき、制御部11は、外部インタフェース15を介してこの電動ベッドを制御することで、電動ベッドの高さが低くなるように操作してもよい。これによって、見守り対象者が高いところから転落するのを防ぐことができ、ベッドからの転落による事故を予防することができる。
1…画像解析装置、
2…カメラ、21…深度センサ、
3…撮影画像、4…背景画像、
5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
111…画像取得部、112…前景抽出部、113…行動検知部、
114…背景更新部、115…通知部、
DD…ずり落ち用検知領域、SU…ベッド面

Claims (8)

  1. 見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得する画像取得部と、
    取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、
    抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知する行動検知部と、
    を備え、
    前記行動検知部は、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定し、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する、
    画像解析装置。
  2. 前記行動検知部は、抽出された前記前景領域の解析に基づいて、前記見守り対象者以外の人物がベッドサイドに存在している第1条件と、前記見守り対象者が前記ベッド上で就寝する以外の行動を行っている第2条件と、が満たされているか否かを判定し、
    前記第1条件及び前記第2条件の少なくともいずれか一方が満たされていると判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を停止し、
    前記第1条件及び前記第2条件が共に満たされていないと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を開始する、
    請求項1に記載の画像解析装置。
  3. 前記第1条件及び前記第2条件が共に満たされていないと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する判定処理の実行を開始する際に、このときに取得された前記撮影画像を前記背景画像に設定することで、前記背景画像を更新する背景画像更新部を更に備える、
    請求項2に記載の画像解析装置。
  4. 前記ずり落ち用検知領域は、少なくとも布団の厚み分は前記ベッドから離れた位置に設定される、
    請求項1から3のいずれか1項に記載の画像解析装置。
  5. 前記画像取得部は、前記撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得し、
    前記前景抽出部は、深度データを含む前記背景画像と取得された前記撮影画像との差分を算出することで、取得された前記撮影画像の前記前景領域を抽出し、
    前記行動検知部は、抽出された前記前景領域に含まれる各画素の深度を参照することにより特定される前記前景領域の実空間における位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知する、
    請求項1から4のいずれか1項に記載の画像解析装置。
  6. 前記見守り対象者の前記ベッドからのずり落ちを検知した場合に、当該見守り対象者が前記ベッドからずり落ちている状態にあることを知らせるための通知を行う通知部を更に備える、
    請求項1から5のいずれか1項に記載の画像解析装置。
  7. コンピュータが、
    見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得するステップと、
    取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
    抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知するステップと、
    を実行し、
    前記見守り対象者の行動を検知するステップでは、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定し、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知する、
    画像解析方法。
  8. コンピュータに、
    見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像を取得するステップと、
    取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
    抽出された前記前景領域の位置に基づいて前記見守り対象者の行動を解析することで、前記見守り対象者のベッドにおける行動を検知するステップと、
    を実行させ、
    前記見守り対象者の行動を検知するステップでは、前記見守り対象者の前記ベッドからのずり落ちを検知するために設定されたずり落ち用検知領域であって、ベッドサイドにおいてベッド面から所定の高さの範囲に設定されたずり落ち用検知領域に、所定の大きさ以上の前記前景領域が所定時間以上継続して現れるか否かを判定させ、当該所定の大きさ以上の前記前景領域が当該ずり落ち用検知領域に当該所定時間以上継続して現れたと判定した場合に、前記見守り対象者の前記ベッドからのずり落ちを検知させる、
    ための画像解析プログラム。
JP2017518775A 2015-05-20 2016-02-04 画像解析装置、画像解析方法、及び、画像解析プログラム Active JP6607253B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015102465 2015-05-20
JP2015102465 2015-05-20
PCT/JP2016/053347 WO2016185738A1 (ja) 2015-05-20 2016-02-04 画像解析装置、画像解析方法、及び、画像解析プログラム

Publications (2)

Publication Number Publication Date
JPWO2016185738A1 true JPWO2016185738A1 (ja) 2018-03-08
JP6607253B2 JP6607253B2 (ja) 2019-11-20

Family

ID=57319748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017518775A Active JP6607253B2 (ja) 2015-05-20 2016-02-04 画像解析装置、画像解析方法、及び、画像解析プログラム

Country Status (2)

Country Link
JP (1) JP6607253B2 (ja)
WO (1) WO2016185738A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232497B2 (ja) * 2018-06-15 2023-03-03 エイアイビューライフ株式会社 情報処理装置
JP7327397B2 (ja) * 2018-06-26 2023-08-16 コニカミノルタ株式会社 コンピューターで実行されるプログラム、情報処理システム、および、コンピューターで実行される方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206868A (ja) * 2007-02-27 2008-09-11 Paramount Bed Co Ltd 寝台装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
JP2012005745A (ja) * 2010-06-28 2012-01-12 Tateyama System Laboratory Ltd 寝床看護システム
JP2012071004A (ja) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd 安全看護システム、および、安全看護システムの制御方法
JP2012094140A (ja) * 2010-10-28 2012-05-17 General Electric Co <Ge> 人及び物体の位置を監視するシステム及び方法
JP2014174627A (ja) * 2013-03-06 2014-09-22 Nk Works Co Ltd 情報処理装置、情報処理方法、及び、プログラム
JP2014236896A (ja) * 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866797B2 (en) * 2012-09-28 2018-01-09 Careview Communications, Inc. System and method for monitoring a fall state of a patient while minimizing false alarms

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206868A (ja) * 2007-02-27 2008-09-11 Paramount Bed Co Ltd 寝台装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
JP2012005745A (ja) * 2010-06-28 2012-01-12 Tateyama System Laboratory Ltd 寝床看護システム
JP2012071004A (ja) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd 安全看護システム、および、安全看護システムの制御方法
JP2012094140A (ja) * 2010-10-28 2012-05-17 General Electric Co <Ge> 人及び物体の位置を監視するシステム及び方法
JP2014174627A (ja) * 2013-03-06 2014-09-22 Nk Works Co Ltd 情報処理装置、情報処理方法、及び、プログラム
JP2014236896A (ja) * 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JP6607253B2 (ja) 2019-11-20
WO2016185738A1 (ja) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6500785B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6780641B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6171415B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6432592B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6504156B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6489117B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2016151966A1 (ja) 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム
WO2015133195A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6638723B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2011209794A (ja) 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP6607253B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6737262B2 (ja) 異常状態検知装置、異常状態検知方法、及び、異常状態検知プログラム
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP5870230B1 (ja) 見守り装置、見守り方法および見守りプログラム
JP6606912B2 (ja) 浴室異常検知装置、浴室異常検知方法、及び浴室異常検知プログラム
JP6565468B2 (ja) 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2022126069A (ja) 画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6607253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250