JP6171415B2 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP6171415B2
JP6171415B2 JP2013044557A JP2013044557A JP6171415B2 JP 6171415 B2 JP6171415 B2 JP 6171415B2 JP 2013044557 A JP2013044557 A JP 2013044557A JP 2013044557 A JP2013044557 A JP 2013044557A JP 6171415 B2 JP6171415 B2 JP 6171415B2
Authority
JP
Japan
Prior art keywords
bed
person
detected
moving
watched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013044557A
Other languages
English (en)
Other versions
JP2014174627A (ja
Inventor
安川 徹
徹 安川
祥一 出立
祥一 出立
猛 村井
猛 村井
松本 修一
修一 松本
上辻 雅義
雅義 上辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Precision Co Ltd filed Critical Noritsu Precision Co Ltd
Priority to JP2013044557A priority Critical patent/JP6171415B2/ja
Priority to US14/193,377 priority patent/US20140253710A1/en
Publication of JP2014174627A publication Critical patent/JP2014174627A/ja
Application granted granted Critical
Publication of JP6171415B2 publication Critical patent/JP6171415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Signal Processing (AREA)

Description

本発明は、情報処理装置、情報処理方法、及び、プログラムに関する。
室内斜め上方から室内下方に向けて撮影された画像の境界辺を通過して、床面領域からベッド領域への人体移動を検知することで、入床事象を判断し、ベッド領域から床面領域への人体移動を検知することで、離床事象を判断する技術がある(特許文献1)。
また、指示に従って調整された動きをユーザに実行させ、ユーザをビデオ記録することで、画像系列の形式でビデオ画像データを生成し、コンピュータビジョン技術を有するコンピュータシステムを使用して、画像系列において、左半身及び右半身のオプティカルフローの共時性の程度を判定し、共時性の程度に基づいてユーザの運動機能を評価する技術がある(特許文献2)。
また、ベッドに寝ている患者が起床挙動を行ったことを判定するための見守り領域を、ベッドに就寝している患者を含むベッドの直上の領域に設定して、ベッドの横方向から見守り領域を含む撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す変動値が、患者がベッドに寝ている状態でカメラから得られた撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す初期値未満である場合に、患者が起床挙動を行っていると判断する技術がある(特許文献3)。
特開2002−230533号公報 特表2009−504298号公報 特開2011−005171号公報
近年、入院患者、施設入居者、要介護者等がベッドから転倒、転落する事故、及び、認知症患者の徘徊による事故が年々増加する傾向にある。このような事故を防止する方法として、例えば、病院、介護施設等で利用する見守りシステムとして、室内に設置したカメラで見守り対象者を撮影し、撮影した画像を解析することで、起き上がり、端座位、離床等の見守り対象者の行動を検出する見守りシステムが開発されている。このような見守りシステムでは、例えば、顔認識技術を用いて見守り対象者を認識する等、比較的に高度な画像処理技術が用いられており、現場に合わせてシステムの設定を調整して利用することが困難であるという問題点があった。
本発明は、一側面では、このような点を考慮してなされたものであり、簡易な方法で見守り対象者の行動を推定する技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る情報処理装置は、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得する画像取得部と、取得した前記動画像内におけるオプティカルフローを求める画像処理部と、求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定する行動推定部と、を備える。
上記構成によれば、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像からオプティカルフローが求められる。そして、求められたオプティカルフローに基づいて移動する動体が検出される場合に、検出される動体が見守り対象者に対応すると仮定され、検出される動体の位置と移動方向とに基づいて、見守り対象者のベッド上又はベッド付近での行動が推定される。なお、見守り対象者とは、当該情報処理装置によって行動を見守られる対象者であり、例えば、入院患者、施設入居者、要介護者等である。
したがって、上記構成によれば、オプティカルフローに基づいて検出される動体の位置と移動方向から見守り対象者の行動が推定されるため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能となる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者の当該ベッド上での起き上がりを推定してもよい。なお、起き上がり方向とは、寝ている状態の見守り対象者が起き上がる際に上半身が移動する方向である。
当該構成によれば、見守り対象者のベッド上での起き上がりを推定する際の、オプティカルフローに基づいて検出される動体の起点及び移動方向の条件が定められるため、見守り対象者のベッド上での起き上がりを推定することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域内において、当該ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者の当該ベッド上での起き上がりを推定してもよい。
当該構成によれば、見守り対象者のベッド上での起き上がりを推定する際のオプティカルフローに基づいて検出される動体の存在する範囲が限定される。そのため、見守り対象者のベッド上での起き上がりを推定するときの精度を高めることができる。
また、上記一側面に係る情報処理装置の別の形態として、上記画像処理部は、取得される動画像中の動きを追跡することで、更に、動体の軌跡を検出してもよい。そして、上記行動推定部は、検出された軌跡に基づいて、見守り対象者のベッド上での寝返りと区別して、見守り対象者のベッド上での起き上がりを推定してもよい。
オプティカルフローは動画像内の隣接するフレーム間の動きを表わし、動体の一連の動きを表わさないため、ベッド上での寝返りを起き上がりと誤って推定してしまう可能性がある。当該構成によれば、動体の一連の動きを捉えることが可能な軌跡に基づいて、ベッド上での寝返りと区別して起き上がりを推定することが可能になるため、見守り対象者のベッド上での起き上がりを推定するときの精度を高めることができる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、ベッドに柵がセットされている際に、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から外側へ移動する動体が検出されるときに、当該見守り対象者のベッドの柵越えを推定してもよい。
当該構成によれば、見守り対象者のベッドの柵越えを推定する際の、オプティカルフローに基づいて検出される動体の起点及び移動方向の条件が定められるため、見守り対象者のベッドの柵越えを推定することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記画像処理部は、更に、背景と前景とを分離する背景差分法によって、取得される動画像中の前景領域を検出してもよい。そして、行動推定部は、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドの柵越えを推定してもよい。
身体の一部がベッドから飛び出した場合に、ベッド上での存在領域の内側から外側へ移動する動体が検出される可能性があり、上記ベッドの柵越えを推定するための条件を満たしてしまう可能性がある。ただし、その場合、身体全体で移動する柵越えの場合に比べて、背景差分法により抽出される前景領域の大きさは小さいと想定される。当該構成によれば、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドの柵越えが推定される。そのため、見守り対象者のベッドの柵越えを推定するときの精度を高めることができる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、見守り対象者がベッド上で行動した場合に見守り対象者が存在しうる領域として設定された存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する動体が検出されるときに、当該見守り対象者のベッドにおける端座位を推定してもよい。なお、端座位とは、見守り対象者がベッドの端に腰をかけている状態を指す。
当該構成によれば、見守り対象者のベッドにおける端座位を推定する際の、オプティカルフローに基づいて検出される動体の起点及び移動方向の条件が定められるため、見守り対象者のベッドにおける端座位を推定することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記画像処理部は、更に、背景と前景とを分離する背景差分法によって、取得される動画像中の前景領域を特定してもよい。そして、上記行動推定部は、オプティカルフローに基づいて検出される動体が存在する動体領域内において当該前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、当該見守り対象者のベッドにおける端座位を推定してもよい。
身体の一部がベッドから飛び出した場合に、ベッド上での存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する動体が検出される可能性があり、上記ベッドにおける端座位を推定するための条件を満たしてしまう可能性がある。ただし、その場合、身体全体で移動する端座位の場合に比べて、背景差分法により抽出される前景領域の大きさは小さいと想定される。当該構成によれば、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドにおける端座位が推定される。そのため、見守り対象者のベッドにおける端座位を推定するときの精度を高めることができる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の外側で移動する動体が検出されるときに、当該見守り対象者のベッドからの離床を推定してもよい。
当該構成によれば、見守り対象者のベッドからの離床を推定する際の、オプティカルフローに基づいて検出される動体の起点及び移動方向の条件が定められるため、見守り対象者のベッドからの離床を推定することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記画像処理部は、更に、背景と前景とを分離する背景差分法によって、取得される動画像中の前景領域を特定してもよい。そして、上記行動推定部は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側からベッド下方に移動する動体が検出された後に、当該背景差分法によって検出される前景領域が時間の経過とともに消失するときに、当該見守り対象者のベッドからの落下を推定してもよい。
見守り対象者がベッドから落下し、落下した場所に留まっているとすると、見守り対象者は落下した位置で背景として扱われるようになると想定される。当該構成によれば、見守り対象者のベッドからの落下を推定する際の、オプティカルフローに基づいて検出される動体の起点及び移動方向の条件と、背景差分法により検出される前景領域の上記想定に即した条件と、が定められる。そのため、当該構成によれば、見守り対象者のベッドからの落下を推定することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、深度センサにより得られる動体の深度に更に基づいて、見守り対象者のベッド上又はベッド付近での行動を推定してもよい。
検出される動体の実空間における位置を動画像から特定できるとは限らないため、検出される動体は、ベッド上又はベッド付近に存在する見守り対象者の動きではなく、カメラから見て当該見守り対象者の手前に存在する物体の動きに対応する場合がある。これに対して、当該構成によれば、深度センサにより動体の深度を得ることができるため、検出された動体が、ベッド上又はベッド付近に存在する見守り対象者の動きに対応するか否か、を判定することが可能になる。つまり、各行為を推定する際の動体が検出される領域の深度の条件を設定することが可能になる。したがって、当該構成によれば、見守り対象者のベッド上又はベッド付近での行動を推定するときの精度を高めることが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記情報処理装置は、見守り対象者について推定した行動が当該見守り対象者に危険の迫る予兆を示す行動である場合に、当該見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を更に備えてもよい。
当該構成によれば、見守り対象者に危険の迫る予兆があることを見守り者に知らせることが可能になる。また、見守り対象者にも危険の迫る予兆があることを知らせることが可能になる。なお、見守り者は、見守り対象者の行動を見守る者であり、見守り対象者が、入院患者、施設入居者、要介護者等である場合は、例えば、看護師、施設職員、介護者等である。また、見守り対象者に危険の迫る予兆を知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。
なお、上記一側面に係る情報処理装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理システムによって実現されてもよい。
例えば、本発明の一側面に係る情報処理方法は、コンピュータが、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、取得した前記動画像内におけるオプティカルフローを求めるステップと、求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係るプログラムは、コンピュータに、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、取得した前記動画像内におけるオプティカルフローを求めるステップと、求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、を実行させるためのプログラムである。
本発明によれば、簡易な方法で見守り対象者の行動を推定する技術を提供することが可能になる。
図1は、本発明が適用される場面の一例を示す。 図2は、実施の形態に係る情報処理装置のハードウェア構成を例示する。 図3は、実施の形態に係る情報処理装置の機能構成を例示する。 図4は、実施の形態に係る情報処理装置の処理手順を例示する。 図5は、見守り対象者がベッド上で起き上がる際に検出されるオプティカルフローの一例を示す。 図6は、実施の形態に係る存在領域の設定例を示す。 図7は、見守り対象者がベッド上で起き上がる際に検出される軌跡の一例を示す。 図8は、見守り対象者がベッド上で寝返りをする際に検出される軌跡の一例を示す。 図9は、見守り対象者がベッドの柵越えする際に検出されるオプティカルフローの一例を示す。 図10は、見守り対象者がベッド上で端座位の状態になる際に検出されるオプティカルフローの一例を示す。 図11は、見守り対象者がベッドから離床する際に検出されるオプティカルフローの一例を示す。 図12は、見守り対象者がベッドから落下する際に検出されるオプティカルフローの一例を示す。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。
§1 適用場面例
図1は、本発明が適用される場面の一例を示す。本実施形態では、医療施設又は介護施設において、入院患者又は施設入居者が見守り対象者として行動を見守られる場面が想定されている。見守り対象者は、ベッドの短手方向右側に設置されたカメラ2により撮影されることで、行動を見守られている。
カメラ2は、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されており、ベッド上及びベッド付近の様子を撮影する。なお、カメラ2の種類及び配置される位置は、実施の形態に応じて、適宜、選択されてよい。カメラ2により撮影された動画像3は、情報処理装置1に送信される。
本実施形態に係る情報処理装置1は、カメラ2から動画像3を取得すると、取得した動画像3内におけるオプティカルフローを求める。オプティカルフローは、具体的には、異なる時間に撮影された2枚の画像間で対応付けられた同じ対象の移動量をベクトルデータとして表現する。そのため、オプティカルフローにより動画像3内に映る物体の移動量が表現されるため、当該オプティカルフローを用いることで、当該動画像3内において移動する動体を検出することが可能である。
そこで、本実施形態に係る情報処理装置1は、求めたオプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、当該見守り対象者のベッド上又はベッド付近での行動を推定する。
このように、本実施形態によれば、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像3からオプティカルフローが求められる。そして、求められたオプティカルフローに基づいて移動する動体が検出される場合に、検出される動体が見守り対象者に対応すると仮定され、検出される動体の位置と移動方向とに基づいて、当該見守り対象者のベッド上又はベッド付近での行動が推定される。
したがって、本実施形態によれば、動画像3から得られるオプティカルフローに基づいて検出される動体の位置及び移動方向から見守り対象者の行動を推定することが可能になるため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能になる。
なお、本実施形態に係る情報処理装置1は、見守り対象者のベッド上又はベッド付近での行動を推定するため、病院、介護施設等で入院患者、施設入居者、要介護者等を見守るための装置として、当該情報処理装置1を利用することが可能である。ここで、見守り対象者のベッド上又はベッド付近での行動は、実施の形態に応じて、適宜、設定されてよい。本実施形態では、見守り対象者のベッド上又はベッド付近での行動の一例として、ベッド上での起き上がり、ベッドの柵越え、ベッドにおける端座位、ベッドからの離床、及び、ベッドからの落下、が挙げられる。詳細は後述する。
また、オプティカルフローを求める方法は、実施の形態に応じて、適宜、選択されてよい。当該オプティカルフローを求める方法の一例として、例えば、テンプレートマッチングを用いてオプティカルフローを求めるブロックマッチング法、及び、時空間微分の拘束を利用してオプティカルフローを求める勾配法を挙げることができる。
§2 構成例
<ハードウェア構成例>
図2は、本実施形態に係る情報処理装置1のハードウェア構成を例示する。情報処理装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、及び、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、ネットワークを介して通信を行うための通信インタフェース13、記憶媒体6に記憶されたプログラムを読み込むためのドライブ14、及び、外部装置と接続するための外部インタフェース15が電気的に接続されたコンピュータである。
なお、情報処理装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び、追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、情報処理装置1は、ディスプレイ等の出力装置、及び、マウス、キーボード等の入力を行うための入力装置を備えてもよい。なお、図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載される。
また、情報処理装置1は、複数の外部インタフェース15を備え、複数の外部装置と接続されてもよい。本実施形態では、情報処理装置1は、外部インタフェース15を介して、見守り対象者とベッドとを撮影するカメラ2と接続されてよい。また、情報処理装置1は、外部インタフェース15を介して、動画像3内の奥行きを測定するための深度センサ31と接続されてよい。更に、情報処理装置1は、外部インタフェース15を介してナースコール等の施設に設置された設備と接続されることで、見守り対象者に危険の迫る予兆があることを知らせるための通知を当該設備と連携して行ってもよい。
また、プログラム5は、情報処理装置1に後述する動作に含まれるステップを実行させるプログラムであり、本発明の「プログラム」に相当する。また、プログラム5は記憶媒体6に記録されていてもよい。記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
また、情報処理装置1として、例えば、提供されるサービス専用に設計された装置の他、PC(Personal Computer)、タブレット端末等の汎用の装置が用いられてよい。また、情報処理装置1は、1又は複数のコンピュータにより実装されてもよい。
<機能構成例>
図3は、本実施形態に係る情報処理装置1の機能構成を例示する。本実施形態に係る情報処理装置1が備えるCPUは、記憶部12に記憶されたプログラム5をRAMに展開する。そして、CPUは、RAMに展開されたプログラム5を解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係る情報処理装置1は、画像取得部21、画像処理部22、行動推定部23、及び、通知部24を備えるコンピュータとして機能する。
画像取得部21は、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラ2により撮影された動画像3を取得する。画像処理部22は、取得した動画像3内におけるオプティカルフローを求める。そして、行動推定部23は、求めたオプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は見守り対象者に対応すると仮定して、検出される動体の位置と移動方向とに基づいて、見守り対象者のベッド上又はベッド付近での行動を推定する。
なお、行動推定部23は、ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者の起き上がりを推定してもよい。起き上がり方向とは、寝ている状態の見守り対象者が起き上がる際に上半身が移動する方向である。ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域及び起き上がり方向は、例えば、予め設定されていてもよいし、情報処理装置1を利用するユーザ(例えば、見守り者)によって設定されてもよいし、所与のパターンからユーザによって選択されることで設定されてもよい。
また、行動推定部23は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域内において、当該ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者の当該ベッド上での起き上がりを推定してもよい。
また、画像処理部22は、取得される動画像3中の動きを追跡することで、更に、動体の軌跡を検出してもよい。そして、行動推定部23は、検出された軌跡に基づいて、見守り対象者のベッド上での寝返りと区別して、見守り対象者のベッド上での起き上がりを推定してもよい。
また、行動推定部23は、ベッドに柵がセットされている際に、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から外側へ移動する動体が検出されるときに、当該見守り対象者のベッドの柵越えを推定してもよい。ここで、ベッドに柵がセットされているか否かは、実施の形態に応じて、適宜、設定されてよく、例えば、情報処理装置1を利用するユーザ(例えば、見守り者)によって設定されてもよい。
また、画像処理部22は、更に、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を検出してもよい。そして、行動推定部23は、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドの柵越えを推定してもよい。
また、行動推定部23は、見守り対象者がベッド上で行動した場合に見守り対象者が存在しうる領域として設定された存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する動体が検出されるときに、当該見守り対象者のベッドにおける端座位を推定してもよい。なお、端座位とは、見守り対象者がベッドの端に腰をかけている状態を指す。
また、画像処理部22は、更に、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を特定してもよい。そして、行動推定部23は、オプティカルフローに基づいて検出される動体が存在する動体領域内において当該前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、当該見守り対象者のベッドにおける端座位を推定してもよい。
また、行動推定部23は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の外側で移動する動体が検出されるときに、当該見守り対象者のベッドからの離床を推定してもよい。
また、画像処理部22は、更に、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を特定してもよい。そして、行動推定部23は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側からベッド下方に移動する動体が検出された後に、当該背景差分法によって検出される前景領域が時間の経過とともに消失するときに、当該見守り対象者のベッドからの落下を推定してもよい。
また、行動推定部23は、深度センサ31により得られる動体の深度に更に基づいて、見守り対象者のベッド上又はベッド付近での行動を推定してもよい。
また、本実施形態に係る情報処理装置1は、見守り対象者について推定した行動が当該見守り対象者に危険の迫る予兆を示す行動である場合に、当該見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を備える。ここで、見守り者は、見守り対象者の行動を見守る者であり、見守り対象者が、入院患者、施設入居者、要介護者等である場合は、例えば、看護師、職員、介護者等である。また、見守り対象者に危険の迫る予兆を知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。
なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。例えば、見守り対象者に危険の迫る予兆があることを知らせるための通知を実施しない場合、通知部24は省略されてよい。
§3 動作例
図4は、本実施形態に係る情報処理装置1の動作例を示す。なお、以下で説明する動作例の処理手順は一例に過ぎず、各処理は、可能な限り入れ替えられてよい。また、以下で説明する動作例の処理手順について、実施の形態に応じて、適宜、処理の省略、置換、及び、追加が可能である。例えば、見守り対象者に危険の迫る予兆があることを知らせるための通知を実施しない場合、ステップS104及びS105は省略されてよい。
<ステップS101>
ステップS101では、制御部11は、画像取得部21として機能し、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラ2から動画像3を取得する。制御部11がカメラ2から取得する動画像3には、ベッド上及びベッド付近の様子が撮影されている。
なお、本実施形態に係る情報処理装置1は、医療施設又は介護施設において、入院患者又は施設入居者を見守るために利用される。この場合、制御部11は、カメラ2に対するビデオ信号に同期させて画像を取得してもよい。そして、制御部11は、後述するステップS102〜S105までの処理を取得した画像に対して即座に実行してもよい。情報処理装置1が当該動作を連続して絶え間なく実行することで、リアルタイム画像処理が実現され、リアルタイムに入院患者又は施設入居者の行動を見守ることが可能になる。
<ステップS102>
ステップS102では、制御部11は、画像処理部22として機能し、ステップS101で取得した動画像3内におけるオプティカルフローを求める。オプティカルフローを求める方法は、上述のとおり、実施の形態に応じて、適宜、選択されてよい。オプティカルフローを求める方法の一例として、例えば、テンプレートマッチングを用いてオプティカルフローを求めるブロックマッチング法、及び、時空間微分の拘束を利用してオプティカルフローを求める勾配法を挙げることができる。
<ステップS103>
ステップS103では、制御部11は、行動推定部23として機能し、ステップS102で求めたオプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、見守り対象者のベッド上又はベッド付近での行動を推定する。本実施形態では、制御部11は、見守り対象者のベッド上又はベッド付近での行動として、ベッド上での起き上がり、ベッドの柵越え、ベッドにおける端座位、ベッドからの離床、及び、ベッドからの落下、のうちの少なくともいずれかの行動を推定する。以下、各行動の推定について、図を用いて、具体例を挙げて説明する。
(a)起き上がり
図5は、見守り対象者がベッド上で起き上がる際に検出されるオプティカルフローの一例を示す。図5で例示されるように、見守り対象者がベッド上で仰向けに寝ている状態(仰臥位)から起き上がったとすると、ステップS101で取得される動画像3では、見守り対象者の上半身部分が映る領域に動きが生じると想定される。そのため、ステップS102では、見守り対象者の姿勢が仰臥位から起き上がりの状態に遷移している間、図5で例示されるようなオプティカルフローが検出されると想定することができる。
そこで、ステップS103では、制御部11は、ベッド上で寝ている状態の見守り対象者の上半身が存在しうる所定領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者のベッド上での起き上がりを推定する。
具体例を挙げると、制御部11は、起き上がり方向又は起き上がり方向に近似できる方向のオプティカルフローが当該所定領域内で検出された後に、当該所定領域内又は付近で所定の時間以上継続して、起き上がり方向又は起き上がり方向に近似できる方向のオプティカルフローが検出できた場合に、当該所定領域内から起き上がり方向に移動する動体が検出できると評価して、見守り対象者のベッド上での起き上がりを推定してもよい。
ここで、上記所定領域は、見守り対象者のベッド上での起き上がりを推定するために、ベッド上で寝ている状態の見守り対象者の上半身が存在しうる領域として設定される領域である。当該所定領域は、予め設定されてもよく、ユーザ(例えば、見守り者)により指定されることで設定されてもよいし、所与のパターンからユーザが選択することで設定されてもよい。当該所定領域は、実施の形態に応じて、適宜、設定される。ここで、図5では、当該所定領域の形状は楕円形で例示されている。しかしながら、当該所定領域の形状は、楕円形に限定されず、実施の形態に応じて、適宜、設定されてよい。
また、上記所定の時間は、見守り対象者の起き上がりを推定する際に、オプティカルフローが継続して検出されているか否かを評価するための指標となる。当該所定の時間は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与の時間からユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
また、起き上がり方向は、寝ている状態の見守り対象者が起き上がる際に上半身が移動する方向である。当該起き上がり方向は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与のパターンからユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
図6は、見守り対象者がベッド上で行動した場合に当該見守り対象者が存在しうる領域として存在領域が設定された場面を例示する。動画像3内において、見守り対象者の行動を推定する基準となるオプティカルフローの検出される領域が限定されていない場合、見守り対象者の動きとは無関係な動体に係るオプティカルフローに基づいて誤った推定を行ってしまう可能性がある。
そこで、制御部11は、ステップS103において、当該存在領域内において、ベッド上で寝ている状態の見守り対象者の上半身が存在しうる所定領域内から、当該見守り対象者の起き上がり方向に移動する動体が検出されるときに、見守り対象者のベッド上での起き上がりを推定してもよい。換言すると、制御部11は、見守り対象者のベッド上での起き上がりを推定するのに寄与するオプティカルフローの存在範囲を限定してもよい。
これにより、見守り対象者のベッド上での行動に無関係なオプティカルフローを除外し、見守り対象者のベッド上での行動に関連すると想定されるオプティカルフローに限定して、当該見守り対象者の行動を推定することが可能になる。そのため、このように制御部11を動作させることで、見守り対象者のベッド上での起き上がりを推定するときの精度を高めることが可能になる。
なお、存在領域は、見守り対象者のベッド上での行動に無関係なオプティカルフローを除外し、見守り対象者のベッド上での行動に関連すると想定されるオプティカルフローを限定するために設定される領域である。当該存在領域は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与のパターンからユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
図7は、見守り対象者がベッド上で起き上がる際に検出される軌跡の一例を示す。図8は、見守り対象者がベッド上で寝返りをする際に検出される軌跡の一例を示す。ベッド上での寝返りと起き上がりとは共に上半身の移動で共通する可能性がある。そのため、ベッド上での起き上がりの際に検出されるオプティカルフローと同様の傾向をもつオプティカルフローが寝返りの際に検出される可能性がある。そして、オプティカルフローは、動画像内の隣接するフレーム間の動きを表わし、動体の一連の動きを表さないため、制御部11は、ベッド上での寝返りを起き上がりと誤って推定(認識)してしまう可能性がある。
そこで、制御部11は、画像処理部22として機能し、取得される動画像3中の動きを追跡(トラッキング)することで、更に、動体の軌跡を検出してもよい。そして、制御部11は、行動推定部23として機能し、検出された軌跡に基づいて、見守り対象者のベッド上での寝返りと区別して、見守り対象者のベッド上での起き上がりを推定してもよい。これにより、動体の一連の動きを補足することが可能な軌跡に基づいて、ベッド上での寝返りと区別して起き上がりを推定することが可能になるため、見守り対象者のベッド上での起き上がりを推定するときの精度を高めることが可能になる。
なお、当該動きの軌跡は、実施の形態に応じて、適宜、取得されてよい。制御部11は、例えば、オプティカルフローを検出する際に求められた移動点を基準に、動きの軌跡を取得してもよい。具体的には、制御部11は、当該移動点を中心とした一定枠の領域をトラッキングエリアとする。そして、制御部11は、トラッキングエリアを設定したフレームの次のフレームにおいて、移動を考慮した一定の範囲内で、トラッキングエリアのテンプレートマッチングを行う。制御部11は、当該テンプレートマッチングにより一定の適合率を超える領域が発見できた場合、トラッキングが成功できたと判定し、当該トラッキングを継続する。他方、制御部11は、一定の適合率を超える領域が発見できなかった場合、トラッキングが失敗したと判定し、当該トラッキングを終了する。制御部11は、このようなトラッキングを行うことで、トラッキングの開始から終了までの動きの軌跡を取得することができる。
また、取得される軌跡に基づいて、見守り対象者の寝返りと起き上がりとを区別するための条件は、実施の形態に応じて、適宜、設定されてよい。例えば、図7及び8で例示されるように、起き上がりは一方向に移動する動作であり、寝返りは必ずしも一方向に移動する動作ではないと想定することができる。この想定に基づいて、制御部11は、検出された軌跡が一方向の移動を示すと評価できる場合、見守り対象者がベッド上で起き上がったと推定してもよい。他方、検出された軌跡が一方向の移動を示すと評価できない場合、見守り対象者はベッド上で寝返りをしていると推定してもよい。
(b)柵越え
図9は、見守り対象者がベッドの柵越えをする際に検出されるオプティカルフローの一例を示す。図9で例示されるように、見守り対象者がベッドの柵を越えようとすると、ステップS101で取得される動画像3では、ベッドの端にセットされている柵付近において動きが生じると想定される。そのため、ステップS102では、見守り対象者がベッドの柵を越えようとする間、図9で例示されるようなオプティカルフローが検出されると想定することができる。なお、図9では、カメラ手前側の端にある柵を見守り対象者が越えようとしている場面を例示する。
そこで、ステップS103では、制御部11は、ベッドに柵がセットされている際に、上述の存在領域の内側から外側へ移動する動体が検出されるときに、当該見守り対象者のベッドの柵越えを推定する。上述のとおり、存在領域は、見守り対象者のベッド上での行動に無関係なオプティカルフローを除外し、見守り対象者のベッド上での行動に関連すると想定されるオプティカルフローを限定するために設定される領域である。つまり、当該存在領域は、見守り対象者のベッド上での行動範囲を規定する。そのため、存在領域の内部から外部へ移動する動作は、ベッド上からベッド外で移動する動作であると想定することができる。したがって、ベッドに柵がセットされている際に当該条件を満たす場合には、見守り対象者はベッドの柵を越えようとしていると想定することができる。
当該処理の具体例を挙げると、制御部11は、ベッドに柵がセットされている際に、存在領域の内側から外側の方向へのオプティカルフローが当該存在領域の端付近で検出された後に、所定の時間以上継続して当該方向にオプティカルフローが検出され、最終的に存在範囲外でオプティカルフローが検出できた場合に、存在領域の内側から外側へ移動する動体が検出できると評価して、見守り対象者のベッドの柵越えを推定してもよい。
なお、上記所定の時間は、見守り対象者の柵越えを推定する際に、オプティカルフローが継続して検出されているか否かを評価するための指標となる。当該所定の時間は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与の時間からユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
なお、ベッドに柵がセットされているか否かは、実施の形態に応じて、適宜、設定されてよく、例えば、ユーザによって設定されてもよい。また、コンピュータによって当該ベッドが制御されている場合、情報処理装置1は、当該ベッドを制御するコンピュータから、当該ベッドに柵がセットされているか否かを示す情報を取得してもよい。
また、制御部11は、このような動作を上述した軌跡に基づいて、判断してもよい。例えば、制御部11は、柵越えを推定するための動作の軌跡に係るテンプレートを保持して、取得された軌跡と当該テンプレートとを適合することで、見守り対象者がベッドの柵越えを行っている状態にあるか否かを判定してもよい。なお、この点は、以下の端座位、離床、及び、落下についても同様である。
ここで、身体の一部がベッドから飛び出した場合に、ベッド上での存在領域の内側から外側へ移動する動体が検出される可能性があり、上記ベッドの柵越えを推定するための条件を満たしてしまう可能性がある。ただし、その場合、身体全体で移動する柵越えの場合に比べて、背景差分法により抽出される前景領域の大きさは小さいと想定される。
そこで、制御部11は、画像処理部22として機能して、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を検出してもよい。そして、制御部11は、行動推定部23として機能して、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドの柵越えを推定してもよい。
具体的には、制御部11は、動体領域内において前景領域が占める領域が所定の大きさを超えない場合に、見守り対象者の身体の一部がベッドから飛び出した状態であると推定してもよい。他方、制御部11は、動体領域内において前景領域が占める領域が所定の大きさを超える場合に、見守り対象者の身体の一部がベッドから飛び出した状態ではなく、見守り対象者がベッドの柵を越えようとしている状態であると推定してもよい。
これにより、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドの柵越えを推定することが可能になる。そのため、見守り対象者のベッドの柵越えを推定するときの精度を高めることができる。
なお、背景差分法による背景と前景との分離方法は、実施の形態に応じて、適宜、選択されてよい。例えば、背景と前景との分離方法として、背景画像と入力画像との差分から背景と前景とを分離する方法、異なる3枚の画像を用いて背景と前景とを分離する方法、及び、統計的モデルを適用して背景と前景とを分離する方法を挙げることができる。
また、制御部11は、ベッドに柵がセットされているか否かに依らず、見守り対象者のベッドの柵越えを推定してもよい。この場合、柵越えの状態と後述する端座位の状態とで、検出されるオプティカルフローが類似する可能性がある。ただし、端座位の状態では、柵越えの状態とは異なり、ベッド下部において所定の大きさを超える動体領域が検出されると想定される。そこで、制御部11は、ベッド下部において検出される動体領域の大きさに応じて、柵越えの状態か端座位の状態かを判別してもよい。例えば、制御部11は、存在領域の内側から外側に向かうオプティカルフローが存在領域の端付近で第1の所定の量以上検出された場合に、ベッド下部(本実施形態では、存在領域の下部)で検出される、所定の大きさを超える移動量を示すオプティカルフローの数が第2の所定の量を超えないときに、端座位の状態と区別して、見守り対象者は柵越えの状態にあると推定してもよい。
(c)端座位
図10は、見守り対象者がベッド上で端座位の状態になる際に検出されるオプティカルフローの一例を示す。図10で例示されるように、見守り対象者がベッド上で端座位の状態になろうとすると、ステップS101で取得される動画像3では、ベッドの端及び下部付近で動きが生じると想定される。そのため、ステップS102では、見守り対象者が端座位の状態になろうとする間、図10で例示されるようなオプティカルフローが検出されると想定することができる。
そこで、ステップS103では、制御部11は、上述の存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する動体が検出されるときに、当該見守り対象者のベッドにおける端座位を推定する。上述のとおり、当該存在領域は、見守り対象者のベッド上での行動範囲を規定する。そのため、このような動体が検出される場合には、見守り対象者はベッドの端に移動し、端座位の状態になろうとしていると想定することができる。
当該処理の具体例を挙げると、制御部11は、存在領域の内部から外部の方向へのオプティカルフローが当該存在領域内部で検出された後に、所定の時間以上継続して当該方向にオプティカルフローが検出され、最終的に存在範囲外にベッドの下部の方向(本実施形態では、図10の紙面上の下方向)に大きさを持つオプティカルフローが検出できた場合に、存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する動体を検出できると評価して、見守り対象者のベッドにおける端座位を推定してもよい。
なお、上記所定の時間は、見守り対象者の端座位を推定する際に、オプティカルフローが継続して検出されているか否かを評価するための指標となる。当該所定の時間は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与の時間からユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
ここで、上述の柵越えのケースと同様に、身体の一部がベッドから飛び出した場合に、ベッド上における端座位を推定するための条件を満たしてしまう可能性がある。ただし、その場合、体全体で移動する端座位の場合に比べて、背景差分法により抽出される前景領域の大きさは小さいと想定される。
そこで、上述の柵越えのケースと同様に、制御部11は、画像処理部22として機能して、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を検出してもよい。そして、制御部11は、行動推定部23として機能して、オプティカルフローに基づいて検出される動体が存在する動体領域内において検出された前景領域が占める領域が所定の大きさを超えるか否かを判定することで、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドにおける端座位を推定してもよい。
具体的には、制御部11は、動体領域内において前景領域が占める領域が所定の大きさを超えない場合に、見守り対象者の身体の一部がベッドから飛び出した状態であると推定してもよい。他方、制御部11は、動体領域内において前景領域が占める領域が所定の大きさを超える場合に、見守り対象者の身体の一部がベッドから飛び出した状態ではなく、見守り対象者が端座位の状態になろうとしていると推定してもよい。
これにより、見守り対象者の身体の一部がベッドから飛び出した状態と区別して、見守り対象者のベッドにおける端座位を推定することが可能になる。そのため、見守り対象者のベッドにおける端座位を推定するときの精度を高めることができる。
(d)離床
図11は、見守り対象者がベッドから離床する際に検出されるオプティカルフローの一例を示す。図11で例示されるように、見守り対象者がベッドから離床すると、ステップS101で取得される動画像3では、ベッドから離れた位置で動きが生じると想定される。そのため、ステップS102では、見守り対象者が離床する際に、図11で例示されるようなオプティカルフローが検出されると想定することができる。
そこで、ステップS103では、制御部11は、上述の存在領域の外側で移動する動体が検出されるときに、当該見守り対象者のベッドからの離床を推定する。上述の通り、存在領域は、見守り対象者のベッド上での行動範囲を規定する。そのため、このような動体が検出される場合には、見守り対象者がベッドから離れたところで移動していると想定することができる。
当該処理の具体例を挙げると、制御部11は、存在領域の外部で任意の方向の大きさを持つオプティカルフローが所定の時間以上継続して検出された場合に、存在領域の外側で移動する動体が検出できると評価して、見守り対象者のベッドからの離床を推定してもよい。
なお、上記所定の時間は、見守り対象者の離床を推定する際に、オプティカルフローが継続して検出されているか否かを評価するための指標となる。当該所定の時間は、予め設定されてもよいし、ユーザにより設定されてもよいし、所与の時間からユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
(e)落下
図12は、見守り対象者がベッドから落下する際に検出されるオプティカルフローの一例を示す。図12で例示されるように、見守り対象者がベッドから落下すると、ステップS101で取得される動画像3では、ベッドの端から下部付近にかけて動きが生じると想定される。そのため、ステップS102では、見守り対象者がベッドから落下する際には、図12で例示されるようなオプティカルフローが検出されると想定することができる。
また、見守り対象者がベッドから落下し、落下した場所に留まっているとすると、当該見守り対象者が落下した場所での動きはなくなり、当該見守り対象者は落下した位置で背景として扱われるようになると想定される。
そこで、制御部11は、画像処理部22として機能し、背景と前景とを分離する背景差分法によって、取得される動画像3中の前景領域を検出してもよい。そして、制御部11は、ステップS103において、上述の存在領域の内側からベッド下方に移動する動体が検出された後に、背景差分法によって検出される前景領域が時間の経過とともに消失するときに、当該見守り対象者のベッドからの落下を推定する。上述のとおり、当該存在領域は、見守り対象者のベッド上での行動範囲を規定する。そのため、このような動体が検出される場合には、見守り対象者はベッドから落下し、落下した場所でとどまっていると想定することができる。
当該処理の具体例を挙げると、制御部11は、存在領域の内部から外部の方向へのオプティカルフローが当該存在領域内部で検出された後に、当該存在領域の外部で所定の範囲にベッド下方の方向を有するオプティカルフローが検出される場合に、存在領域の内側からベッド下方に移動する動体が検出できたと評価する。そして、制御部11は、ベッド下方の方向を有するオプティカルフローが検出されなくなった後に、当該ベッド下方の方向を有するオプティカルフローが検出されていた領域について、前記前景領域の大きさを判定する。制御部11は、当該前景領域が所定の大きさよりも小さくなったときに、時間の経過とともに当該前景領域が消失したと評価して、見守り対象者のベッドからの落下を推定してもよい。
なお、上記所定の範囲は、ベッド下方に移動する動体が見守り対象者の移動に関するか否かを評価するための指標となる。また、上記所定の大きさは、前景領域が消失したか否かを評価するための指標となる。これらは、予め設定されてもよいし、ユーザにより設定されてもよいし、所与の時間からユーザが選択することで設定されてもよいし、実施の形態に応じて、適宜、設定されてよい。
(f)その他
(a)〜(e)では、ステップS102において検出されたオプティカルフローの位置と方向とに基づいて、制御部11が見守り対象者の各行動を推定する場面を例示した。見守り対象者の行動のうち推定の対象とする行動は、実施の形態に応じて、適宜、選択されてよい。本実施形態では、制御部11は、(a)〜(e)において例示した起き上がり、柵越え、端座位、離床、及び、落下、のうちの少なくともいずれかの行動を推定する。ユーザ(例えば、見守り者)は、起き上がり、柵越え、端座位、離床、及び、落下から選択することで、推定の対象とする行動を決定してもよい。また、ユーザは、これら以外の行動を推定の対象に設定してもよい。
ここで、(a)〜(e)は、ベッドの短手方向右側からベッドよりも高い位置に設置されたカメラ2を利用した場合の各行動を推定する条件を例示する。上述した起き上がり方向、所定領域、存在領域等の設定項目は、カメラ2の配置、ベッドの配置、推定する行動等で定めることができる。情報処理装置1は、カメラ2の配置、対象物の配置、及び、推定する行動に応じて、これらの設定上方を記憶部12に保持していてもよい。そして、情報処理装置1は、カメラ2の配置、対象物の配置、及び、推定する行動の選択をユーザから受け付けて、見守り対象者の行動を推定するための設定項目を特定してもよい。これにより、情報処理装置1によって推定する見守り対象者の行動をユーザがカスタマイズすることが可能になる。
なお、(a)〜(e)の各行動の条件を満たさないオプティカルフローが検出された場合、制御部11は、直前に推定した行動が維持されていると推定してもよいし、(a)〜(e)以外の行動状態にあると推定してもよい。
<ステップS104>
ステップS104では、制御部11は、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であるか否かを判定する。ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動である場合、制御部11は、ステップS105に処理を進める。一方、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動ではない場合、制御部11は、本動作例に係る処理を終了する。
見守り対象者に危険の迫る予兆を示す行動であると設定される行動は、実施の形態に応じて、適宜、選択されてよい。例えば、転落又は転倒が生じる可能性のある行動として、見守り対象者に危険の迫る予兆を示す行動に端座位が設定されていると仮定する。この場合、制御部11は、ステップS103において見守り対象者が端座位の状態にあると推定したとき、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であると判定する。
なお、見守り対象者に危険の迫る予兆があるか否かを判定する場合には、見守り対象者の行動の遷移を考慮した方がよい場合がある。例えば、離床から端座位の状態になるよりも、起き上がりから端座位の状態になった方が、見守り対象者が転落又は転倒する可能性が高いと想定することができる。そこで、制御部11は、ステップS104において、見守り対象者の行動の遷移を踏まえて、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であるか否かを判定してもよい。
例えば、制御部11は、見守り対象者の行動を定期的に推定しているところ、ステップS103において、見守り対象者の起き上がりを推定した後に、見守り対象者が端座位の状態になったと推定したとする。このとき、制御部11は、本ステップS104において、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であると判定してもよい。
<ステップS105>
ステップS105では、制御部11は、通知部24として機能し、見守り対象者に危険の迫る予兆があることを知らせるための通知を当該見守り対象者を見守る見守り者に対して行う。
制御部11は、適当な方法を用いて当該通知を行う。例えば、制御部11は、当該通知として、情報処理装置1に接続されるディスプレイに、見守り対象者に危険の迫る予兆があることを見守り者に知らせるための画面を表示させてもよい。また、例えば、制御部11は、電子メールにより、見守り者のユーザ端末に当該通知を行ってもよい。この場合、例えば、通知先となるユーザ端末の電子メールアドレスは記憶部12に予め登録されており、制御部11は、当該予め登録されている電子メールアドレスを利用して、見守り対象者に危険の迫る予兆があることを知らせるための通知を見守り者に行う。
また、見守り対象者に危険の迫る予兆があることを知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。例えば、制御部11は、外部インタフェース15を介して接続されたナースコールを制御し、見守り対象者に危険の迫る予兆があることを知らせるための通知として、当該ナースコールによる呼び出しを行ってもよい。情報処理装置1に接続される施設の設備は、実施の形態に応じて、適宜、決定されてよい。
なお、情報処理装置1は、見守り対象者の行動を定期的に推定する場合、上述の動作例に示される処理を定期的にくり返す。定期的に処理を繰り返す間隔は、適宜、設定されてよい。また、情報処理装置1は、ユーザ(見守り者)の要求に応じて、上述の動作例に示される処理を実行してもよい。
本実施形態に係る情報処理装置1によれば、ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラ2により撮影された動画像3からオプティカルフローが求められる。そして、求められたオプティカルフローに基づいて移動する動体が検出される場合に、検出される動体が見守り対象者に対応すると仮定され、検出される動体の位置と移動方向とに基づいて、見守り対象者のベッド上又はベッド付近での行動が推定される。そのため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能になる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
(深度センサの利用)
制御部11は、ステップS103において見守り対象者の行動を推定する際に、動画像3内の奥行きを測定するための深度センサ31により得られる深度情報を利用してもよい。すなわち、制御部11は、深度センサ31により得られる動体の深度に更に基づいて、見守り対象者のベッド上又はベッド付近での行動を推定してもよい。
オプティカルフローに基づいて特定可能な動体の実空間における位置は、ステップS101で取得される動画像3から特定できるとは限らない。そのため、オプティカルフローに基づいて特定可能な動体は、ベッド上又はベッド付近に存在する見守り対象者の動きではなく、カメラから見て当該見守り対象者の手前に存在する、当該見守り対象者とは無関係な物体の動きに対応する場合がある。
そこで、制御部11は、深度センサ31から得られる深度情報を利用することで、オプティカルフローに基づいて特定可能な動体が、ベッド上又はベッド付近に存在する見守り対象者の動きに対応するか否か、を判定することが可能になる。つまり、各行為を推定する際の動体が検出される領域の深度の条件を設定することが可能になる。そのため、このように処理することで、情報処理装置1は、見守り対象者のベッド上又はベッド付近での行動を推定するときの精度を高めることが可能になる。
1…情報処理装置、2…カメラ、3…動画像、
5…プログラム、6…記憶媒体、
21…画像取得部、22…画像処理部、23…行動推定部、24…通知部、
31…深度センサ

Claims (14)

  1. ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得する画像取得部と、
    取得した前記動画像内におけるオプティカルフローを求める画像処理部と、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定する行動推定部と、
    を備え
    前記画像処理部は、更に、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を検出し、
    前記行動推定部は、前記ベッドに柵がセットされている際に、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から外側へ移動する前記動体が検出されるときに、前記オプティカルフローに基づいて検出される前記動体が存在する動体領域内において前記前景領域が占める領域が所定の大きさを超える否かを判定することで、前記見守り対象者の身体の一部が前記ベッドから飛び出した状態と区別して、前記見守り対象者の前記ベッドの柵越えを推定する、
    情報処理装置。
  2. ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得する画像取得部と、
    取得した前記動画像内におけるオプティカルフローを求める画像処理部と、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定する行動推定部と、
    を備え、
    前記行動推定部は、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する前記動体が検出されるときに、前記見守り対象者の前記ベッドにおける端座位を推定する、
    情報処理装置。
  3. 前記画像処理部は、更に、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を特定し、
    前記行動推定部は、前記オプティカルフローに基づいて検出される前記動体が存在する動体領域内において前記前景領域が占める領域が所定の大きさを超える否かを判定することで、前記見守り対象者の身体の一部が前記ベッドから飛び出した状態と区別して、前記見守り対象者の前記ベッドにおける端座位を推定する、
    請求項に記載の情報処理装置。
  4. ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得する画像取得部と、
    取得した前記動画像内におけるオプティカルフローを求める画像処理部と、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定する行動推定部と、
    を備え、
    前記画像処理部は、更に、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を特定し、
    前記行動推定部は、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から前記ベッド下方に移動する前記動体が検出された後に、前記背景差分法によって検出される前記前景領域が時間の経過とともに消失するときに、前記見守り対象者の前記ベッドからの落下を推定する、
    情報処理装置。
  5. 前記行動推定部は、前記ベッド上で寝ている状態の前記見守り対象者の上半身が存在しうる領域内から、前記見守り対象者の起き上がり方向に移動する前記動体が検出されるときに、前記見守り対象者の前記ベッド上での起き上がりを推定する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記行動推定部は、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域内において、前記ベッド上で寝ている状態の前記見守り対象者の上半身が存在しうる領域内から、前記見守り対象者の起き上がり方向に移動する前記動体が検出されるときに、前記見守り対象者の前記ベッド上での起き上がりを推定する、
    請求項に記載の情報処理装置。
  7. 前記画像処理部は、前記動画像中の動きを追跡することで、更に、前記動体の軌跡を検出し、
    前記行動推定部は、検出された前記軌跡に基づいて、前記見守り対象者の前記ベッド上での寝返りと区別して、前記起き上がりを推定する、
    請求項又はに記載の情報処理装置。
  8. 前記行動推定部は、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の外側で移動する前記動体が検出されるときに、前記見守り対象者の前記ベッドからの離床を推定する、
    請求項1からのいずれか1項に記載の情報処理装置。
  9. 前記行動推定部は、深度センサにより得られる前記動体の深度に更に基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定する、
    請求項1からのいずれか1項に記載の情報処理装置。
  10. 前記見守り対象者について推定した行動が前記見守り対象者に危険の迫る予兆を示す行動である場合に、前記見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を更に備える、
    請求項1からのいずれか1項に記載の情報処理装置。
  11. コンピュータが、
    ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、
    取得した前記動画像内におけるオプティカルフローを求めるステップと、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、
    を実行し、
    前記コンピュータが、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を検出するステップを更に実行し、
    前記推定するステップでは、前記コンピュータは、前記ベッドに柵がセットされている際に、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から外側へ移動する前記動体が検出されるときに、前記オプティカルフローに基づいて検出される前記動体が存在する動体領域内において前記前景領域が占める領域が所定の大きさを超える否かを判定することで、前記見守り対象者の身体の一部が前記ベッドから飛び出した状態と区別して、前記見守り対象者の前記ベッドの柵越えを推定する、
    情報処理方法。
  12. コンピュータに、
    ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、
    取得した前記動画像内におけるオプティカルフローを求めるステップと、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、
    を実行させるためのプログラムであって、
    前記コンピュータに、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を検出するステップを更に実行させ、
    前記推定するステップでは、前記コンピュータに、前記ベッドに柵がセットされている際に、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から外側へ移動する前記動体が検出されるときに、前記オプティカルフローに基づいて検出される前記動体が存在する動体領域内において前記前景領域が占める領域が所定の大きさを超える否かを判定させることで、前記見守り対象者の身体の一部が前記ベッドから飛び出した状態と区別して、前記見守り対象者の前記ベッドの柵越えを推定させる、
    プログラム。
  13. コンピュータに、
    ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、
    取得した前記動画像内におけるオプティカルフローを求めるステップと、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、
    を実行させるためのプログラムであって、
    前記推定するステップでは、前記コンピュータに、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から端へ移動する部分と、当該存在領域の内側から外側へ移動する部分と、を有する前記動体が検出されるときに、前記見守り対象者の前記ベッドにおける端座位を推定させる、
    プログラム。
  14. コンピュータに、
    ベッド上及びベッド付近での見守り対象者の行動を見守るために設置されたカメラにより撮影された動画像を取得するステップと、
    取得した前記動画像内におけるオプティカルフローを求めるステップと、
    求めた前記オプティカルフローに基づいて移動する動体が検出される場合に、検出される当該動体は前記見守り対象者に対応すると仮定して、検出される当該動体の位置と移動方向とに基づいて、前記見守り対象者のベッド上又はベッド付近での行動を推定するステップと、
    を実行させるためのプログラムであって、
    前記コンピュータに、背景と前景とを分離する背景差分法によって、前記動画像中の前景領域を検出するステップを更に実行させ、
    前記推定するステップでは、前記コンピュータに、前記見守り対象者が前記ベッド上で行動した場合に当該見守り対象者が存在しうる領域として設定された存在領域の内側から前記ベッド下方に移動する前記動体が検出された後に、前記背景差分法によって検出される前記前景領域が時間の経過とともに消失するときに、前記見守り対象者の前記ベッドからの落下を推定させる
    プログラム。

JP2013044557A 2013-03-06 2013-03-06 情報処理装置、情報処理方法、及び、プログラム Active JP6171415B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013044557A JP6171415B2 (ja) 2013-03-06 2013-03-06 情報処理装置、情報処理方法、及び、プログラム
US14/193,377 US20140253710A1 (en) 2013-03-06 2014-02-28 Information processing apparatus for watching, information processing method and non-transitory recording medium recorded with program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044557A JP6171415B2 (ja) 2013-03-06 2013-03-06 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2014174627A JP2014174627A (ja) 2014-09-22
JP6171415B2 true JP6171415B2 (ja) 2017-08-02

Family

ID=51487380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044557A Active JP6171415B2 (ja) 2013-03-06 2013-03-06 情報処理装置、情報処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20140253710A1 (ja)
JP (1) JP6171415B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171415B2 (ja) * 2013-03-06 2017-08-02 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
CN105960663A (zh) * 2014-02-18 2016-09-21 诺日士精密株式会社 信息处理装置、信息处理方法及程序
CN105940434A (zh) * 2014-03-06 2016-09-14 诺日士精密株式会社 信息处理装置、信息处理方法及程序
JP6455234B2 (ja) * 2015-03-03 2019-01-23 富士通株式会社 行動検出方法及び行動検出装置
WO2016185738A1 (ja) * 2015-05-20 2016-11-24 ノ-リツプレシジョン株式会社 画像解析装置、画像解析方法、及び、画像解析プログラム
FI126359B (fi) * 2015-05-26 2016-10-31 Seniortek Oy Valvontajärjestelmä ja valvontamenetelmä
CN107851185A (zh) * 2015-08-10 2018-03-27 皇家飞利浦有限公司 占用检测
EP3170125B1 (en) * 2015-08-10 2017-11-22 Koninklijke Philips N.V. Occupancy detection
JP2017194737A (ja) * 2016-04-18 2017-10-26 富士通株式会社 ベッド領域抽出プログラム、ベッド領域抽出方法、及びベッド領域抽出装置
CN105873110B (zh) * 2016-05-27 2020-01-10 集道成科技(北京)有限公司 用户行为校正方法、装置
JP6890813B2 (ja) * 2016-08-22 2021-06-18 学校法人慶應義塾 行動検知システム、情報処理装置、プログラム
JP6812772B2 (ja) 2016-12-09 2021-01-13 富士ゼロックス株式会社 監視装置及びプログラム
EP3348192A1 (en) * 2017-01-12 2018-07-18 Hill-Rom Services, Inc. Bed exit monitoring system
JP2018151940A (ja) * 2017-03-14 2018-09-27 株式会社デンソーテン 障害物検出装置および障害物検出方法
JP6729510B2 (ja) * 2017-07-06 2020-07-22 オムロン株式会社 見守り支援システム及びその制御方法
JP7316038B2 (ja) * 2018-03-08 2023-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 事象予測システム、センサ信号処理システム及びプログラム
CN108320458A (zh) * 2018-03-27 2018-07-24 上海市杨浦区中心医院(同济大学附属杨浦医院) 床栏报警器系统
JP7205540B2 (ja) * 2018-06-26 2023-01-17 コニカミノルタ株式会社 コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
JP7391536B2 (ja) * 2019-05-20 2023-12-05 グローリー株式会社 観察システム及び観察方法
JP7406737B2 (ja) * 2020-03-31 2023-12-28 インフィック株式会社 離床予測通知装置及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3939224B2 (ja) * 2002-08-30 2007-07-04 住友大阪セメント株式会社 領域監視装置
US7319386B2 (en) * 2004-08-02 2008-01-15 Hill-Rom Services, Inc. Configurable system for alerting caregivers
JP2006136666A (ja) * 2004-11-15 2006-06-01 Asahi Kasei Corp 体動認識装置、体動認識方法、及び、プログラム
JP4415870B2 (ja) * 2005-02-18 2010-02-17 日本電信電話株式会社 転倒転落検知システム、及びプログラム
JP2007020845A (ja) * 2005-07-15 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> 離床前動作検出装置、離床前動作検出システム及び離床前動作検出方法
US20070132597A1 (en) * 2005-12-09 2007-06-14 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
JP2008307363A (ja) * 2007-05-14 2008-12-25 Kansai Electric Power Co Inc:The 離床予測装置及び離床予測方法
US9277878B2 (en) * 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
US8780198B2 (en) * 2009-02-26 2014-07-15 Tko Enterprises, Inc. Image processing sensor systems
JP5648840B2 (ja) * 2009-09-17 2015-01-07 清水建設株式会社 ベッド上及び室内の見守りシステム
JP4785975B1 (ja) * 2010-03-26 2011-10-05 有限会社グーテック 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
JP5682204B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5782737B2 (ja) * 2011-02-17 2015-09-24 富士通株式会社 状態検知装置、状態検知方法および状態検知プログラム
CA3090537A1 (en) * 2011-04-04 2012-10-04 Alarm.Com Incorporated Fall detection and reporting technology
JP6171415B2 (ja) * 2013-03-06 2017-08-02 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
US20140253710A1 (en) 2014-09-11
JP2014174627A (ja) 2014-09-22

Similar Documents

Publication Publication Date Title
JP6171415B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6717235B2 (ja) 見守り支援システム及びその制御方法
WO2015118953A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6915421B2 (ja) 見守り支援システム及びその制御方法
JP6780641B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
US20160371950A1 (en) Information processing apparatus, information processing method, and program
WO2016151966A1 (ja) 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム
JP6432592B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US11116423B2 (en) Patient monitoring system and method
JP6489117B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2015141268A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6557853B2 (ja) 異常状態通知システム、異常状態通知プログラム、異常状態通知方法および異常状態通知装置
WO2018235628A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
JP6607253B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP5870230B1 (ja) 見守り装置、見守り方法および見守りプログラム
JP6606912B2 (ja) 浴室異常検知装置、浴室異常検知方法、及び浴室異常検知プログラム
JP6565468B2 (ja) 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム
JP5982835B2 (ja) 検出装置、検出方法、および検出プログラム
JP2023041168A (ja) 監視システム、監視方法、および監視プログラム
EP2939595A1 (en) A method and system for determining a movement of an object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250