JP2014166197A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2014166197A
JP2014166197A JP2013038575A JP2013038575A JP2014166197A JP 2014166197 A JP2014166197 A JP 2014166197A JP 2013038575 A JP2013038575 A JP 2013038575A JP 2013038575 A JP2013038575 A JP 2013038575A JP 2014166197 A JP2014166197 A JP 2014166197A
Authority
JP
Japan
Prior art keywords
target person
information processing
moving
watching target
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013038575A
Other languages
English (en)
Other versions
JP6167563B2 (ja
Inventor
Toru Yasukawa
徹 安川
Masayoshi Kamitsuji
雅義 上辻
Takeshi Murai
猛 村井
Shuichi Matsumoto
修一 松本
Shoichi Detachi
祥一 出立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
NK Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NK Works Co Ltd filed Critical NK Works Co Ltd
Priority to JP2013038575A priority Critical patent/JP6167563B2/ja
Priority to US14/190,677 priority patent/US20140240479A1/en
Publication of JP2014166197A publication Critical patent/JP2014166197A/ja
Application granted granted Critical
Publication of JP6167563B2 publication Critical patent/JP6167563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

【課題】簡易な方法で見守り対象者の行動を推定する技術を提供する。
【解決手段】本発明の一側面に係る情報処理装置は、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得する画像取得部と、取得した動画像中から、動きが生じている動体領域を検出する動体検出部と、対象物が存在する領域として動画像内に設定された対象物領域と検出された動体領域との位置関係に応じて、見守り対象者の対象物に関する行動を推定する行動推定部と、を備える。
【選択図】図4

Description

本発明は、情報処理装置、情報処理方法、及び、プログラムに関する。
室内斜め上方から室内下方に向けて撮影された画像の境界辺を通過して、床面領域からベッド領域への人体移動を検知することで、入床事象を判断し、ベッド領域から床面領域への人体移動を検知することで、離床事象を判断する技術がある(特許文献1)。
また、ベッドに寝ている患者が起床挙動を行ったことを判定するための見守り領域を、ベッドに就寝している患者を含むベッドの直上の領域に設定して、ベッドの横方向から見守り領域を含む撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す変動値が、患者がベッドに寝ている状態でカメラから得られた撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す初期値未満である場合に、患者が起床挙動を行っていると判断する技術がある(特許文献2)。
特開2002−230533号公報 特開2011−005171号公報
近年、入院患者、施設入居者、要介護者等がベッドから転倒、転落する事故、及び、認知症患者の徘徊による事故が年々増加する傾向にある。このような事故を防止する方法として、例えば、病院、介護施設等で利用する見守りシステムとして、室内に設置したカメラで見守り対象者を撮影し、撮影した画像を解析することで、起き上がり、端座位、離床等の見守り対象者の行動を検出する見守りシステムが開発されている。このような見守りシステムでは、例えば、顔認識技術を用いて見守り対象者を特定する等、比較的に高度な画像処理技術が用いられており、現場に合わせてシステムの設定を調整して利用することが困難であるという問題点があった。
本発明は、一側面では、このような点を考慮してなされたものであり、簡易な方法で見守り対象者の行動を推定する技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る情報処理装置は、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得する画像取得部と、取得した前記動画像中から、動きが生じている動体領域を検出する動体検出部と、前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定する行動推定部と、を備える。
上記構成によれば、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像中から動きが生じている動体領域、換言すると、動体が存在する領域が検出される。そして、見守り対象者の行動の基準となる対象物が存在する領域として動画像内に設定された対象物領域と検出された動体領域との位置関係に応じて、当該見守り対象者の当該対象物に関する行動が推定される。なお、見守り対象者とは、当該情報処理装置によって行動を見守られる対象者であり、例えば、入院患者、施設入居者、要介護者等である。
したがって、上記構成によれば、対象物と動体との位置関係から見守り対象者の行動が推定されるため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能となる。
また、上記一側面に係る情報処理装置の別の形態として、上記行動推定部は、検出された動体領域の大きさに更に応じて、見守り対象者の対象物に関する行動を推定してもよい。当該構成によれば、見守り対象者の行動とは無関係な動体を除外することが可能になるため、行動推定の精度を高めることが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記動体検出部は、取得した動画像中の、見守り対象者の行動を推定するための領域として設定された検出領域から動体領域を検出してもよい。当該構成によれば、動画像中において動体を検出する対象の範囲を縮小できるため、当該検出に係る処理を高速に実行することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記動体検出部は、見守り対象者について推定する行動の種類に基づいて定められた検出領域から動体領域を検出してもよい。当該構成によれば、推定の対象とする行動に無関係な領域で生じる動体を無視することが可能になるため、行動推定の精度を高めることができる。
また、上記一側面に係る情報処理装置の別の形態として、上記画像取得部は、対象物としてベッドを撮影した動画像を取得し、上記行動推定部は、見守り対象者の行動として、ベッド上での起き上がり、ベッドにおける端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床、のうち少なくともいずれかの行動を推定してもよい。なお、端座位とは、見守り対象者がベッドの端に腰をかけている状態を指す。当該構成によれば、見守り対象者の起き上がり、端座位、柵越え、落下、及び、離床のうちの少なくともいずれかの行動が推定可能になるため、病院、介護施設等で入院患者、施設入居者、要介護者等を見守るための装置として、当該情報処理装置を利用することが可能になる。
また、上記一側面に係る情報処理装置の別の形態として、上記情報処理装置は、見守り対象者について推定した行動が当該見守り対象者に危険の迫る予兆を示す行動である場合に、当該見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を更に備えてもよい。当該構成によれば、見守り対象者に危険の迫る予兆があることを見守り者に知らせることが可能になる。また、見守り対象者にも危険の迫る予兆があることを知らせることが可能になる。なお、見守り者は、見守り対象者の行動を見守る者であり、見守り対象者が、入院患者、施設入居者、要介護者等である場合は、例えば、看護師、施設職員、介護者等である。また、見守り対象者に危険の迫る予兆を知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。
なお、上記一側面に係る情報処理装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理システムによって実現されてもよい。
例えば、本発明の一側面に係る情報処理方法は、コンピュータが、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得するステップと、取得した前記動画像中から、動きが生じている動体領域を検出するステップと、前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定するステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係るプログラムは、コンピュータに、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得するステップと、取得した前記動画像中から、動きが生じている動体領域を検出するステップと、前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定するステップと、を実行させるためのプログラムである。
本発明によれば、簡易な方法で見守り対象者の行動を推定する技術を提供することが可能になる。
図1は、本発明が適用される場面の一例を示す。 図2は、実施の形態に係る情報処理装置のハードウェア構成を例示する。 図3は、実施の形態に係る情報処理装置の機能構成を例示する。 図4は、実施の形態に係る情報処理装置の処理手順を例示する。 図5Aは、見守り対象者が起き上がりの状態にある場面を例示する。 図5Bは、見守り対象者が起き上がりの状態になる際に取得される動画像の一例を示す。 図5Cは、見守り対象者が起き上がりの状態になる際に取得される動画像において検出される動体と対象物との関係を例示する。 図6Aは、見守り対象者が端座位の状態にある場面を例示する。 図6Bは、見守り対象者が端座位の状態になる際に取得される動画像の一例を示す。 図6Cは、見守り対象者が端座位の状態になる際に取得される動画像において検出される動体と対象物との関係を例示する。 図7Aは、見守り対象者が柵越えをする場面を例示する。 図7Bは、見守り対象者が柵越えをする際に取得される動画像の一例を示す。 図7Cは、見守り対象者が柵越えをする際に取得される動画像において検出される動体と対象物との関係を例示する。 図8Aは、見守り対象者がベッドから落下した場面を例示する。 図8Bは、見守り対象者がベッドから落下する際に取得される動画像の一例を示す。 図8Cは、見守り対象者がベッドから落下する際に取得される動画像において検出される動体と対象物との関係を例示する。 図9Aは、見守り対象者が離床する場面を例示する。 図9Bは、見守り対象者が離床する際に取得される動画像の一例を示す。 図9Cは、見守り対象者が離床する際に取得される動画像において検出される動体と対象物との関係を例示する。 図10Aは、動体を検出するエリアとして設定される検出エリアの一例を示す。 図10Bは、動体を検出するエリアとして設定される検出エリアの一例を示す。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。
§1 適用場面例
図1は、本発明が適用される場面の一例を示す。本実施形態では、医療施設又は介護施設において、入院患者又は施設入居者が見守り対象者として行動を見守られる場面が想定されている。見守り対象者は、ベッドの長手方向の前方に設置されたカメラ2により撮影されることで、行動を見守られている。
カメラ2は、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影する。見守り対象者の行動の基準となる対象物は、実施の形態に応じて、適宜、選択されてよい。本実施形態では、病室又は施設内における入院患者又は施設入居者の行動が見守られるため、見守り対象者の行動の基準となる対象物として、ベッドが選択されている。
なお、カメラ2の種類及び配置される位置は、実施の形態に応じて、適宜、選択されてよい。本実施形態では、カメラ2は、ベッドの長手方向前方から見守り対象者とベッドとを撮影できるように固定されている。カメラ2により撮影された動画像3は、情報処理装置1に送信される。
本実施形態に係る情報処理装置1は、見守り対象者と対象物(ベッド)とを撮影した動画像3をカメラ2から取得する。そして、情報処理装置1は、取得した動画像3中から、動きが生じている動体領域、換言すると、動体が存在する領域を検出し、対象物(ベッド)が存在する領域として動画像3内に設定された対象物領域と検出された動体領域との関係に応じて、見守り対象者の対象物(ベッド)に関する行動を推定する。
なお、見守り対象者の対象物に関する行動は、見守り対象者の行動のうち対象物に関連する行動であり、実施の形態に応じて、適宜、選択されてよい。本実施形態では、見守り対象者の行動の基準となる対象物としてベッドが選択されている。そこで、本実施形態に係る情報処理装置1は、見守り対象者の対象物に関する行動として、ベッド上での起き上がり、ベッドにおける端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床、のうち、少なくともいずれかの行動を推定する。これにより、病院、介護施設等で入院患者、施設入居者、要介護者等を見守るための装置として、当該情報処理装置1を利用することが可能になる。詳細は後述する。
このように、本実施形態によれば、見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像3中から動体が検出される。そして、当該対象物と検出された動体との位置関係に応じて、当該見守り対象者の当該対象物に関する行動が推定される。
したがって、本実施形態によれば、対象物と動体との位置関係から見守り対象者の行動を推定することが可能になるため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能となる。
§2 構成例
<ハードウェア構成例>
図2は、本実施形態に係る情報処理装置1のハードウェア構成を例示する。情報処理装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、及び、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、ネットワークを介して通信を行うための通信インタフェース13、記憶媒体6に記憶されたプログラムを読み込むためのドライブ14、及び、外部装置と接続するための外部インタフェース15が電気的に接続されたコンピュータである。
なお、情報処理装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び、追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、情報処理装置1は、ディスプレイ等の出力装置、及び、マウス、キーボード等の入力を行うための入力装置を備えてもよい。なお、図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載される。
また、情報処理装置1は、複数の外部インタフェース15を備え、複数の外部装置と接続されてもよい。本実施形態では、情報処理装置1は、外部インタフェース15を介して、見守り対象者とベッドとを撮影するカメラ2と接続されてよい。更に、情報処理装置1は、外部インタフェース15を介してナースコール等の施設に設置された設備と接続されることで、見守り対象者に危険の迫る予兆があることを知らせるための通知を当該設備と連携して行ってもよい。
また、プログラム5は、情報処理装置1に後述する動作に含まれるステップを実行させるプログラムであり、本発明の「プログラム」に相当する。また、プログラム5は記憶媒体6に記録されていてもよい。記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
また、情報処理装置1として、例えば、提供されるサービス専用に設計された装置の他、PC(Personal Computer)、タブレット端末等の汎用の装置が用いられてよい。また、情報処理装置1は、1又は複数のコンピュータにより実装されてもよい。
<機能構成例>
図3は、本実施形態に係る情報処理装置1の機能構成を例示する。本実施形態に係る情報処理装置1が備えるCPUは、記憶部12に記憶されたプログラム5をRAMに展開する。そして、CPUは、RAMに展開されたプログラム5を解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係る情報処理装置1は、画像取得部21、動体検出部22、行動推定部23、及び、通知部24を備えるコンピュータとして機能する。
画像取得部21は、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像3を取得する。動体検出部22は、取得した動画像3中から、動きが生じている動体領域を検出する。そして、行動推定部23は、当該対象物が存在する領域として動画像3内に設定された対象物領域と検出された動体領域との位置関係に応じて、見守り対象者の対象物に関する行動を推定する。
なお、行動推定部23は、検出された動体領域の大きさに更に応じて、見守り対象者の対象物に関する行動を推定してよい。本実施形態では、動体領域に存在する動体の認識を行っていない。そのため、本実施形態に係る情報処理装置1は、見守り対象者の動きとは無関係な動体に基づいて、当該見守り対象者の行動推定を実施してしまう可能性がある。そこで、行動推定部23は、検出された動体領域の大きさに更に応じて、見守り対象者の対象物に関する行動を推定してよい。すなわち、行動推定部23は、動体領域の大きさに基づいて、見守り対象者の動きとは無関係な動体領域を行動推定の対象から除外することで、行動推定の精度を高めようとしてもよい。
この場合、例えば、行動推定部23は、見守り対象者に比べて明らかに大きさの小さい動体領域を除外し、ユーザ(例えば、見守り者)によって設定変更可能な所定の大きさよりも大きい動体領域が当該見守り対象者の動きに関係すると仮定してもよい。つまり、行動推定部23は、所定の大きさよりも大きい動体領域を用いて、当該見守り対象者の行動推定を行ってもよい。これにより、見守り対象者の行動とは無関係な動体を行動推定の対象から除外することが可能になり、行動推定の精度を高めることが可能になる。
ただし、当該処理は、情報処理装置1が動体領域に存在する動体の認識を行うことを妨げるものではない。本実施形態に係る情報処理装置1は、動体領域に存在する動体の認識を行うことで、当該動体領域に映る動体が見守り対象者に関係するか否かを判定し、見守り対象者に無関係な動体を行動推定の処理から除外してもよい。
また、動体検出部22は、取得される動画像3中の、見守り対象者の行動を推定するための領域として設定された検出領域から動体領域を検出してもよい。動画像3において動体を検出する範囲が限定されていないとすると、動画像3全域を見守り対象者が移動するとは限らないため、当該見守り対象者の動きとは無関係な動体を検出してしまう可能性がある。そこで、動体検出部22は、取得される動画像3中の、見守り対象者の行動を推定するための領域として設定された検出領域から動体領域を検出してもよい。すなわち、動体検出部22は、動体を検出する対象の範囲を当該検出領域に限定してもよい。
これにより、見守り対象者の動きとは無関係な領域を動体検出の対象から除外できる可能性があるため、見守り対象者の動きとは無関係な動体を検出する可能性を軽減することが可能になる。また、動体検出の処理範囲が限定されるため、動画像3全体を処理する場合に比べて、動体の検出に係る処理を高速に実行することが可能になる。
また、動体検出部22は、見守り対象者について推定する行動の種類に基づいて定められた検出領域から動体領域を検出してもよい。すなわち、動体を検出する領域として設定される検出領域は、見守り対象者について推定する行動の種類に基づいて定められてよい。これにより、本実施形態に係る情報処理装置1では、推定の対象とする行動に無関係な領域で生じる動体を無視することが可能になるため、行動推定の精度を高めることが可能になる。
また、本実施形態に係る情報処理装置1は、見守り対象者について推定した行動が当該見守り対象者に危険の迫る予兆を示す行動である場合に、当該見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を備える。これにより、本実施形態に係る情報処理装置1では、見守り対象者に危険の迫る予兆があることを見守り者に知らせることが可能になる。また、見守り対象者自身にも危険の迫る予兆があることを知らせることが可能になる。なお、見守り者は、見守り対象者の行動を見守る者であり、見守り対象者が、入院患者、施設入居者、要介護者等である場合は、例えば、看護師、職員、介護者等である。また、見守り対象者に危険の迫る予兆を知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。
なお、本実施形態では、画像取得部21は、見守り対象者の行動の基準となる対象物として、ベッドを撮影した動画像3を取得する。そして、行動推定部23は、見守り対象者の行動として、ベッド上での起き上がり、ベッドにおける端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床、のうちの少なくともいずれかの行動を推定する。そのため、介護施設等で入院患者、施設入居者、要介護者等を見守るための装置として、本実施形態に係る情報処理装置1を利用することが可能である。
なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。例えば、見守り対象者に危険の迫る予兆があることを知らせるための通知を実施しない場合、通知部24は省略されてよい。
§3 動作例
図4は、本実施形態に係る情報処理装置1の動作例を示す。なお、以下で説明する動作例の処理手順は一例に過ぎず、各処理は、可能な限り入れ替えられてよい。また、以下で説明する動作例の処理手順について、実施の形態に応じて、適宜、処理の省略、置換、及び、追加が可能である。例えば、見守り対象者に危険の迫る予兆があることを知らせるための通知を実施しない場合、ステップS104及びS105は省略されてよい。
ステップS101では、制御部11は、画像取得部21として機能し、行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像3を取得する。本実施形態では、制御部11は、入院患者又は施設入居者とベッドとを撮影した動画像3をカメラ2から取得する。
ここで、本実施形態では、情報処理装置1は、医療施設又は介護施設において、入院患者又は施設入居者を見守るために利用される。この場合、制御部11は、カメラ2に対するビデオ信号に同期させて画像を取得してもよい。そして、制御部11は、後述するステップS102〜S105までの処理を取得した画像に対して即座に実行してもよい。情報処理装置1は、当該動作を連続して絶え間なく実行することで、リアルタイム画像処理を実現し、リアルタイムに入院患者又は施設入居者の行動を見守ることを可能にする。
ステップS102では、制御部11は、動体検出部22として機能し、ステップS101で取得した動画像中から、動きが生じている動体領域、換言すると、動体が存在する領域を検出する。動体を検出する方法として、例えば、差分画像を用いる方法及びオプティカルフローを用いる方法を挙げることができる。
差分画像を用いる方法とは、異なる時間に撮影された複数の画像の差を観察することで、動体を検出する方法である。当該方法の具体例として、背景画像と入力画像との差分から動体領域を検出する背景差分法、異なる3枚の画像を用いて動体領域を検出するフレーム間差分法、及び、統計的モデルを適用して動体領域を検出する統計的背景差分法を挙げることができる。
また、オプティカルフローを用いる方法とは、物体の動きをベクトルで表現したオプティカルフローに基づいて動体を検出する方法である。オプティカルフローは、具体的には、異なる時間に撮影された2枚の画像間で対応付けられた同じ対象の移動量をベクトルデータとして表現する。当該オプティカルフローを求める方法の一例として、例えば、テンプレートマッチングを用いてオプティカルフローを求めるブロックマッチング法、及び、時空間微分の拘束を利用してオプティカルフローを求める勾配法を挙げることができる。当該オプティカルフローは物体の移動量を表現するため、当該方法では、オプティカルフローのベクトル値が零ではない画素を集めることで動体領域を検出することができる。
制御部11は、これらの方法からいずれかの方法を選択して、動体を検出してもよい。また、動体を検出する方法は、以上のいずれかの方法からユーザによって選択されてもよい。動体を検出する方法は、以上のいずれかの方法に限定されず、実施の形態に応じて、適宜、選択されてよい。
ステップS103では、制御部11は、行動推定部23として機能し、対象物が存在する領域として動画像3内に設定された対象物領域とステップS102において検出された動体領域との位置関係に応じて、見守り対象者の当該対象物に関する行動を推定する。本実施形態では、制御部11は、見守り対象者の当該対象物に関する行動として、ベッド上での起き上がり、ベッドにおける端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床、のうちの少なくともいずれかの行動を推定する。以下、各行動の推定について、図を用い、具体例を挙げて説明する。なお、本実施形態では、見守り対象者の行動の基準となる対象物としてベッドが選択されているため、対象物領域は、ベッド領域、ベッドエリア等と称されてもよい。
(a)起き上がり
図5A〜5Cは、起き上がりの動作に関する。図5Aは、見守り対象者が起き上がりの状態にある場面を例示する。図5Bは、見守り対象者が起き上がりの状態になる際にカメラ2により取得される動画像3の一場面を例示する。図5Cは、見守り対象者が起き上がりの状態になる際に取得される動画像3において検出される動体と対象物(ベッド)との位置関係を例示する。
見守り対象者が、図1で例示されるような状態、換言すると、ベッド上で仰向けに寝ている状態(仰臥位)から図5Aで例示されるように起き上がったとする。この場合、情報処理装置1の制御部11は、ステップS101において、ベッドの長手方向前方から見守り対象者とベッドとを撮影するカメラ2から、図5Bでその一場面が例示されるような動画像3を取得することができる。
このとき、見守り対象者は仰臥位の状態から上半身を起こすため、ステップS101において取得される動画像3では、ベッド上方の領域であって、見守り対象者の上半身部分が映る領域に、動きが生じると想定される。すなわち、ステップS102において、図5Cで例示される位置付近に動体領域51が検出されると想定される。
ここで、図5Cに例示されるように、動画像3内にベッドが映る領域(ベッドフレームを含む)を含むように対象物領域31が設定されていると仮定する。そうすると、見守り対象者がベッド上で起き上がった場合には、ステップS102では、対象物領域31の上端周辺に動体領域51が検出されると想定される。
そこで、ステップS103では、制御部11は、対象物領域31と図5Cで例示されるような位置関係で動体領域51が検出される場合に、換言すると、対象物領域31の上端周辺に動体領域51が検出される場合に、見守り対象者がベッド上で起き上がったと推定する。なお、対象物領域31は、実施の形態に応じて、適宜、設定されてよい。例えば、対象物領域31は、ユーザにより範囲を指定されることで設定されてもよいし、予め定められたパターンに基づいて設定されてもよい。
なお、図5Cでは、動きが生じている動体領域(動体領域51)の形状は矩形で例示されている。しかしながら、当該例示は、動体領域の検出が矩形状に行われなければならないことを示すものではない。後述する図6C、7C、8C、9C、10A、及び、10Bについても同様である。
(b)端座位
図6A〜6Cは、端座位の動作に関連する。図6Aは、見守り対象者が端座位の状態にある場面を例示する。図6Bは、見守り対象者が端座位の状態になる際にカメラ2により取得される動画像3の一場面を例示する。図6Cは、見守り対象者が端座位の状態になる際に取得される動画像3において検出される動体と対象物(ベッド)との位置関係を例示する。なお、端座位とは、見守り対象者がベッドの端に腰をかけている状態を指す。ここで、本実施形態では、カメラ2は、動画像3内の左側の領域にベッドが映るように配置されている。そのため、図6A〜6Cは、カメラ2から見てベッドの右端に腰をかけている場面を例示する。
見守り対象者が、図6Aで例示されるように、端座位の状態になった場合、情報処理装置1の制御部11は、ステップS101において、図6Bでその一場面が例示されるような動画像3を取得することができる。このとき、見守り対象者は、カメラ2から見てベッドの右端に腰をかけるように移動するため、ステップS101において取得される動画像3では、当該ベッドの端の略全域にわたって、動きが生じると想定される。すなわち、ステップS102において、図6Cで例示される位置付近に、換言すると、対象物領域31の右端付近に、動体領域52が検出されると想定される。
そこで、ステップS103では、制御部11は、対象物領域31と図6Cで例示されるような位置関係で動体領域52が検出される場合に、換言すると、対象物領域31の右端付近に動体領域52が検出される場合に、見守り対象者が端座位の状態になったと推定する。
(c)柵越え
図7A〜7Cは、柵越えの動作に関連する。図7Aは、見守り対象者が柵越えをする場面を例示する。図7Bは、見守り対象者が柵越えをする際にカメラ2により取得される動画像3の一場面を例示する。図7Cは、見守り対象者が柵越えをする際に取得される動画像3において検出される動体と対象物(ベッド)との位置関係を例示する。ここで、カメラ2は、動画像3内の左側の領域にベッドが映るように配置されている。そのため、端座位の場面と同様、図7A〜7Cは、カメラ2から見てベッドの右端側の動作を例示する。すなわち、図7A〜7Cは、カメラ2から見てベッドの右端にある柵を見守り対象者が越えようとしている場面を例示する。
見守り対象者が、図7Aで例示されるように、柵越えを行う場合、情報処理装置1の制御部11は、ステップS101において、図7Bでその一場面が例示されるような動画像3を取得することができる。このとき、見守り対象者は、カメラ2から見てベッドの右端にある柵を越えようと移動しているため、ステップS101において取得される動画像3では、当該ベッドの右端下部を除いた、当該ベッドの右端上部で動きが生じると想定される。すなわち、ステップS102において、図7Cで例示される位置付近に、換言すると、対象物領域31の右端上部付近に、動体領域53が検出されると想定される。
そこで、ステップS103では、制御部11は、対象物領域31と図7Cで例示されるような位置関係で動体領域53が検出される場合に、換言すると、対象物領域31の右端上部付近に動体領域53が検出される場合に、見守り対象者がベッドの柵越えをしていると推定する。
(d)落下
図8A〜8Cは、ベッドからの落下の動作に関連する。図8Aは、見守り対象者がベッドから落下した場面を例示する。図8Bは、見守り対象者が落下した際に取得される動画像3において検出される動体と対象物(ベッド)との位置関係を例示する。ここで、上記端座位及び柵越えの場面と同様の理由から、図8A〜8Cは、カメラ2から見てベッドの右側に見守り対象者が落下した場面を例示する。
見守り対象者が、図8Aで例示されるように、ベッドから落下した場合、情報処理装置1の制御部11は、ステップS101において、図8Bでその一場面が例示されるような動画像3を取得することができる。このとき、見守り対象者は、カメラ2から見てベッドの右端からベッドの下へ転落するため、ステップS101において取得される動画像3では、当該ベッドの右端から少し離れた床付近に動きが生じると想定される。すなわち、ステップS102において、図8Cで例示される位置付近に、換言すると、対象物領域31から右下に少し離れたところに、動体領域54が検出されると想定される。
そこで、ステップS103では、制御部11は、対象物領域31と図8Cで例示されるような位置関係で動体領域54が検出される場合に、換言すると、対象物領域31から右下に少し離れたところに動体領域54が検出される場合に、見守り対象者がベッドから落下したと推定する。
(e)離床
図9A〜9Cは、ベッドからの離床の動作に関連する。図9Aは、見守り対象者がベッドから離床する場面を例示する。図8Bは、見守り対象者が離床する際に取得される動画像3において検出される動体と対象物(ベッド)との位置関係を例示する。ここで、上記端座位、柵越え、及び、落下の場面と同様の理由から、図9A〜9Cは、カメラ2から見てベッドの右側へ見守り対象者が離床する場面を例示する。
見守り対象者が、図9Aで例示されるように、ベッドから離床した場合、情報処理装置1の制御部11は、ステップS101において、図9Bでその一場面が例示されるような動画像3を取得することができる。このとき、見守り対象者は、カメラ2から見てベッドから右の方へ離れていくため、ステップS101において取得される動画像3では、当該ベッドから右の方へ離れた位置付近に動きが生じると想定される。すなわち、ステップS102において、図9Cで例示される位置付近に、換言すると、対象物領域31から右の方へ離れたところに、動体領域55が検出されると想定される。
そこで、ステップS103では、制御部11は、対象物領域31と図9Cで例示されるような位置関係で動体領域55が検出される場合に、換言すると、対象物領域31から右の方へ離れたところに動体領域55が検出される場合に、見守り対象者が離床したと推定する。
(f)その他
(a)〜(e)では、ステップS102において検出された動体領域51〜55それぞれと対象物領域31との位置関係に応じて、制御部11が見守り対象者の各行動を推定する場面を例示した。見守り対象者の行動のうち推定の対象とする行動は、実施の形態に応じて、適宜、選択されてよい。本実施形態では、制御部11は、(a)〜(e)において例示した起き上がり、端座位、柵越え、落下、及び、離床、のうちの少なくともいずれかの行動を推定する。ユーザ(例えば、見守り者)は、起き上がり、端座位、柵越え、落下、及び、離床から選択することで、推定の対象とする行動を決定してもよい。
ここで、(a)〜(e)は、取得される動画像3内の左側にベッドが映るようにベッドの長手方向前方に配置されたカメラ2を利用した場合の各行動を推定する条件を例示する。見守り対象者の行動を推定する条件となる動体領域と対象物領域との位置関係は、カメラ2の配置、対象物(ベッド)の配置、推定する行動等で定めることができる。情報処理装置1は、カメラ2の配置、対象物の配置、及び、推定する行動に応じて、見守り対象者が対象の行動を行っていると推定するための条件となる動体領域と対象物領域との位置関係の情報を記憶部12に保持していてもよい。そして、情報処理装置1は、カメラ2の配置、対象物の配置、及び、推定する行動の選択をユーザから受け付けて、見守り対象者が対象の行動を行っていると推定するための条件を設定してもよい。これにより、情報処理装置1によって推定する見守り対象者の行動をユーザがカスタマイズすることが可能になる。
また、情報処理装置1は、ユーザが追加を所望する推定対象の行動を見守り対象者が実行した場合に、動体領域が検出されるであろう動画像3内の領域の指定をユーザ(例えば、見守り者)から受け付けてもよい。これにより、情報処理装置1は、見守り対象者が対象の行動を行っていると推定するための条件を追加し、見守り対象者について推定の対象とする行動を追加することが可能になる。
なお、(a)〜(e)の各動作では、所定の位置に一定量以上の領域に動体が生じると推定される。そのため、制御部11は、検出された動体領域の大きさに応じて、見守り対象者の対象物(ベッド)に関する行動を推定してもよい。例えば、制御部11は、上述した行動の推定に係る判定を行う前に、検出された動体領域の大きさが一定量を超えるか否かを判定してもよい。そして、制御部11は、検出された動体領域の大きさが一定量以下である場合には、当該検出された動体領域に基づいて見守り対象者の行動を推定せずに、当該検出された動体領域を無視してもよい。一方、制御部11は、検出された動体領域の大きさが一定量を超える場合には、当該検出された動体領域に基づいて見守り対象者の行動を推定してもよい。
また、(a)〜(e)の各行動で例示した領域以外で動体領域が検出された場合、制御部11は、検出された動体領域が所定量の大きさを越えないときは、見守り対象者は移動していないと想定されるため、直前に推定した行動が維持されていると推定してもよい。一方、検出された動体領域が所定量の大きさを越えるときは、見守り対象者が(a)〜(e)以外の行動を行っていると想定されるため、(a)〜(e)以外の行動状態にあると推定してもよい。
ステップS104では、制御部11は、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であるか否かを判定する。ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動である場合、制御部11は、ステップS105に処理を進める。一方、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動ではない場合、制御部11は、本動作例に係る処理を終了する。
見守り対象者に危険の迫る予兆を示す行動であると設定される行動は、実施の形態に応じて、適宜、選択されてよい。例えば、転落又は転倒が生じる可能性のある行動として、見守り対象者に危険の迫る予兆を示す行動に端座位が設定されていると仮定する。この場合、制御部11は、ステップS103において見守り対象者が端座位の状態にあると推定したとき、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であると判定する。
なお、見守り対象者に危険の迫る予兆があるか否かを判定する場合には、見守り対象者の行動の遷移を考慮した方がよい場合がある。例えば、離床から端座位の状態になるよりも、起き上がりから端座位の状態になった方が、見守り対象者が転落又は転倒する可能性が高いと想定することができる。そこで、制御部11は、ステップS104において、見守り対象者の行動の遷移を踏まえて、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であるか否かを判定してもよい。
例えば、制御部11は、見守り対象者の行動を定期的に推定しているところ、ステップS103において、見守り対象者の起き上がりを推定した後に、見守り対象者が端座位の状態になったと推定したとする。このとき、制御部11は、本ステップS104において、ステップS103において推定した行動が見守り対象者に危険の迫る予兆を示す行動であると判定してもよい。
ステップS105では、制御部11は、通知部24として機能し、見守り対象者に危険の迫る予兆があることを知らせるための通知を当該見守り対象者を見守る見守り者に対して行う。
制御部11は、適当な方法を用いて当該通知を行う。例えば、制御部11は、当該通知として、情報処理装置1に接続されるディスプレイに、見守り対象者に危険の迫る予兆があることを見守り者に知らせるための画面を表示させてもよい。また、例えば、制御部11は、電子メールにより、見守り者のユーザ端末に当該通知を行ってもよい。この場合、例えば、通知先となるユーザ端末の電子メールアドレスは記憶部12に予め登録されており、制御部11は、当該予め登録されている電子メールアドレスを利用して、見守り対象者に危険の迫る予兆があることを知らせるための通知を見守り者に行う。
また、見守り対象者に危険の迫る予兆があることを知らせるための通知は、ナースコール等の施設に設置された設備と連携して行われてもよい。例えば、制御部11は、外部インタフェース15を介して接続されたナースコールを制御し、見守り対象者に危険の迫る予兆があることを知らせるための通知として、当該ナースコールによる呼び出しを行ってもよい。情報処理装置1に接続される施設の設備は、実施の形態に応じて、適宜、決定されてよい。
なお、情報処理装置1は、見守り対象者の行動を定期的に推定する場合、上述の動作例に示される処理を定期的にくり返す。定期的に処理を繰り返す間隔は、適宜、設定されてよい。また、情報処理装置1は、ユーザ(見守り者)の要求に応じて、上述の動作例に示される処理を実行してもよい。
本実施形態に係る情報処理装置1によれば、見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像3から動体領域が検出される。そして、検出された動体領域と対象物領域との位置関係に応じて、見守り対象者の当該対象物に関する行動が推定される。そのため、画像認識等の高度な画像処理技術を導入しなくても、簡易な方法で見守り対象者の行動を推定することが可能になる。
また、本実施形態に係る情報処理装置1は、カメラ2により取得される動画像3内の動体の内容を詳細に解析するのではなく、対象物領域と動体領域との位置関係で、見守り対象者の行動を推定する。そのため、ユーザは、対象の行動に対して動体領域が検出されるであろう領域(条件)が正しく設定されているか否かを確認することで、見守り対象者個々の環境に情報処理装置1が正しく設定されているか否かを確認することができるため、比較的簡単に情報処理装置1を施工、運用、及び、操作をすることができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
(検出領域)
制御部11は、動体検出部22として機能し、取得された動画像3中の、見守り対象者の行動を推定するための領域として設定された検出領域から動体領域を検出してもよい。すなわち、動体検出部22は、ステップS102において動体領域を検出する領域を検出領域に限定してもよい。これにより、情報処理装置1は、動体を検出する範囲を小さくすることができるため、動体の検出に係る処理を高速に実行することが可能になる。
また、制御部11は、動体検出部22として機能して、見守り対象者について推定する行動の種類に基づいて定められた検出領域から動体領域を検出してもよい。すなわち、動体を検出する領域として設定される検出領域は、見守り対象者について推定する行動の種類に基づいて定められてもよい。
図10A及び10Bは検出領域の設定を例示する。図10Aで例示される検出領域61は、見守り対象者のベッド上での起き上がりを推定することに基づいて定められている。また、図10Bで例示される検出領域62は、見守り対象者のベッド上での起き上がりと離床とを推定することに基づいて定められている。
図10A及び10Bを参照すると、離床状態を推定しない図10Aの場面では、情報処理装置1は、離床状態の際に動体が生じると想定される動体領域55付近において動体を検出しなくてよい。また、情報処理装置1は、起き上がり以外の行動を推定しない場合、当該動体領域51付近を除いた領域から動体領域を検出しなくてよい。
そこで、情報処理装置1は、見守り対象者について推定の対象とする行動の種類に基づいて、検出領域の設定を行ってもよい。これにより、本実施形態に係る情報処理装置1では、推定の対象とする行動に無関係な領域で生じる動体を無視することが可能になるため、行動推定の精度を高めることが可能になる。
1…情報処理装置、2…カメラ、3…動画像、
5…プログラム、6…記憶媒体、
21…画像取得部、22…動体検出部、23…行動推定部、24…通知部、
31…対象物領域(ベッドエリア)、51〜55…動体領域、
61、62…検出領域、

Claims (8)

  1. 行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得する画像取得部と、
    取得した前記動画像中から、動きが生じている動体領域を検出する動体検出部と、
    前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定する行動推定部と、
    を備える、
    情報処理装置。
  2. 前記行動推定部は、検出された前記動体領域の大きさに更に応じて、前記見守り対象者の前記対象物に関する行動を推定する、
    請求項1に記載の情報処理装置。
  3. 前記動体検出部は、取得した前記動画像中の、前記見守り対象者の行動を推定するための領域として設定された検出領域から前記動体領域を検出する、
    請求項1又は2に記載の情報処理装置。
  4. 前記動体検出部は、前記見守り対象者について推定する行動の種類に基づいて定められた前記検出領域から前記動体領域を検出する、
    請求項3に記載の情報処理装置。
  5. 前記画像取得部は、前記対象物としてベッドを撮影した動画像を取得し、
    前記行動推定部は、前記見守り対象者の行動として、前記ベッド上での起き上がり、前記ベッドにおける端座位、前記ベッドの柵越え、前記ベッドからの落下、及び、前記ベッドからの離床、のうちの少なくともいずれかの行動を推定する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記見守り対象者について推定した行動が前記見守り対象者に危険の迫る予兆を示す行動である場合に、前記見守り対象者を見守る見守り者に当該予兆を知らせるための通知を行う通知部を更に備える、
    請求項1から5のいずれか1項に記載の情報処理装置。
  7. コンピュータが、
    行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得するステップと、
    取得した前記動画像中から、動きが生じている動体領域を検出するステップと、
    前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定するステップと、
    を実行する情報処理方法。
  8. コンピュータに、
    行動を見守られる見守り対象者と当該見守り対象者の行動の基準となる対象物とを撮影した動画像を取得するステップと、
    取得した前記動画像中から、動きが生じている動体領域を検出するステップと、
    前記対象物が存在する領域として前記動画像内に設定された対象物領域と検出された前記動体領域との位置関係に応じて、前記見守り対象者の前記対象物に関する行動を推定するステップと、
    を実行させるためのプログラム。
JP2013038575A 2013-02-28 2013-02-28 情報処理装置、情報処理方法、及び、プログラム Active JP6167563B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013038575A JP6167563B2 (ja) 2013-02-28 2013-02-28 情報処理装置、情報処理方法、及び、プログラム
US14/190,677 US20140240479A1 (en) 2013-02-28 2014-02-26 Information processing apparatus for watching, information processing method and non-transitory recording medium recorded with program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013038575A JP6167563B2 (ja) 2013-02-28 2013-02-28 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2014166197A true JP2014166197A (ja) 2014-09-11
JP6167563B2 JP6167563B2 (ja) 2017-07-26

Family

ID=51387739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013038575A Active JP6167563B2 (ja) 2013-02-28 2013-02-28 情報処理装置、情報処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20140240479A1 (ja)
JP (1) JP6167563B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054393A (ja) * 2015-09-11 2017-03-16 パナソニックIpマネジメント株式会社 監視システム、及びこれに用いられる移動検知装置、監視装置
WO2017141629A1 (ja) * 2016-02-15 2017-08-24 コニカミノルタ株式会社 端末装置および端末装置の表示方法、センサ装置ならびに被監視者監視システム
JP2017526435A (ja) * 2015-08-10 2017-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有の検出
WO2017179605A1 (ja) * 2016-04-14 2017-10-19 コニカミノルタ株式会社 見守りシステム及び管理サーバ
WO2017179606A1 (ja) * 2016-04-14 2017-10-19 コニカミノルタ株式会社 見守りシステム及び管理サーバ
JP2017536593A (ja) * 2015-08-10 2017-12-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有監視
JP2017220779A (ja) * 2016-06-07 2017-12-14 オムロン株式会社 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体
JPWO2016190348A1 (ja) * 2015-05-27 2018-03-15 コニカミノルタ株式会社 監視装置
JP2018533240A (ja) * 2015-08-10 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有検出
JP2019063542A (ja) * 2018-11-07 2019-04-25 アイホン株式会社 ナースコールシステム
CN110415486A (zh) * 2018-04-27 2019-11-05 纬创资通股份有限公司 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6389801B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN105942749B (zh) * 2016-05-30 2019-03-01 京东方科技集团股份有限公司 电视床及其工作方法
WO2018012432A1 (ja) * 2016-07-12 2018-01-18 コニカミノルタ株式会社 行動判定装置及び行動判定方法
WO2023249307A1 (ko) * 2022-06-23 2023-12-28 주식회사 노타 뉴럴 네트워크 모델을 이용하여 이미지 이벤트 분류를 결정하는 장치 및 방법
KR102603424B1 (ko) * 2022-06-24 2023-11-20 주식회사 노타 뉴럴 네트워크 모델을 이용하여 이미지 이벤트 분류를 결정하는 방법, 장치 및 컴퓨터-판독가능 매체

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253057A (ja) * 1996-03-18 1997-09-30 Kanebo Ltd 病室内患者監視装置
JP2002230533A (ja) * 2001-01-31 2002-08-16 Matsushita Electric Works Ltd 画像処理装置
JP2006175082A (ja) * 2004-12-24 2006-07-06 Hitachi Engineering & Services Co Ltd 起床監視方法および装置
JP2007330379A (ja) * 2006-06-13 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> 起き上がり予兆検知装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
US20110288417A1 (en) * 2010-05-19 2011-11-24 Intouch Technologies, Inc. Mobile videoconferencing robot system with autonomy and image analysis
JP2012030042A (ja) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd 監視装置、プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6594399B1 (en) * 1998-05-14 2003-07-15 Sensar, Inc. Method and apparatus for integrating multiple 1-D filters into a digital image stream interface
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
US7656299B2 (en) * 2007-01-17 2010-02-02 Hoana Medical, Inc. Bed exit and patient detection system
EP1410755A4 (en) * 2001-06-15 2009-01-28 Sumitomo Osaka Cement Co Ltd CONTROL DEVICE
US9311540B2 (en) * 2003-12-12 2016-04-12 Careview Communications, Inc. System and method for predicting patient falls
US9318012B2 (en) * 2003-12-12 2016-04-19 Steve Gail Johnson Noise correcting patient fall risk state system and method for predicting patient falls
JP4789511B2 (ja) * 2004-06-04 2011-10-12 キヤノン株式会社 状況モニタリング装置及び状況モニタリングシステム
US7612666B2 (en) * 2004-07-27 2009-11-03 Wael Badawy Video based monitoring system
US7319386B2 (en) * 2004-08-02 2008-01-15 Hill-Rom Services, Inc. Configurable system for alerting caregivers
US20120140068A1 (en) * 2005-05-06 2012-06-07 E-Watch, Inc. Medical Situational Awareness System
JP2007072964A (ja) * 2005-09-09 2007-03-22 Ishihara Sangyo:Kk 離床予測自動感知通報方法と同自動感知通報システム
US20070132597A1 (en) * 2005-12-09 2007-06-14 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
US20070252895A1 (en) * 2006-04-26 2007-11-01 International Business Machines Corporation Apparatus for monitor, storage and back editing, retrieving of digitally stored surveillance images
US20090044334A1 (en) * 2007-08-13 2009-02-19 Valence Broadband, Inc. Automatically adjusting patient platform support height in response to patient related events
US10645346B2 (en) * 2013-01-18 2020-05-05 Careview Communications, Inc. Patient video monitoring systems and methods having detection algorithm recovery from changes in illumination
US20090278935A1 (en) * 2008-05-07 2009-11-12 Rainier Christopher D Classroom monitor
US9277878B2 (en) * 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
JP5517285B2 (ja) * 2009-06-29 2014-06-11 株式会社ケアコム 起床監視装置
JP2011041594A (ja) * 2009-08-19 2011-03-03 Showa Denko Kk 寝床の在床状況検出装置
US8818028B2 (en) * 2010-04-09 2014-08-26 Personify, Inc. Systems and methods for accurate user foreground video extraction
JP5682204B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
US20140146154A1 (en) * 2011-03-10 2014-05-29 Conseng Pty Ltd Patient monitoring system with image capture functionality
US9295600B2 (en) * 2011-04-08 2016-03-29 Hill-Rom Services, Inc. Person support apparatus with activity and mobility sensing
US20130314522A1 (en) * 2012-05-23 2013-11-28 Afeka Tel Aviv Academic College Of Engineering Patient monitoring system
US9117371B2 (en) * 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance
US8866620B2 (en) * 2012-11-29 2014-10-21 Centrak, Inc. System and method for fall prevention and detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253057A (ja) * 1996-03-18 1997-09-30 Kanebo Ltd 病室内患者監視装置
JP2002230533A (ja) * 2001-01-31 2002-08-16 Matsushita Electric Works Ltd 画像処理装置
JP2006175082A (ja) * 2004-12-24 2006-07-06 Hitachi Engineering & Services Co Ltd 起床監視方法および装置
JP2007330379A (ja) * 2006-06-13 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> 起き上がり予兆検知装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
US20110288417A1 (en) * 2010-05-19 2011-11-24 Intouch Technologies, Inc. Mobile videoconferencing robot system with autonomy and image analysis
JP2012030042A (ja) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd 監視装置、プログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016190348A1 (ja) * 2015-05-27 2018-03-15 コニカミノルタ株式会社 監視装置
JP2017526435A (ja) * 2015-08-10 2017-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有の検出
JP2017536593A (ja) * 2015-08-10 2017-12-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有監視
JP2018533240A (ja) * 2015-08-10 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 占有検出
JP2017054393A (ja) * 2015-09-11 2017-03-16 パナソニックIpマネジメント株式会社 監視システム、及びこれに用いられる移動検知装置、監視装置
WO2017141629A1 (ja) * 2016-02-15 2017-08-24 コニカミノルタ株式会社 端末装置および端末装置の表示方法、センサ装置ならびに被監視者監視システム
JP2019149172A (ja) * 2016-02-15 2019-09-05 コニカミノルタ株式会社 検知システムおよび検知方法
JPWO2017141629A1 (ja) * 2016-02-15 2018-10-25 コニカミノルタ株式会社 端末装置および端末装置の表示方法、センサ装置ならびに被監視者監視システム
WO2017179606A1 (ja) * 2016-04-14 2017-10-19 コニカミノルタ株式会社 見守りシステム及び管理サーバ
JPWO2017179605A1 (ja) * 2016-04-14 2019-02-21 コニカミノルタ株式会社 見守りシステム及び管理サーバ
JPWO2017179606A1 (ja) * 2016-04-14 2019-02-21 コニカミノルタ株式会社 見守りシステム及び管理サーバ
WO2017179605A1 (ja) * 2016-04-14 2017-10-19 コニカミノルタ株式会社 見守りシステム及び管理サーバ
WO2017212690A1 (ja) * 2016-06-07 2017-12-14 オムロン株式会社 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体
JP2017220779A (ja) * 2016-06-07 2017-12-14 オムロン株式会社 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体
US10973441B2 (en) 2016-06-07 2021-04-13 Omron Corporation Display control device, display control system, display control method, display control program, and recording medium
CN110415486A (zh) * 2018-04-27 2019-11-05 纬创资通股份有限公司 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体
CN110415486B (zh) * 2018-04-27 2021-07-23 纬创资通股份有限公司 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体
JP2019063542A (ja) * 2018-11-07 2019-04-25 アイホン株式会社 ナースコールシステム

Also Published As

Publication number Publication date
US20140240479A1 (en) 2014-08-28
JP6167563B2 (ja) 2017-07-26

Similar Documents

Publication Publication Date Title
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6171415B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6500785B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20160371950A1 (en) Information processing apparatus, information processing method, and program
WO2016151966A1 (ja) 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム
JP6432592B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JPWO2016199749A1 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6504156B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6780641B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6489117B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6607253B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
WO2019013105A1 (ja) 見守り支援システム及びその制御方法
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
WO2018235628A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
JP5870230B1 (ja) 見守り装置、見守り方法および見守りプログラム
JP6565468B2 (ja) 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム
US10842414B2 (en) Information processing device, information processing method, program, and watching system
JP6606912B2 (ja) 浴室異常検知装置、浴室異常検知方法、及び浴室異常検知プログラム
WO2023076655A1 (en) In-bed pose and posture tracking system
JP2023051147A (ja) ナースコールシステム、および状態判断システム
JP2023118199A (ja) 見守り監視システム、見守り監視方法、および見守り監視プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170612

R150 Certificate of patent or registration of utility model

Ref document number: 6167563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250