JP5782737B2 - Status detection device, status detection method, and status detection program - Google Patents
Status detection device, status detection method, and status detection program Download PDFInfo
- Publication number
- JP5782737B2 JP5782737B2 JP2011032223A JP2011032223A JP5782737B2 JP 5782737 B2 JP5782737 B2 JP 5782737B2 JP 2011032223 A JP2011032223 A JP 2011032223A JP 2011032223 A JP2011032223 A JP 2011032223A JP 5782737 B2 JP5782737 B2 JP 5782737B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- state
- image
- bed
- moving direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Image Processing (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本件開示は、介護対象者の状態を検知する状態検知装置、状態検知方法および状態検知プログラムに関する。 The present disclosure relates to a state detection device , a state detection method, and a state detection program that detect the state of a care recipient.
入院中の患者や介護施設などの入所者などがベッドから降りようとした際に、誤ってベッドから転落する事故が発生することがある。このような事故の発生を防ぐために、様々な転落防止技術が提案されている。 When a hospitalized patient or a resident of a care facility tries to get out of the bed, an accident may occur that falls accidentally from the bed. In order to prevent the occurrence of such an accident, various fall prevention techniques have been proposed.
転落防止技術の一つに、看護や介護を受ける対象者の状態を検知する技術がある。例えば、感圧センサおよび光学センサを含む複数のセンサによって、対象者の状態を検出し、検出した状態を通知する技術が提案されている(特許文献1参照)。また、対象者を撮影した映像を用いて対象者の状態を検知する技術も提案されている。例えば、予め設定された監視領域において、閾値以上の変化が検出されたときに、対象者の状態が検知される(特許文献2,3参照)。
One of the fall prevention techniques is a technique for detecting the condition of a subject who receives nursing or nursing care. For example, a technique has been proposed in which a subject's state is detected by a plurality of sensors including a pressure-sensitive sensor and an optical sensor, and the detected state is notified (see Patent Document 1). In addition, a technique for detecting the state of the subject using an image obtained by photographing the subject has been proposed. For example, the state of the subject is detected when a change equal to or greater than a threshold is detected in a preset monitoring area (see
また、対象者を撮影した映像そのものを、看護士あるいは介助者が待機する場所に中継するようにした技術も提案されている(特許文献4参照)。 In addition, a technique has been proposed in which a video image of a subject is relayed to a place where a nurse or a caregiver waits (see Patent Document 4).
上述したような従来の検知技術では、カメラを含むセンサにより、ベッド上あるいはベッド付近にいる対象者の状態に異常が検出された場合に、看護士や介助者に検出結果が通知される。しかしながら、従来の技術では、対象者がベッド上で寝返りを打つなどの自然な動作も、対象者の異常な状態として誤検出してしまう場合があった。このような誤検出の頻繁な発生は、看護士や介助者を煩わせてしまい、介護の妨げとなるおそれがある。このため、対象者の異常な状態が誤って検出される頻度を低減することが、状態検知装置および状態検知方法の課題となっている。 In the conventional detection technique as described above, when an abnormality is detected in the state of a subject on or near the bed by a sensor including a camera, a detection result is notified to a nurse or an assistant. However, in the conventional technology, there are cases where a natural motion such as the subject turning over on the bed is erroneously detected as an abnormal state of the subject. Such frequent occurrence of erroneous detection may bother nurses and caregivers and hinder care. For this reason, reducing the frequency with which an abnormal state of the subject is erroneously detected is a problem of the state detection device and the state detection method.
また、対象者の状態を見守るためとはいえ、多数の機材を病室や居室に持ち込むと、介護の妨げとなるおそれもある。このため、対象者の状態を検知するための装置は、できるだけ少ない機材で実現されることが望ましい。 Moreover, although it is for watching the state of the subject person, if a large number of equipment is brought into a hospital room or living room, there is a risk that nursing may be hindered. For this reason, it is desirable that an apparatus for detecting the state of the subject be realized with as few equipment as possible.
本件開示の装置、方法およびプログラムは、簡易な構成により、対象者の状態を高い精度で検知可能な状態検知装置、状態検知方法および状態検知プログラムを提供することを目的とする。 Apparatus of the present disclosure, methods and programs, with a simple configuration, capable of detecting state detection device the condition of the subject with high precision, and to provide a state detection method and a state detection program.
一つの観点による状態検知装置は、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理部と、前記画像処理部によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部とを有する。 A state detection device according to one aspect analyzes a plurality of images captured by an imaging device including a bed in an imaging range, and a moving direction of a subject included in the image is a longitudinal direction of the bed or a lateral direction An image processing unit that detects the orientation of the subject's body, a moving direction detected by the image processing unit, the orientation of the subject's body, and the past state of the subject And a determination unit that determines the current state of the subject and an output unit that outputs information indicating the current state of the subject obtained by the determination unit.
また別の観点による状態検知方法は、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出し、検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、前記判別によって得られた前記対象者の現在の状態を示す情報を出力する。
更に別の観点による状態検知プログラムは、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理工程と、前記画像処理工程によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別工程と、前記判別工程によって得られた前記対象者の現在の状態を示す情報を出力する出力工程とをコンピュータに実行させる。
According to another aspect of the state detection method, a plurality of images captured by an imaging device including a bed in an imaging range are analyzed, and a moving direction of a target person included in the image is a longitudinal direction of the bed or a horizontal direction. And the direction of the subject's body, and based on the detected moving direction, the orientation of the subject's body, and the past state of the subject, A current state is determined, and information indicating the current state of the subject obtained by the determination is output.
Further, a state detection program according to another aspect analyzes a plurality of images captured by an imaging device including a bed in an imaging range, and the moving direction of the subject included in the image is the longitudinal direction of the bed or the horizontal direction. An image processing step for detecting whether the direction of the subject, the orientation of the subject's body, the moving direction detected by the image processing step, the orientation of the subject's body, and the past state of the subject Based on the above, the computer is caused to execute a determination step of determining the current state of the subject and an output step of outputting information indicating the current state of the subject obtained by the determination step.
本件開示の装置、方法およびプログラムによれば、簡易な構成により、対象者の状態を高い精度で検知することができる。 According to the apparatus , method, and program of the present disclosure , the state of the subject can be detected with high accuracy by a simple configuration.
以下、図面に基づいて、本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1に、状態検知装置の一実施形態を示す。図1に例示した状態検知装置10は、画像処理部12と、判別部13と、出力部14とを含んでいる。図1に例示した出力部14は、通知処理部15とスピーカ16とを含んでいる。
FIG. 1 shows an embodiment of a state detection device. The state detection device 10 illustrated in FIG. 1 includes an
状態検知装置10は、例えば、状態検知の対象者Pが起居するベッド1に近接して配置されてもよい。状態検知装置10の画像処理部12には、カメラ2によって撮像された画像が入力される。なお、状態検知装置10は、カメラ2およびベッド1から離れた場所に設置されてもよい。
For example, the state detection device 10 may be disposed close to the
カメラ2は、図1に示すように、撮像のための光学系の光軸がベッド1の長手方向に一致するように配置することが望ましい。この場合に、カメラ2の撮像方向は、図1に符号Drで示すようになり、カメラ2は、ベッド1上の対象者を主に背後から撮像する。そして、このように配置されたカメラ2の撮像範囲R1は、ベッド1の対象者Pがベッド1上で起居する際の動作で移動する範囲とほぼ一致させることができる。なお、対象者Pがベッド1上で起居する際の動作には、この対象者Pが、ベッド1上で起き上がる動作や、ベッド1の端に移動する動作が含まれる。
As shown in FIG. 1, the
カメラ2は、例えば、所定のフレームレートで上述した撮像範囲R1についての撮像を行う。撮像された各フレームの画像は、画像処理部12に順次に送られる。画像処理部12は、各フレームの画像の全てまたは一部に基づいて、上述した対象者Pの像の移動方向を検出する。画像処理部12は、例えば、次のようにして対象者Pの移動方向を検出する。
For example, the
まず、画像処理部12は、個々の画像から、対象者Pの像を検出する。対象者Pの像の検出には、例えば、輪郭抽出技術や被写体認識技術など、様々な公知技術が適用される。次に、画像処理部12は、画像から検出された対象者Pの像の位置を比較することにより、対象者Pの移動方向を検出する。
First, the
画像処理部12によって、各画像について検出された対象者Pの移動方向は、判別部13に渡される。なお、画像処理部12は、対象者Pの像が検出されなかった画像については、例えば、対象者Pが撮像範囲に捉えられていない旨を判別部13に通知する。
The moving direction of the subject P detected for each image by the
判別部13は、新たな画像に対応して通知された移動方向と、対象者Pの過去の状態とに基づいて、対象者Pの現在の状態を判別する。判別部13による対象者Pの現在の状態を判別する処理については後述する。
The
判別部13によって判別された対象者Pの現在の状態を示す情報は、出力部14に含まれる通知処理部15に渡される。通知処理部15は、受け取った情報で示される状態が通知対象の状態であるか否かを判定する。通知対象の状態は、予め、通知処理部15に設定しておくことができる。そして、対象者Pの現在の状態が通知対象の状態と一致したときに、通知処理部15は、例えば、スピーカ16を介して音声メッセージあるいはアラーム音声を出力することにより、看護士あるいは介助者に対象者Pの状態を通知する。
Information indicating the current state of the subject P determined by the
次に、判別部13が、対象者Pの現在の状態を判別する処理について説明する。以下に説明する例では、判別部13は、対象者Pのベッド1上での姿勢あるいは対象者Pとベッド1との位置から、対象者Pの状態を複数種類に区別して判別する。
Next, a process in which the
対象者Pの状態は、例えば、着床状態、起床状態、離床状態および不在状態のいずれかである。着床状態は、対象者Pがベッド1上に横になっている状態である。また、起床状態は、対象者Pがベッド1上で起き上がっている状態である。離床状態は、対象者Pがベッド1の端部にいる状態である。離床状態は、対象者Pがベッド1の端に腰掛けている状態、ベッド1にサイドレールが設置されている場合はこれを跨いでいる状態、およびベッド1の脇に立っている状態を含む。不在状態は、対象者Pがベッド1から離れている状態である。これらの4つの状態は、ベッド1上の対象者Pの動作の始点あるいは分岐点に対応している。したがって、これらの状態は、対象者Pを見守る上で、看護士あるいは介助者に通知する状態として適している。
The state of the subject P is, for example, any of a landing state, a wake-up state, a leaving state, and an absent state. The landing state is a state in which the subject P is lying on the
図2に、対象者Pの状態と対象者Pの像の移動方向との関係を説明する図を示す。図2(A),(C),(E)は、図1を用いて説明したカメラ2による撮像で得られた画像の例である。また、図2(B),(D),(F)は、図2(A),(C),(E)に示した各画像が撮像された際に対象者Pがとっている姿勢の例である。なお、図2(B),(D),(F)において、カメラ2の撮像方向は符号Drで示される。
In FIG. 2, the figure explaining the relationship between the state of the subject P and the moving direction of the subject P's image is shown. 2A, 2C, and 2E are examples of images obtained by imaging with the
図2(A),(C),(E)に示した例では、撮像範囲R1の内側に検知領域R2が設けられている。図2(A),(C),(E)の例では、検知領域R2は、太い実線で囲まれた台形の領域である。そして、この検知領域R2は、図2において点線で示した境界線BL,BRにより、3つの領域に分けられている。以下の説明では、検知領域R2のうち、境界線BLと境界線BRとに挟まれた矩形の領域を中央部と称する。また、検知領域R2のうち、境界線BLよりも左側の領域を左端部、境界線BRよりも右側の領域を右端部とそれぞれ称する。 In the example shown in FIGS. 2A, 2C, and 2E, the detection region R2 is provided inside the imaging range R1. In the examples of FIGS. 2A, 2C, and 2E, the detection region R2 is a trapezoidal region surrounded by a thick solid line. The detection region R2 is divided into three regions by boundary lines BL and BR indicated by dotted lines in FIG. In the following description, a rectangular area sandwiched between the boundary line BL and the boundary line BR in the detection area R2 is referred to as a central portion. In the detection region R2, a region on the left side of the boundary line BL is referred to as a left end portion, and a region on the right side of the boundary line BR is referred to as a right end portion.
図2(B)は、対象者Pが着床状態である例を示している。着床状態では、図2(A)に示したように、対象者Pの像は撮像範囲R1の中には現れない。なお、対象者Pの像を含まない画像は、対象者Pが不在状態である場合にも、カメラ2によって取得される。したがって、図2(A)に示したように、対象者Pの像が含まれない画像が得られた場合に推定される対象者Pの状態は、着床状態と不在状態とのいずれかである。
FIG. 2B shows an example in which the subject P is in the landing state. In the landing state, as shown in FIG. 2A, the image of the subject P does not appear in the imaging range R1. An image that does not include an image of the subject person P is acquired by the
一方、図2(D)は、対象者Pがベッド1上で起き上がろうとしている場面を表している。図2(D)に示す矢印は、ベッド1上の対象者Pの移動方向を示している。このとき、図2(C)に示したように、対象者Pの像は検知領域R2の中央部に含まれている。そして、画像処理部12は、対象者Pが起き上がろうとしている過程で撮像された画像から、図2(C)の符号V1に示すように、画面の下から上に向かう移動方向を検出する。
On the other hand, FIG. 2D shows a scene in which the subject P is about to get up on the
また、図2(F)は、対象者Pがベッド1の端に腰掛けた状態から立ち上がろうとしている場面を表している。このとき、図2(E)に示したように、対象者Pの像は、検知領域R2の左側の領域に含まれている。ここで、ベッド1上に起き上がっていた対象者Pがベッドの端に腰掛けた状態に移行するまでの間に、対象者Pの像は、検知領域R2の中央部分からベッド1の端に対応する左端部に移動する。また、ベッド1に腰掛けた状態から対象者Pが立ち上がろうとする際には、対象者Pは、体を前に傾ける動作を行う場合が多い。したがって、図2(E)に示した画像の前後に撮像された画像から、画像処理部12は、図2(E)の符号V2に示すように、画面の右から左へ向かう移動方向を検出する。
FIG. 2F shows a scene in which the subject P is about to stand up from a state where he is sitting on the end of the
図2に示した例から分かるように、対象者Pがベッド1上で姿勢を変えていく過程と、対象者Pとベッド1との位置関係が変化する過程は、互いに関連している。つまり、着床状態の対象者Pが不在状態になる過程や、逆に、不在状態だった対象者Pが着床状態になるまでの過程は、いくつかの途中の状態を経由する状態遷移として捉えることができる。
As can be seen from the example shown in FIG. 2, the process of changing the posture of the subject P on the
そして、例えば、対象者Pの状態が着床状態から起床状態に遷移する間に、画像処理部12は、図2(C)に示したように、検知領域R2内で対象者Pの像について上のほうへ向かう移動方向V1を検出する。逆に、対象者Pの状態が起床状態から着床状態に遷移する間に、画像処理部12は、図2(C)の例とは逆に、対象者Pの像について、検知領域R2の内部から検知領域R2の下側の境界を越えて検知領域R2の外部へ向かう移動方向を検出する。また、対象者Pの状態が起床状態から離床状態に遷移する間に、画像処理部12は、図2(E)に示したように、対象者Pの像について、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向V2を検出する。逆に、対象者Pの状態が離床状態から起床状態に遷移する間に、画像処理部12は、図2(E)の例とは逆に、対象者Pの像について、検知領域R2の左端部あるいは右端部から中央部に向かう移動方向を検出する。一方、対象者Pの状態が離床状態から不在状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の左端部あるいは右端部から検知領域R2の対応する側の境界を超えて検知領域R2の外部に向かう移動方向を検出する。そして、対象者Pの状態が不在状態から離床状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向を検出する。なお、対象者Pがベッド1の端に腰掛けた位置の付近で横になる場合もある。このように、対象者Pの状態が離床状態から着床状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の左端部あるいは右端部から検知領域R2の下側の境界を越えて検知領域R2の外部に向かう移動方向を検出する。
Then, for example, while the state of the subject person P transitions from the landing state to the wake-up state, the
このように、上述した4つの状態間の状態遷移と、画像処理部12が検出する対象者Pの移動方向には相関関係がある。したがって、対象者Pの現在の状態は、対象者Pについて既に特定されている過去の状態と対象者Pの像の移動方向との組み合わせに基づいて一意に特定可能である。
Thus, there is a correlation between the above-described state transition between the four states and the moving direction of the target person P detected by the
判別部13は、上述した相関関係を利用して、対象者Pの過去の状態と新たに検出された移動方向との組み合わせに基づいて、対象者Pの現在の状態を判別する。過去の状態と対象者Pの移動方向とを組み合わせた判断基準のセットは、例えば、各状態について、判別部13内に予め設定しておくことができる。
The
図3に、過去の状態ごとの判断基準の例を示す。図3に示した判断基準は、上述した状態遷移と検出される移動方向との対応関係を表にまとめたものである。 FIG. 3 shows an example of judgment criteria for each past state. The determination criteria shown in FIG. 3 summarize the correspondence between the above-described state transition and the detected moving direction in a table.
図3に示した例では、対象者Pの現在の状態として起床状態を判別する判断基準は2通りである。1つは、「過去の状態が着床状態である」ことと「検知領域R2の下側の境界を越えて上向きに検知領域R2内へ向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が離床状態である」ことと「検知領域R2の左端部あるいは右端部から検知領域R2の中央部へ向かう移動方向が検出された」ことの組み合わせである。 In the example illustrated in FIG. 3, there are two criteria for determining the wake-up state as the current state of the subject P. One is a combination of “the past state is a landing state” and “the moving direction toward the detection region R2 upward beyond the lower boundary of the detection region R2 has been detected”. The other is a combination of “the past state is a bed leaving state” and “the movement direction from the left or right end of the detection region R2 toward the center of the detection region R2 is detected”.
同様に、図3に示した例では、対象者Pの現在の状態として着床状態を判別する判断基準も2通りである。1つは、「過去の状態が起床状態である」ことと「検知領域R2の下側の境界を越えて下向きに検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が離床状態である」ことと「検知領域R2の下側の境界を越えて下向きに検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。 Similarly, in the example illustrated in FIG. 3, there are also two criteria for determining the landing state as the current state of the subject P. One is a combination of “the past state is a wake-up state” and “the movement direction toward the outside of the detection region R2 is detected downward beyond the lower boundary of the detection region R2”. The other is a combination of “the past state is a bed leaving state” and “the moving direction toward the outside of the detection region R2 is detected downward beyond the lower boundary of the detection region R2”. .
また、図3に示した例では、対象者Pの現在の状態として離床状態を判別する判断基準も2通りである。1つは、「過去の状態が起床状態である」ことと「検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が不在状態である」ことと「検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向が検出された」ことの組み合わせである。 In the example shown in FIG. 3, there are two criteria for determining the bed leaving state as the current state of the subject person P. One is a combination of “the past state is a wake-up state” and “the moving direction from the central portion of the detection region R2 toward the left end portion or the right end portion is detected”. The other is a combination of “the past state is absent” and “the movement direction from the outside of the detection region R2 toward the left end or the right end of the detection region R2 is detected”.
一方、図3に示した例では、対象者Pの現在の状態として不在状態を判別する判断基準は、「過去の状態が離床状態である」ことと「検知領域R2の左端部あるいは右端部から検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。 On the other hand, in the example shown in FIG. 3, the determination criteria for determining the absence state as the current state of the subject P are “the past state is a bed leaving state” and “from the left end portion or the right end portion of the detection region R2. This is a combination that “the moving direction toward the outside of the detection region R2 has been detected”.
判別部13の判別処理に、過去の状態と対象者Pの像の移動方向とを組み合わせた判断基準を用いることにより、次のような例で、誤った判別結果の出力を避けることができる。
By using a determination criterion that combines the past state and the moving direction of the image of the subject P in the determination process of the
画像処理部12は、例えば、対象者P以外の物体の移動に応じて、検知領域R2の中央部から左端部あるいは右端部へ向かう移動方向を検出する可能性がある。このような検出結果は、カーテンが揺れた場合や、他の人物がベッド1付近を通る動作などに伴って、画像処理部12から得られる。この場合に、検出された移動方向は、対象者が離床状態となる際に検出される移動方向に一致している。しかし、対象者Pの過去の状態が着床状態であったことは、離床状態を判別するための条件を満たしていない。したがって、移動方向と過去の状態とを組み合わせた判断基準を採用した判別部13によれば、上述した例について、対象者Pの状態が誤って離床状態と判別されることはない。
For example, the
また、図3に例示した判断基準のセットでは、対象者Pが起床状態および離床状態であることを判別する際に用いる判断基準に含まれる移動方向が、過去の状態ごとに明らかに異なっている。 Further, in the set of determination criteria illustrated in FIG. 3, the moving directions included in the determination criteria used when determining whether the subject P is in the wake-up state or the leaving state are clearly different for each past state. .
例えば、起床状態の判別に用いられる判断基準のうち、過去の状態が着床状態である場合に組み合わせられる移動方向は画像の下から上に向かう方向である。これに対して、起床状態の判別に用いられる判断基準のうち、過去の状態が離床状態である場合に組み合わせられる移動方向は画像の左右方向である。このように、明確に異なる移動方向を、対応する過去の状態の種類と組み合わせた判断基準を用いることにより、判別部13は、対象者Pの現在の状態をより正確に判別することができる。つまり、図3に例示した判断基準のセットを適用した判別部13によれば、起床状態と離床状態とをより正確に判別することができる。
For example, among the determination criteria used for determining the wake-up state, the moving direction combined when the past state is the landing state is the direction from the bottom to the top of the image. On the other hand, among the determination criteria used for determining the wake-up state, the moving direction combined when the past state is the leaving state is the left-right direction of the image. In this way, by using a determination criterion in which a clearly different moving direction is combined with a corresponding past state type, the
このように、移動方向と過去の状態とを組み合わせた判断基準を判別部13の判別処理に適用することにより、対象者Pの現在の状態が誤って判別される確率を低減することができる。つまり、移動方向と過去の状態とを組み合わせた判断基準を用いることにより、判別部13は、対象者Pの状態を、高い精度で確実に判別することができる。
In this way, by applying a determination criterion combining the moving direction and the past state to the determination process of the
そして、判別部13によって得られた対象者Pの現在の状態を示す情報を、出力部14によって出力することにより、看護士や介助者など、対象者のケアを担当する人々に正確な情報を通知することができる。
Then, by outputting information indicating the current state of the subject P obtained by the discriminating
このように、本件開示の状態検知装置によれば、対象者Pの状態を高い精度で確実に検知することができる。そして、対象者Pの状態を正確な判別を可能としたことにより、対象者Pについて誤って異常な状態である旨を通知してしまうこと、すなわち、誤検知を低減することができる。つまり、本件開示の状態検知装置によれば、誤検知を低減することにより、対象者のケアを担当する人々を無用に煩わせる事態の発生を防ぐことができる。これにより、対象者のケアを担当する人々の作業負担を軽減することができる。 Thus, according to the state detection device of the present disclosure, the state of the subject P can be reliably detected with high accuracy. Then, by enabling accurate determination of the state of the subject person P, the fact that the subject person P is erroneously notified of an abnormal state, that is, false detection can be reduced. That is, according to the state detection device of the present disclosure, it is possible to prevent the occurrence of a situation in which people who are in charge of care of the subject are bothered unnecessarily by reducing erroneous detection. Thereby, the work burden of the people in charge of the care of the subject can be reduced.
また、図1に例示した状態検知装置10は、例えば、プロセッサとメモリとを含む小規模のコンピュータシステムを用いて実現可能である。また、図1に開示した状態検知装置10に画像を入力するカメラ2の撮像方向は、ベッド1の長手方向であるので、カメラ2は、例えば、ベッド1のヘッドボードや壁などに取り付けられる。このような場所に設置されたカメラ2は、対象者Pおよび看護士あるいは介助者の動作の邪魔になりにくい。しかも、このように設置されたカメラ2によれば、ベッド1上で対象者Pが移動する範囲を漏れなく撮像することが可能であるので、他のカメラの設置を必要としない。したがって、本件開示の状態検知装置10を導入するために、病室あるいは居室に新たに配置される機器は、小規模である。小規模のコンピュータシステムを用いて実現された状態検知装置10は、例えば、上述したカメラ2とともに、ベッド1のヘッドボード内への埋め込みが可能な程度に小型化することも可能である。
Further, the state detection apparatus 10 illustrated in FIG. 1 can be realized using, for example, a small computer system including a processor and a memory. Moreover, since the imaging direction of the
更に、ベッド1の長手方向を撮像方向とするカメラ2によって撮像された画像では、例えば、対象者Pが起き上がる動作と、対象者Pがベッド1の端に移動する動作とに応じて、対象者Pの像が明らかに異なる方向に移動する。このような画像に基づいて、画像処理部12は、対象者Pの様々な動作に対応して、明確に異なる移動方向を検出することができる。
Furthermore, in the image captured by the
また、上述した着床状態、起床状態、離床状態および不在状態間の状態遷移について状態遷移図を作成することもできる。そして、判別部13は、この状態遷移図に基づいて、判別処理を行ってもよい。
In addition, a state transition diagram can be created for the state transitions between the above-described landing state, wake-up state, leaving bed state, and absent state. And the discrimination |
図4に、対象者に関する状態遷移図の例を示す。図4に例示した状態遷移図では、着床状態、起床状態、離床状態および不在状態の4つの状態間で想定される遷移は、符号T1〜T7を付した矢印によって示されている。 In FIG. 4, the example of the state transition diagram regarding a subject is shown. In the state transition diagram illustrated in FIG. 4, transitions assumed among the four states of the landing state, the wake-up state, the leaving state, and the absent state are indicated by arrows with reference signs T <b> 1 to T <b> 7.
図4に符号T1を付して示した状態遷移T1は、対象者Pの状態が着床状態から起床状態に向かう遷移を示している。この状態遷移T1の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて上向きに検知領域R2内へ向かう移動方向が、画像処理部12によって検出されることである。
A state transition T1 denoted by reference numeral T1 in FIG. 4 indicates a transition in which the state of the subject P moves from the landing state to the rising state. The condition of this state transition T1 is that the
また、図4に符号T2を付して示した状態遷移T2は、対象者Pの状態が離床状態から起床状態に向かう遷移を示している。この状態遷移T2の条件は、この対象者Pの像について、検知領域R2の左端部あるいは右端部から中央部へ向かう移動方向が、画像処理部12によって検出されることである。
Moreover, the state transition T2 shown by attaching | subjecting the code | symbol T2 in FIG. 4 has shown the transition from which the state of the subject P goes from a leaving state to a rising state. The condition of this state transition T2 is that the moving direction from the left end or the right end of the detection region R2 toward the center of the image of the subject P is detected by the
一方、図4に符号T3を付して示した状態遷移T3は、対象者Pの状態が起床状態から着床状態に向かう遷移を示している。この状態遷移T3の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が、画像処理部12によって検出されることである。
On the other hand, the state transition T3 indicated by the reference numeral T3 in FIG. 4 indicates a transition in which the state of the subject P moves from the rising state to the landing state. The condition of the state transition T3 is that the
また、図4に符号T4を付して示した状態遷移T4は、対象者Pの状態が離床状態から着床状態に向かう遷移を示している。この状態遷移T4の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が、画像処理部12によって検出されることである。
Moreover, the state transition T4 shown by attaching | subjecting the code | symbol T4 in FIG. 4 has shown the transition which the state of the subject P heads from a leaving state to a landing state. The condition of this state transition T4 is that the
また、図4に符号T5を付して示した状態遷移T5は、対象者Pの状態が起床状態から離床状態に向かう遷移を示している。この状態遷移T5の条件は、この対象者Pの像について、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が、画像処理部12によって検出されることである。なお、対象者Pが離床する際に降りる側が限定されている場合には、離床が可能な側に対応する検知領域R2の範囲に向かう移動方向の検出を、状態遷移T5の条件とすることもできる。例えば、ベッド1の右側にサイドレールなどが設置されていれば、設置されていない左側に対応する検知領域R2の左端部に向かう移動方向の検出を、選択的に、状態遷移T5の条件とすることができる。
In addition, a state transition T5 indicated by a reference numeral T5 in FIG. 4 indicates a transition in which the state of the subject P is from the wake-up state to the leaving state. The condition for this state transition T5 is that the moving direction from the center of the detection region R2 toward the left end or the right end of the image of the subject P is detected by the
また、図4に符号T6を付して示した状態遷移T6は、対象者Pの状態が不在状態から離床状態に向かう遷移を示している。この状態遷移T6の条件は、この対象者Pの像について、検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向が、画像処理部12によって検出されることである。
Moreover, the state transition T6 shown by attaching | subjecting the code | symbol T6 in FIG. 4 has shown the transition which the state of the subject P goes from an absent state to a bed leaving state. The condition of this state transition T6 is that the moving direction from the outside of the detection region R2 toward the left end or the right end of the detection region R2 is detected by the
そして、図4に符号T7を付して示した状態遷移T7は、対象者Pの状態が離床状態から不在状態に向かう遷移を示している。この状態遷移T7の条件は、この対象者Pの像について、検知領域R2の左端部あるいは右端部から外部に向かう移動方向が、画像処理部12によって検出されることである。
And state transition T7 which attached | subjected code | symbol T7 in FIG. 4 has shown the transition which the state of the subject P goes to a absent state from a bed leaving state. The condition for this state transition T7 is that the
図4に例示した状態遷移図は、図3に例示した判断基準のセットと同等である。判別部13は、この状態遷移図に従って、過去の状態からの状態遷移に対応する条件に基づいて、対象者Pの現在の状態を判別する。
The state transition diagram illustrated in FIG. 4 is equivalent to the set of criteria illustrated in FIG. The
図4に例示した4つの状態のうち、起床状態および離床状態は、それぞれベッド1上の対象者Pの動作の分岐点に対応している。そして、起床状態を始点とする状態遷移T3,T5に対応する条件で示される移動方向は明確に異なる。同様に、離床状態を始点とする状態遷移T2,T7に対応する条件で示される移動方向も明確に異なる。
Among the four states illustrated in FIG. 4, the wake-up state and the leaving state correspond to the branch points of the operation of the subject P on the
したがって、判別部13は、過去の状態が対象者Pの動作の分岐点に相当する場合に、明確に異なる移動方向のどちらが画像処理部12によって検出されたかによって、過去の状態を始点とする状態遷移のどちらが発生したかを判別することができる。
Therefore, when the past state corresponds to a branch point of the motion of the subject P, the
例えば、対象者Pの過去の状態が起床状態のときに、画像処理部12により、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が検出された場合に、判別部13は、上述した状態遷移T5が発生したと判断する。この場合に、判別部13は、対象者Pの現在の状態として離床状態を判別する。一方、対象者Pの過去の状態が起床状態のときに、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が検出された場合に、判別部13は、上述した状態遷移T3が発生したと判断する。この場合に、判別部13は、対象者Pの現在の状態として着床状態を判別する。
For example, when the past state of the target person P is a wake-up state, when the
このようにして、判別部13は、状態遷移図を辿って対象者Pの現在の状態を判別する。このような判別部13は、過去の状態ごとに異なる基準として、当該過去の状態を始点とする状態遷移に対応する対象者Pの移動方向が検出されるか否かを用いる判別部の一例である。そして、このような判別部13は、過去の状態を始点とする少なくとも一つの状態遷移それぞれに対応する対象者Pの移動方向が検出されるか否かに基づいて、これらの状態遷移のどれが発生したかを確実に判断することができる。また、この判断結果に基づいて、判別部13は、対象者Pの現在の状態を確実に判別することができる。
In this way, the
次に、図1に例示した状態検知装置10により、どのようにして、ベッド1上の対象者Pの状態を見守り、看護士や介助者への通知を行うかについて説明する。
Next, how the state detection apparatus 10 illustrated in FIG. 1 observes the state of the subject P on the
図5に、状態検知装置の動作を表す流れ図を示す。 FIG. 5 is a flowchart showing the operation of the state detection device.
ステップ301で、判別部13に対して、対象者Pの初期状態を設定する処理と、通知処理部15に対して、通知対象の状態を設定する処理が行われる。ステップ301で設定された対象者Pの初期状態は、過去の状態として、判別部13の内部に保持される。また、通知対象の状態は、通知処理部15内部に保持される。
In step 301, a process for setting the initial state of the subject P is performed on the
次に、カメラ2によって画像が取得されるごとに(ステップ302)、画像処理部12は、対象者Pの像の検出を行う(ステップ303)。なお、画像処理部12は、カメラ2によって所定数のフレームの画像が撮像されるごとに1フレームの画像を受け取って、対象者Pの検出を行ってもよい。次いで、ステップ304で、画像処理部12は、対象者Pの像の検出が成功したか否かを判定する。
Next, every time an image is acquired by the camera 2 (step 302), the
新たに取得された画像の検知領域R2から対象者Pの像を検出した場合に(ステップ304の肯定判定)、画像処理部12は、更に、対象者Pの像の移動方向を検出する(ステップ305)。画像処理部12は、例えば、新たなフレームの画像と直前のフレームの画像との比較に基づいて、対象者Pの像の移動方向を検出してもよい。また、新たな画像とそれに先立って取得された複数の画像とに基づいて、対象者Pの像の移動方向を検出することもできる。
When the image of the subject person P is detected from the detection region R2 of the newly acquired image (affirmative determination in step 304), the
ステップ305で、画像処理部12により検出された移動方向は、判別部13に渡される。一方、ステップ304の否定判定の場合に、画像処理部12は、対象者Pの像の検出に失敗した旨を判別部13に通知する。
In
ステップ307で、判別部13は、画像処理部12から受け取った検出結果と判別部13の内部に保持された過去の状態と上述した状態遷移図とに基づいて、対象者Pの現在の状態を判別する。このとき、判別部13は、内部に保持された過去の状態を始点とする状態遷移の条件と、画像処理部12から受け取った検出結果とを照合することにより、その状態遷移が起こったか否かを判断することができる。例えば、過去の状態として着床状態が判別部13に保持されている場合に、判別部13は、画像処理部12から受け取った検出結果と、図4に示した状態遷移T1の条件とを照合する。そして、画像処理部12から状態遷移T1の条件と一致する移動方向を受け取っている場合に、判別部13は、対象者Pの現在の状態は起床状態であると判別する。一方、画像処理部12から受け取った移動方向と状態遷移T1の条件とが一致しない場合に、判別部13は、対象者Pの現在の状態は過去の状態と同じ着床状態であると判別する。
In
次いで、判別部13は、ステップ307で得られた現在の状態が過去の状態から変化しているか否かを判定する(ステップ308)。そして、判別部13は、状態変化があったと判定した場合に(ステップ308の肯定判定)、現在の状態を、出力部14の通知処理部15に通知する。
Next, the
通知処理部15は、判別部13から通知された対象者Pの現在の状態が、ステップ301で通知処理部15の内部に保持された通知対象の状態と一致するか否かを判定する(ステップ309)。対象者Pの現在の状態と、通知対象の状態とが一致しない場合に(ステップ309の否定判定)、通知処理部15は、対象者Pの現在の状態を通知する処理は行わない。そして、この場合に、判別部13は、以降の処理で過去の状態として用いるために、対象者Pの現在の状態を内部に保持する(ステップ310)。その後、処理は、ステップ302に戻って、新たに撮像された画像についての処理が開始される。
The
一方、判別部13から通知された対象者Pの現在の状態と、通知対象の状態とが一致する場合に(ステップ309の肯定判定)、通知処理部15は、対象者Pの現在の状態を示す情報を通知する処理を行う(ステップ311)。このとき、図1に例示した通知処理部15は、スピーカ16を介して予め通知処理部15の内部に設定されていた音声メッセージやアラーム音声などを出力する。なお、スピーカ16を介した音声出力を行う代わりに、通知処理部15は、ナースコールシステムなどの既存の通知システムを利用して、対象者Pの状態が通知対象の状態に移行した旨の通知を出力してもよい。
On the other hand, when the current state of the target person P notified from the
上述したようにして、本件開示の状態検知方法に従って、ベッド1上の対象者Pの現在の状態を判別し、この判別結果を出力することができる。なお、図5に示した流れ図において、ステップ302は、対象者Pを撮像して得られた画像を入力する手順の一例である。また、ステップ303〜ステップ306は、対象者Pの移動方向を検出する手順の一例である。そして、ステップ307およびステップ310は、対象者Pの現在の状態を判別する手順の一例である。また、ステップ308〜ステップ309およびステップ311は、対象者Pの現在の状態を示す情報を出力する手順の一例である。
As described above, according to the state detection method disclosed herein, the current state of the subject P on the
次に、本件開示の状態検知装置の様々な実施形態について説明する。 Next, various embodiments of the state detection device disclosed herein will be described.
図6に、本件開示の状態検知装置の別実施形態を示す。なお、図6に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 6 shows another embodiment of the state detection device disclosed herein. 6 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.
図6に示す状態検知装置20は、カメラインタフェース(IF:Interface)21と、ナースコールインタフェース(IF)23と、プロセッサ24と、メモリ25とを含んでいる。プロセッサ24と、カメラIF21と、ナースコールIF23と、メモリ25とは、バスを介して接続されている。また、カメラIF21は、カメラ2に接続されている。ナースコールIF23は、ナースコールシステム4に接続されている。
The
図6に示したメモリ25には、画像認識プログラム26と状態判別プログラム27と通知判定プログラム28とが格納されている。画像認識プログラム26を読み込んで、このプログラムに従って動作するプロセッサ24は、画像処理部12の別実施形態である。同様に、状態判別プログラム27を読み込んで、このプログラムに従って動作するプロセッサ24は、判別部13の別実施形態である。また、通知判定プログラム28を読み込んで、このプログラムに従って動作するプロセッサ24と通知IF23およびナースコールシステム4は、通知処理部15の別実施形態である。
In the
図6に示した照明部3は、例えば、近赤外領域の赤外光によって、ベッド1上の対象者Pを照明する。なお、図6において、照明部3によって照明される範囲を符号R3で示した。照明部3によって照明される範囲R3は、カメラ2の撮像範囲を含んでいることが望ましい。カメラ2は、照明部3による照明光の波長を含む範囲に感度を有する。照明制御部5は、カメラ2による撮像に同期して照明部3による照明光を点滅させる。例えば、照明制御部5は、カメラ2によって奇数フレームの撮像が行われる際に照明光を点灯させとし、偶数フレームの撮像が行われる際には消灯させるように、照明部3を制御する。このようにして、1フレームおきに近赤外領域の光によって照明された対象者Pの画像を取得することができる。このようにして取得された画像は、カメラIF21を介してプロセッサ24に渡される。
The
上述したようにして、1フレームおきに近赤外領域の光によって照明された対象者Pの画像を受け取るようにした状態検知装置20は、夜間に対象者Pの状態を検知する際に有用である。以下、照明光の点滅を利用して、対象者Pの像を検出する処理および検出した対象者Pの像に基づいて、対象者Pの移動方向を検出する処理について説明する。
As described above, the
図7に、対象者Pの像を検出する処理を説明する図を示す。また、図8に、対象者Pの像を検出する処理を表す流れ図を示す。また、図9に、対象者の移動方向を検出する処理を説明する図を示す。 FIG. 7 is a diagram illustrating processing for detecting an image of the subject P. FIG. 8 is a flowchart showing processing for detecting an image of the subject P. FIG. 9 is a diagram illustrating processing for detecting the moving direction of the subject person.
図7(A)に、照明部3による照明を点灯した状態でカメラ2によって撮像された画像の例を示す。また、図7(B)に、照明部3による照明を消灯した状態でカメラ2によって撮像された画像の例を示す。
FIG. 7A shows an example of an image captured by the
ベッド1上の対象者Pは、ベッド1などの周囲の物体に比べて、照明部3に近い位置にいる。このため、図7(A)の例では、対象者Pの像の輝度は、図7(B)の例と比べて高くなっている。一方、ベッド1などの周囲の物体と照明部3との距離は、照明部3と対象者Pとの距離に比べて大きい。このため、対象者Pの図7(A)の例と図7(B)の例との間での輝度の変化と比較して、これらの物体の像の明るさの変化は少ない。
The subject P on the
このため、照明を点灯して撮像した画像と照明を消灯して撮像した画像とを用いて作成した差分画像では、図7(C)に示すように、対象者Pの像は、それ以外の物体の像との明るさの差が強調されたものとなる。このような差分画像から、例えば、所定の閾値以上の明るさを持つ領域を抽出することにより、対象者Pの像を容易に抽出することができる。なお、図7(A)〜(C)においては、検知領域R2の境界を白線で示した。 For this reason, in the difference image created using the image captured with the illumination turned on and the image captured with the illumination turned off, as shown in FIG. The brightness difference from the object image is emphasized. From such a difference image, for example, by extracting a region having a brightness equal to or higher than a predetermined threshold, an image of the subject person P can be easily extracted. 7A to 7C, the boundary of the detection region R2 is indicated by a white line.
図8に示した流れ図は、画像認識プログラム26のうち、対象者Pの像を検出する処理にかかわる手順を示している。図8に示した各ステップは、画像認識プログラム26を読み込んだプロセッサ24によって実行される。
The flowchart shown in FIG. 8 shows a procedure related to processing for detecting an image of the subject P in the
ステップ321およびステップ322で、プロセッサ24は、カメラIF21を介して、照明を点灯した状態と消灯した状態でそれぞれ撮像された画像を取得する。次いで、プロセッサ24は、ステップ321,322で取得した2フレームの画像から、差分画像を生成する(ステップ323)。次に、プロセッサ24は、差分画像から明るさが所定の閾値以上である領域を抽出する(ステップ324)。
In step 321 and step 322, the
抽出した領域の面積が別の所定の閾値未満である場合に(ステップ325の否定判定)、プロセッサ24は、対象者Pの像の検出が失敗した旨を出力する(ステップ327)。この場合に、プロセッサ24は、状態判別プログラム27に基づいて、対象者Pの状態を判別する処理を開始する。
When the area of the extracted region is less than another predetermined threshold value (No determination at Step 325), the
一方、抽出した領域の面積が別の所定の閾値以上である場合に(ステップ325の肯定判定)、プロセッサ24は、対象者Pの像の検出が成功した旨を出力する(ステップ326)。この場合に、プロセッサ24は、対象者Pの移動方向を検出する処理を開始する。
On the other hand, when the area of the extracted region is equal to or larger than another predetermined threshold (Yes in Step 325), the
1フレームおきに照明された対象者Pの画像の入力を受ける場合に、状態検知装置20は、上述したステップ321からステップ327に示したように、対象者Pの像を簡略な処理によって検出することができる。
When receiving an image of the subject P illuminated every other frame, the
このようにして抽出された対象者Pの像について、次のような処理を行うことにより、対象者Pの移動方向を検出することができる。 The moving direction of the subject person P can be detected by performing the following process on the image of the subject person P extracted in this way.
図9(A),(C)は、ベッド1上で起き上がろうとしている際に、対象者Pがとりうる姿勢の例を表している。図9(B),(D)は、それぞれ、対象者Pが図9(A),(C)に示したような姿勢をとっているときに、カメラ2によって撮像される画像から生成される差分画像の例である。なお、図9(A)、(C)において矢印を付して示した範囲は、カメラ2の撮像範囲に含まれる検知領域R2の上下方向の範囲に対応する。また、図9(B),(D)の例では、対象者Pの像に網掛けを付して示した。
FIGS. 9A and 9C show examples of postures that the subject person P can take when trying to get up on the
図9(A)は、対象者Pが頭をわずかに持ち上げた姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図9(B)に示すように、検知領域R2内に、対象者Pの後頭部に対応する像の一部がわずかに含まれる。
FIG. 9A shows an example of a posture in which the subject P slightly lifts his head. At this time, the difference image obtained from the image captured by the
図9(C)は、対象者Pが半ば起き上がった姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図9(D)に示すように、検知領域R2内に、対象者Pの後頭部の像と、対象者Pの上半身に対応する像の一部が含まれる。
FIG. 9C is an example of a posture in which the subject P is halfway up. At this time, as shown in FIG. 9D, the difference image obtained from the image captured by the
そして、対象者Pの移動方向は、例えば、各差分画像において対象者Pの像として検出された部分の重心の移動から求めることができる。例えば、図9(B)、(D)に示した差分画像が順に得られた場合に、プロセッサ24は、次のようにして、対象者Pの移動方向を求めればよい。まず、プロセッサ24は、各差分画像に基づいて、対象者Pの像に相当する部分の重心位置を求める。そして、図9(B)に示した差分画像から求めた重心位置から、図9(D)に示した差分画像から求めた重心位置に向かう移動方向を検出すればよい。このようにして、プロセッサ24は、図9(B),(D)に示した差分画像に基づいて、検知領域R2の下側の境界から検知領域R2に入る移動方向を検出する。
The moving direction of the subject P can be obtained from, for example, the movement of the center of gravity of the portion detected as the image of the subject P in each difference image. For example, when the difference images shown in FIGS. 9B and 9D are obtained in order, the
なお、上述したように、近赤外領域の照明光を用いる場合には、対象者Pの毛髪が黒色である場合などに、対象者Pの後頭部が差分画像にはっきり現れないこともある。しかし、後頭部に対応する像が検出されない場合でも、対象者Pの上半身の一部がカメラ2の撮像範囲に入ったときに、対象者Pの上半身の像が差分画像に現れる。そして、対象者Pの上半身の像を含む差分画像について、上述したような処理を行うことにより、プロセッサ24は、上半身の一部に対応する像の重心位置の移動から、対象者Pの移動方向を検出することができる。また、プロセッサ24は、対象者Pの像の位置の変化を検出する方法であれば、どのような方法でも、対象者Pの移動方向を検出する処理に利用してよい。
As described above, when using illumination light in the near-infrared region, the back of the head of the subject P may not appear clearly in the difference image, for example, when the hair of the subject P is black. However, even when an image corresponding to the back of the head is not detected, when a part of the upper body of the subject P enters the imaging range of the
ところで、近赤外光は、人間の視覚では感知されにくい。しかも、図6に例示した照明部3およびカメラ2は、主として、対象者Pの背後から照明および撮像を行うので、対象者Pに監視されているという印象を持たせることなく、この対象者Pの状態を見守ることができる。
By the way, near-infrared light is difficult to be detected by human vision. In addition, since the
また、上述した差分画像を用いて対象者Pの像を検出する手法は、夜間の見守りのみならず、日中の見守りにおいても有用である。なぜなら、上述したようにして差分画像を生成する過程で、照明部3以外の光による物体の像はキャンセルされ、照明部3からの光による像だけを抜き出す事ができ、上述したような夜間の見守りの場合と同様の処理で対象者Pを抽出する事ができるからである。例えば、ベッド1の足元側を通る別の人物や仕切りのカーテンなどの対象者Pと紛らわしい物体の像は、差分画像を生成する過程で照明部3以外の光による像がキャンセルされ、かつ照明部3から距離が大きいため、照明部3の光による像は、対象者Pの像と容易に区別することができる明るさとなる。これにより、上述したような差分画像に基づいて対象者Pの像を検出する場合には、対象者P以外の人物の像の影響による誤検出を低減することができる。
Moreover, the method of detecting the image of the subject P using the above-described difference image is useful not only for nighttime watching but also for daytime watching. Because, in the process of generating the difference image as described above, the image of the object by the light other than the
なお、画像認識プログラム27は、例えば、上述した差分画像を用いて対象者Pの像を検出する手法と、可視光を用いて撮像された画像について被写体認識を行って対象者Pの像を検出する手法との両方を含むことも可能である。また、上述したカメラ2に代えて、遠赤外領域に感度を有するカメラを用いてもよい。この場合は、遠赤外線用のカメラを用いて取得した温度画像から、人間の体温に相当する温度の領域を抽出することによって、対象者Pの像を検出することができる。また、カメラ2の側で、上述したような差分画像を生成する処理を行ってもよい。この場合は、生成された差分画像が、カメラIF21を介してプロセッサ24に渡される。
The
次に、ベッド上の対象者Pを撮像して得られる画像から、更に、対象者Pの状態を判別する指標として有用な情報を抽出する方法について説明する。 Next, a method for extracting information useful as an index for determining the state of the subject P from an image obtained by imaging the subject P on the bed will be described.
図10に、対象者の体の向きを検出する処理を説明する図を示す。図10(A),(C)は、ベッド1上にいる対象者Pがとりうる姿勢の例を表している。図10(B),(D)は、それぞれ、対象者Pが図10(A),(C)に示した姿勢をとっているときに、カメラ2によって撮像される画像から生成される差分画像の例である。なお、図10(A)、(C)において矢印を付して示した範囲は、カメラ2の撮像範囲に含まれる検知領域R2の上下方向の範囲に対応する。また、図10(B),(D)の例では、対象者Pの像に網掛けを付して示した。
FIG. 10 is a diagram illustrating processing for detecting the orientation of the subject's body. 10A and 10C show examples of postures that the subject P on the
図10(A)は、対象者Pがベッド1上で起き上がった姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図10(B)に示すように、検知領域R2中央部に、対象者Pの後頭部と上半身の背面に対応する像が含まれている。
FIG. 10A is an example of a posture in which the subject P gets up on the
図10(C)は、対象者Pがベッド1の端に腰掛けている姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図10(D)に示すように、検知領域R2左側に、対象者Pの側頭部の像と、対象者Pの上半身の側面に対応する像の一部が含まれる。
FIG. 10C is an example of a posture in which the subject P is sitting on the end of the
図10(A)、(C)の比較から分かるように、対象者Pがベッド1上で起床しているときと、ベッド1の端に腰掛けているときとでは、体の向きが異なっている。そして、このような体の向きの違いは、図10(B),(D)に示す差分画像に含まれる対象者Pの上半身に対応する像の形状の違いとして反映されている。このような形状の違いは、例えば、上半身に対応する像の上下方向のサイズと左右方向のサイズの比によって表すことができる。なお、図10(B),(D)において、対象者Pの上半身に対応する像のうち、検知領域R2に含まれている部分の上下方向のサイズおよび左右方向のサイズを、それぞれ符号a、bで示す。
As can be seen from the comparison between FIGS. 10A and 10C, the orientation of the body is different when the subject P is getting up on the
したがって、例えば、以下に示す3つの処理をプロセッサ24が実行することにより、差分画像に含まれている対象者Pの像の形状に基づいて、対象者Pの体の向きを検出することができる。
Therefore, for example, when the
まず、プロセッサ24は、差分画像に含まれている対象者Pの像のうち、対象者Pの上半身に対応する部分について、上下方向および左右方向のサイズa,bを取得する。次いで、プロセッサ24は、例えば、上下方向のサイズaを左右方向のサイズbで除算して縦横比cを求める。次に、プロセッサ24は、この縦横比cと所定の閾値Thとを比較し、この比較結果に応じて、対象者Pの体の向きを判定する。例えば、縦横比cが所定の閾値Thよりも大きい場合に、プロセッサ24は、対象者Pはカメラ2に対して側面を向けていると判定することができる。この場合に、プロセッサ24は、対象者Pの体の向きは横向きであると判定する。逆に、縦横比cが所定の閾値Thよりも小さい場合に、プロセッサ24は、対象者Pはカメラ2に対して背中あるいは正面を向けている判定することができる。この場合に、プロセッサ24は、対象者Pの体の向きは正面であると判定する。なお、上述した閾値Thの値は、例えば、様々な対象者の正面向きの像について求めた縦横比と、様々な対象者の側面向きの像について求めた縦横比とに基づいて決定すればよい。また、上述したように、対象者Pの像の縦横比に基づいて、対象者の体の向きを判定する処理の対象は、上述した差分画像に限られない。例えば、プロセッサ24は、可視光を用いて撮像された画像から検出された対象者Pの像について、縦横比に基づいて対象者の体の向きを判定する処理を行うこともできる。
First, the
そして、上述したようにして得られた対象者Pの体の向きは、次のようにして、対象者Pの状態を判別する処理に利用することができる。 Then, the orientation of the body of the subject P obtained as described above can be used for processing for determining the state of the subject P as follows.
図10(A),(B)に示した例から分かるように、起床状態では、ベッド1上の対象者Pは正面向きである可能性が高い。したがって、起床状態に向かう状態遷移T1,T2を判定する条件に、対象者Pの体の向きが正面向きであることをアンド条件として追加することが望ましい。
As can be seen from the examples shown in FIGS. 10A and 10B, in the wake-up state, there is a high possibility that the subject P on the
一方、図10(C),(D)に示した例から分かるように、離床状態では、ベッド1上の対象者Pは横向きである可能性が高い。したがって、離床状態に向かう状態遷移T5,T6を判定する条件に、対象者Pの体の向きが横向きであることをアンド条件として追加することが望ましい。
On the other hand, as can be seen from the examples shown in FIGS. 10C and 10D, in the state of getting out of bed, there is a high possibility that the subject P on the
図11に、体の向きを考慮した遷移条件の例を示す。図11に示した遷移条件は、図4に示した状態遷移図の説明で示した遷移条件に、上述したアンド条件を追加したものである。 FIG. 11 shows an example of the transition condition considering the body direction. The transition condition shown in FIG. 11 is obtained by adding the AND condition described above to the transition condition shown in the description of the state transition diagram shown in FIG.
図6に例示したメモリ25に格納された状態判別プログラム27は、図11に示したように、一部の状態遷移について体の向きの判定結果を条件に含む遷移条件を含むことができる。そして、このような遷移条件を含む状態判別プログラム27に従って動作するプロセッサ24は、対象者Pが起床状態であることや、対象者Pが離床状態であることをより高い精度で判別することができる。
As shown in FIG. 11, the
更に、上述した判定処理で得られた対象者Pの体の向きを利用して、対象者Pの異常な移動を検出することも可能である。 Furthermore, it is also possible to detect an abnormal movement of the subject person P using the body direction of the subject person P obtained by the determination process described above.
例えば、対象者Pが起床状態から離床状態に向かう正常な過程では、次のような変化が観察される。画像に含まれる対象者Pの像が、検知領域R2の中央部から左端部あるいは右端部に移動するとともに、対象者Pの上半身に対応する像の縦横比が、正面向きに対応する値から横向きに対応する値に変化する。一方、次のような変化が検出された場合には、対象者Pの移動に異常があると推定することができる。例えば、縦横比が正面向きに対応する値を維持したまま、対象者Pの像が検知領域R2の外側へ向かって移動した場合には、対象者Pがベッド1から転落している可能性がある。
For example, the following changes are observed in the normal process in which the subject P moves from the rising state to the leaving state. The image of the subject P included in the image moves from the center of the detection region R2 to the left end or the right end, and the aspect ratio of the image corresponding to the upper body of the subject P is horizontal from the value corresponding to the front direction. It changes to the value corresponding to. On the other hand, when the following change is detected, it can be estimated that the movement of the subject P is abnormal. For example, when the image of the subject P moves toward the outside of the detection region R2 while maintaining the value corresponding to the frontal aspect ratio, the subject P may have fallen from the
状態判別プログラム27は、例えば、離床状態からの状態遷移の有無を判断する手順の中に、対象者Pの上半身に対応する像の縦横比の変化と対象者Pの像の移動方向との間の矛盾を検出する手順を含むことができる。そして、このような状態判別プログラム27を実行するプロセッサ24は、上述したような矛盾を検出したときに、離床状態から不在状態への正常な状態遷移T7とは異なる異常な状態の変化を検出する。また、このようにして異常な状態の変化を検出したときに、プロセッサ24は、ナースコールIF23を介して、より緊急度の高い警報をナースコールシステム4に通知する。
For example, the
ところで、本件開示の状態検知装置20は、図6に示した例のように、病室あるいは居室内に配置することもできるし、一部または全部をナースステーションなどに配置することもできる。
By the way, the
図12に、状態検知装置の別実施形態を示す。なお、図12に示した構成要素のうち、図6に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 12 shows another embodiment of the state detection device. Note that among the constituent elements shown in FIG. 12, those equivalent to the constituent elements shown in FIG. 6 are denoted by the same reference numerals, and description thereof is omitted.
図12に例示する状態検知装置は、病室あるいは居室に設置されるローカルユニット30と、ナースステーションに設置されるセンタユニット32とを含んでいる。ローカルユニット30は、図6に示したナースコールIF23に代えて、通知インタフェース(IF)31を有する。また、図6に示した通知判定プログラム28は、ローカルユニット30のメモリ25ではなく、センタユニット32のメモリ34に格納されている。
The state detection apparatus illustrated in FIG. 12 includes a
図12に例示したセンタユニット32は、上述した通知IF31に対応する通知インタフェース(IF)33と、メモリ34と、プロセッサ35と、ナースコールIF23と、データベースインタフェース(DBIF)36とを有する。プロセッサ35と、通知IF33と、メモリ34と、ナースコールIF23と、DBIF36とは、バスを介して互いに接続されている。センタユニット32のプロセッサ35は、ナースコールIF23を介してナースコールシステム4に接続されている。また、このプロセッサ35は、DBIF36を介して対象者情報データベース(DB)6に接続されている。
The
図12に例示した状態検知装置では、各病室に配置されたローカルユニット30からセンタユニット32に、各対象者Pの状態を含む情報が通知される。なお、図12に示したローカルユニット30に含まれる通知IF31は、対象者Pの現在の状態をセンタユニット32に通知する際に、ローカルユニット30の設置場所あるいは対象者Pの識別情報を付加する。以下では、通知IF31により、個々の対象者を識別する対象者IDとその対象者Pの状態を示す情報とがセンタユニット32に通知される場合について説明する。
In the state detection apparatus illustrated in FIG. 12, information including the state of each subject P is notified from the
また、対象者情報DB6は、各対象者について看護士あるいは介助者への通知が必要とされる状態を個別に設定する情報を含んでいる。また、メモリ34に格納される通知判定プログラムは、このような対象者対応の設定に基づいて、ナースコールシステム4への通知を行うか否かを判断する手順を含む。このような通知判定プログラムを読み込むことにより、プロセッサ35は、対象者対応の設定に基づいて、ナースコールシステム4への通知を制御することができる。
Further, the target person information DB 6 includes information for individually setting a state in which notification to the nurse or the assistant is required for each target person. Further, the notification determination program stored in the
図13に、対象者対応の設定に基づく通知判定処理の例を表す流れ図を示す。図13に例示した流れ図に含まれる各ステップは、ローカルユニット30から通知を受け取るごとに、上述した通知判定プログラムに基づいて、プロセッサ35によって実行される。
FIG. 13 is a flowchart illustrating an example of the notification determination process based on the target person corresponding setting. Each time the steps included in the flowchart illustrated in FIG. 13 are received from the
ステップ331で、プロセッサ35は、通知IF33を介してローカルユニット30から対象者IDと当該対象者の現在の状態を示す情報を受け取る。次いで、プロセッサ35は、対象者IDに基づいて、対象者情報DB6を参照することにより、対象者IDに対応して格納された通知対象の状態を取得する(ステップ332)。次に、プロセッサ35は、通知対象の状態とステップ331で受け取った現在の状態を照合する(ステップ333)。
In
通知対象の状態と現在の状態とが一致する場合に(ステップ334の肯定判定)、プロセッサ35は、ナースコールIF23を介してナースコールシステム4に、対象者IDで示された対象者の現在の状態が通知対象の状態であることを通知する(ステップ335)。その後、プロセッサ35は、ステップ331で受け取った通知についての処理を終了する。
When the notification target state matches the current state (Yes in step 334), the
一方、通知対象の状態と現在の状態とが一致しない場合に(ステップ334の否定判定)、プロセッサ35は、ナースコールシステム4への通知は行わずに、ステップ331で受け取った通知についての処理を終了する。
On the other hand, when the state to be notified does not match the current state (negative determination at step 334), the
このような処理を、センタユニット32のプロセッサ35が行うことにより、個々の対象者について異なる基準を適用して、ナースコールシステム4に対象者Pの状態を通知することができる。また、個々の対象者についての通知対象の状態は、対象者情報DB6に一括して格納されている。したがって、対象者情報DB6に格納された情報を操作することにより、対象者Pの状態を通知するか否かを判定する基準を、個々の対象者に対して必要とされるケアの内容に合わせて変更することが可能である。
Such processing is performed by the
また、対象者Pの現在の状態を判別する処理を、センタユニット32に分担することもできる。この場合に、状態判別プログラム27は、センタユニット32のメモリ34に格納される。また、ローカルユニット30のプロセッサ24は、画像認識プログラム26に基づく処理を行うことにより、対象者Pの移動方向と対象者Pの体の向きを検出する。そして、この対象者Pの移動方向と対象者Pの体の向きとを含む情報と対象者IDとが、通知IF31を介してセンタユニット32に通知される。状態判別プログラム27を読み込んだプロセッサ35は、通知IF33を介して受け取った対象者Pの移動方向および対象者Pの体の向きと過去の状態とに基づいて、対象者IDで示される対象者Pの現在の状態を判別する。
Further, the
同様にして、対象者Pの移動方向および体の向きを検出する処理を、センタユニット32に分担することもできる。この場合に、各ローカルユニット30は、カメラ2によって撮像された画像をセンタユニット32に伝送する。そして、センタユニット32のプロセッサ35によって、各対象者を撮像した画像についての画像認識処理と、対象者の現在の状態を判別する処理と、対象者の現在の状態を出力する処理とが、一括して処理される。
Similarly, the process of detecting the moving direction and the body direction of the subject person P can be shared by the
また、センタユニット32は、クラウドサービスを利用して実現することも可能である。
The
なお、本件開示の状態検知装置に入力される画像は、ベッドの長手方向と交差する方向から撮像した画像でもよい。また、他のセンサの出力などを、本件開示の状態検知装置の判断基準に追加的に取り込むこともできる。例えば、ベッドの端部分などに設置した感圧センサによる加重の検出を、起床状態から離床状態への状態遷移の条件に一つに加えてもよい。これにより、対象者の離床状態を更に高い確度で検知することができる。 In addition, the image input into the state detection apparatus of this indication may be the image imaged from the direction which cross | intersects the longitudinal direction of a bed. Moreover, the output of another sensor etc. can also be taken in into the judgment criteria of the state detection apparatus of this indication. For example, the detection of the weight by a pressure sensor installed at the end of the bed or the like may be added to the condition for the state transition from the rising state to the leaving state. Thereby, the subject's bed leaving state can be detected with higher accuracy.
以上、図1〜図13を用いて説明した実施形態に関して、更に、以下の各項を開示する。
(付記1) ベッド上の対象者を撮像した画像を解析することにより、前記対象者の移動方向を検出する画像処理部と、
前記画像処理部によって検出された移動方向と前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、
前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部と、
を備えたことを特徴とする状態検知装置。
(付記2) 付記1に記載の状態検知装置において、
前記過去の状態および前記現在の状態は、前記対象者が前記ベッド上に横たわっている着床状態と、前記対象者が前記ベッド上で上半身を起こしている起床状態と、前記対象者が前記ベッドの端の部分にいる離床状態と、前記対象者が前記ベッドから離れている不在状態とを含み、
前記判別部は、複数種類の前記過去の状態ごとに異なる基準を用いて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
(付記3) 付記1または付記2に記載の状態検知装置において、
前記画像処理部は、前記画像に含まれる前記対象者の像の形状に基づいて、前記対象者の体の向きを判定し、
前記判別部は、前記画像処理部で得られる前記移動方向および前記対象者の体の向きと前記過去の状態とに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
(付記4) 付記2に記載の状態検知装置において、
前記複数種類の前記過去の状態ごとに異なる基準は、当該過去の状態を始点とする状態遷移に対応する前記対象者の移動方向が検出されるか否かである
ことを特徴とする状態検知装置。
(付記5) 付記1乃至付記4のいずれか1に記載の状態検知装置において、
前記対象者を撮像した画像は、
前記対象者を、光軸を前記ベッドの長手方向に合わせて配置されたカメラによって撮像した画像である
ことを特徴とする状態検知装置。
(付記6) 付記1乃至付記4のいずれか1に記載の状態検知装置において、
前記対象者を撮像した画像は、
1フレームおきに近赤外領域の光によって照明された前記対象者を、光軸を前記ベッドの長手方向に合わせて配置されたカメラによって撮像した画像から生成した差分画像である
ことを特徴とする状態検知装置。
(付記7) ベッド上の対象者を撮像した画像の入力を受け、
前記画像を解析することにより、前記対象者の移動方向を検出し、
前記検出された移動方向と前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、
前記判別によって得られた前記対象者の現在の状態示す情報を出力する
ことを特徴とする状態検知方法。
As described above, the following items are further disclosed with respect to the embodiment described with reference to FIGS.
(Appendix 1) An image processing unit that detects a moving direction of the subject by analyzing an image of the subject on the bed;
A discriminating unit for discriminating the current state of the subject based on the moving direction detected by the image processing unit and the past state of the subject;
An output unit that outputs information indicating the current state of the subject obtained by the determination unit;
A state detection device comprising:
(Supplementary Note 2) In the state detection device described in
The past state and the current state are: a landing state where the subject lies on the bed; a wake-up state where the subject wakes up on the bed; and A bed leaving state at the end of the bed, and a absent state in which the subject is away from the bed,
The said discrimination | determination part discriminate | determines the present state of the said subject using the different reference | standard for every said multiple types of said past states. The state detection apparatus characterized by the above-mentioned.
(Supplementary Note 3) In the state detection device according to
The image processing unit determines the orientation of the subject's body based on the shape of the subject's image included in the image,
The determination unit determines a current state of the subject based on the moving direction obtained by the image processing unit, the orientation of the subject's body, and the past state. apparatus.
(Supplementary Note 4) In the state detection device described in
The reference different for each of the past states of the plurality of types is whether or not the moving direction of the subject corresponding to a state transition starting from the past state is detected. .
(Supplementary note 5) In the state detection device according to any one of
The image of the subject is
The state detection device, wherein the subject is an image obtained by capturing an image of the subject with a camera arranged with an optical axis aligned with a longitudinal direction of the bed.
(Appendix 6) In the state detection device according to any one of
The image of the subject is
It is a difference image generated from an image obtained by capturing the subject illuminated with light in the near-infrared region every other frame with a camera arranged with the optical axis aligned with the longitudinal direction of the bed. Condition detection device.
(Appendix 7) Receiving an image of the subject on the bed,
By detecting the moving direction of the subject by analyzing the image,
Based on the detected moving direction and the past state of the subject, determine the current state of the subject,
Outputting information indicating the current state of the subject obtained by the discrimination. A state detection method.
1…ベッド;2…カメラ;3…照明部;4…ナースコールシステム;5…照明制御部;6…対象者データベース(DB);10,20…状態検知装置;12…画像処理部;13…判別部;14…出力部;15…通知処理部;16…スピーカ;21…カメラインタフェース(IF);23…ナースコールインタフェース(IF);24,35…プロセッサ;25、34…メモリ;26…画像認識プログラム;27…状態判別プログラム;28…通知判定プログラム;30…ローカルユニット;31,33…通知インタフェース(IF);32…センタユニット;36…データベースインタフェース(DBIF)
DESCRIPTION OF
Claims (9)
前記画像処理部によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、
前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部と、
を備えたことを特徴とする状態検知装置。 Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , An image processing unit for detecting the orientation of the body ;
A determination unit that determines the current state of the subject based on the moving direction detected by the image processing unit, the orientation of the subject's body, and the past state of the subject;
An output unit that outputs information indicating the current state of the subject obtained by the determination unit;
A state detection device comprising:
前記画像処理部は更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
前記判別部は、前記画像処理部によって検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。 The state detection device according to claim 1,
The image processing unit further detects whether or not the moving direction of the subject is a direction outward from the bed,
The discriminating unit includes a moving direction indicating either a longitudinal direction or a lateral direction detected by the image processing unit, a moving direction indicating whether the direction is outward from the bed, and the subject. A state detection device that determines a current state of the subject based on a combination of a body orientation of the subject and a past state of the subject.
前記過去の状態および前記現在の状態は、前記対象者が前記ベッド上に横たわっている着床状態と、前記対象者が前記ベッド上で上半身を起こしている起床状態と、前記対象者が前記ベッドの端の部分にいる離床状態と、前記対象者が前記ベッドから離れている不在状態とを含み、
前記判別部は、前記複数種類の前記過去の状態ごとに異なる前記組み合わせを用いて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。 In the state detection device according to claim 1 or 2,
The past state and the current state are: a landing state where the subject lies on the bed; a wake-up state where the subject wakes up on the bed; and A bed leaving state at the end of the bed, and a absent state in which the subject is away from the bed,
The said discrimination | determination part discriminate | determines the present state of the said subject using the said different combination for every said multiple types of said past states. The state detection apparatus characterized by the above-mentioned.
前記画像処理部は、前記対象者の体の向きを、前記画像に含まれる前記対象者の像の形状に基づいて判定する
ことを特徴とする状態検知装置。 In the state detection device according to any one of claims 1 to 3,
Wherein the image processing unit, the orientation of the subject's body, the state detection device, wherein the determining based on the shape of the subject image contained in the image.
前記複数種類の過去の状態ごとに異なる前記組み合わせは、当該過去の状態を始点とする状態遷移に対応する前記対象者の移動方向が検出されるか否かである
ことを特徴とする状態検知装置。 In the state detection device according to claim 3,
The combination different for each of the plurality of types of past states is whether or not the moving direction of the subject corresponding to a state transition starting from the past state is detected. .
検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、
前記判別によって得られた前記対象者の現在の状態を示す情報を出力する
ことを特徴とする状態検知方法。 Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , Detect the direction of the body ,
Based on the detected moving direction, the direction of the subject's body, and the past state of the subject, determine the current state of the subject,
Outputting information indicating the current state of the subject obtained by the discrimination. A state detection method.
更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知方法。 In the state detection method of Claim 6,
Further, it is detected whether or not the moving direction of the subject is a direction toward the outside from the bed,
A detected moving direction indicating either the longitudinal direction or the lateral direction, a moving direction indicating whether the direction is from the bed or not, a direction of the subject's body, and the subject 's body A state detection method comprising: determining a current state of the target person based on a combination with a past state.
前記画像処理工程によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別工程と、
前記判別工程によって得られた前記対象者の現在の状態を示す情報を出力する出力工程と、
をコンピュータに実行させることを特徴とする状態検知プログラム。 Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , An image processing step for detecting the orientation of the body ;
A determination step of determining the current state of the subject based on the moving direction detected by the image processing step, the orientation of the subject's body, and the past state of the subject;
An output step of outputting information indicating the current state of the subject obtained by the determination step;
A state detection program for causing a computer to execute.
前記画像処理工程は更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
前記判別工程は、前記画像処理工程によって検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知プログラム。 In the state detection program according to claim 8,
The image processing step further detects whether or not the moving direction of the subject is a direction toward the outside from the bed,
The determining step includes a moving direction indicating either a longitudinal direction or a lateral direction detected by the image processing step, a moving direction indicating whether the direction is outward from the bed, and the subject. A state detection program for determining a current state of the subject based on a combination of a body orientation of the subject and a past state of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011032223A JP5782737B2 (en) | 2011-02-17 | 2011-02-17 | Status detection device, status detection method, and status detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011032223A JP5782737B2 (en) | 2011-02-17 | 2011-02-17 | Status detection device, status detection method, and status detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012170483A JP2012170483A (en) | 2012-09-10 |
JP5782737B2 true JP5782737B2 (en) | 2015-09-24 |
Family
ID=46973978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011032223A Active JP5782737B2 (en) | 2011-02-17 | 2011-02-17 | Status detection device, status detection method, and status detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5782737B2 (en) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5915199B2 (en) * | 2012-01-20 | 2016-05-11 | 富士通株式会社 | Status detection device and status detection method |
JP6171415B2 (en) * | 2013-03-06 | 2017-08-02 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JP6182917B2 (en) * | 2013-03-15 | 2017-08-23 | ノーリツプレシジョン株式会社 | Monitoring device |
JP6115335B2 (en) * | 2013-06-10 | 2017-04-19 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JP2015139550A (en) * | 2014-01-29 | 2015-08-03 | シャープ株式会社 | Bed-leaving determination device and bed-leaving determination method |
JP6264181B2 (en) * | 2014-05-07 | 2018-01-24 | 富士通株式会社 | Image processing apparatus, image processing method, and image processing program |
JP6340957B2 (en) * | 2014-07-02 | 2018-06-13 | 株式会社デンソー | Object detection apparatus and object detection program |
JP6454506B2 (en) * | 2014-09-19 | 2019-01-16 | アイホン株式会社 | Nurse call system |
JP2016120190A (en) * | 2014-12-25 | 2016-07-07 | アイホン株式会社 | Leaving bed detecting device |
JP2016120189A (en) * | 2014-12-25 | 2016-07-07 | アイホン株式会社 | Leaving bed detecting device |
JP6455234B2 (en) * | 2015-03-03 | 2019-01-23 | 富士通株式会社 | Action detection method and action detection apparatus |
JP2016202384A (en) * | 2015-04-17 | 2016-12-08 | 株式会社デンソー | Bed-leaving behavior detection device |
JP6856026B2 (en) * | 2015-10-06 | 2021-04-07 | コニカミノルタ株式会社 | Behavior detection system, behavior detection device, behavior detection method, and behavior detection program |
JP6590689B2 (en) * | 2015-12-25 | 2019-10-16 | キヤノン株式会社 | Inspection system, portable information terminal, and inspection method |
JP6292363B2 (en) * | 2016-02-24 | 2018-03-14 | コニカミノルタ株式会社 | Terminal device, terminal device display method, and monitored person monitoring system |
WO2018012432A1 (en) * | 2016-07-12 | 2018-01-18 | コニカミノルタ株式会社 | Behavior determination device and behavior determination method |
JP6804330B2 (en) * | 2017-02-27 | 2020-12-23 | アイホン株式会社 | Nurse call system |
JP6406371B2 (en) * | 2017-03-02 | 2018-10-17 | オムロン株式会社 | Watch support system and control method thereof |
JP6717235B2 (en) | 2017-03-02 | 2020-07-01 | オムロン株式会社 | Monitoring support system and control method thereof |
JP7180601B2 (en) * | 2017-08-10 | 2022-11-30 | コニカミノルタ株式会社 | SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM |
WO2019031012A1 (en) * | 2017-08-10 | 2019-02-14 | コニカミノルタ株式会社 | Action detection device and method therefor, and monitored person monitoring assist system |
WO2019031011A1 (en) * | 2017-08-10 | 2019-02-14 | コニカミノルタ株式会社 | Sleep state detection device and method therefor, and monitored person monitoring assist system |
JP6959898B2 (en) * | 2018-09-26 | 2021-11-05 | Kddi株式会社 | Information processing equipment, support methods, and support systems |
JP6620210B2 (en) * | 2018-11-07 | 2019-12-11 | アイホン株式会社 | Nurse call system |
CN111686378B (en) * | 2020-07-14 | 2023-02-17 | 上海联影医疗科技股份有限公司 | Bed body movement precision detection method, device, equipment and storage medium |
CN114333228B (en) * | 2020-09-30 | 2023-12-08 | 北京君正集成电路股份有限公司 | Intelligent video nursing method for infants |
WO2023042310A1 (en) * | 2021-09-15 | 2023-03-23 | 三菱電機株式会社 | Monitoring system and monitoring method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002345766A (en) * | 2001-03-19 | 2002-12-03 | Fuji Electric Co Ltd | Condition detector |
JP2007020844A (en) * | 2005-07-15 | 2007-02-01 | Nippon Telegr & Teleph Corp <Ntt> | Apparatus and method for detecting motion of leaving one's sickbed |
JP4579865B2 (en) * | 2006-06-05 | 2010-11-10 | 日本電信電話株式会社 | Rise detection device |
-
2011
- 2011-02-17 JP JP2011032223A patent/JP5782737B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012170483A (en) | 2012-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5782737B2 (en) | Status detection device, status detection method, and status detection program | |
JP6717235B2 (en) | Monitoring support system and control method thereof | |
WO2016143641A1 (en) | Posture detection device and posture detection method | |
US10121062B2 (en) | Device, system and method for automated detection of orientation and/or location of a person | |
JP6232165B2 (en) | Occupancy detection | |
JP6500785B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6297822B2 (en) | Detection device, detection system, and detection method | |
JP6417670B2 (en) | Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program | |
JP6780641B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP2013152669A (en) | Image monitoring device | |
CN106605238A (en) | Occupancy monitoring | |
US10509967B2 (en) | Occupancy detection | |
JP2011053005A (en) | Monitoring system | |
JP5812948B2 (en) | Patient recognition device | |
WO2018235628A1 (en) | Monitoring assistance system, control method therefor, and program | |
JPWO2017029841A1 (en) | Image analysis apparatus, image analysis method, and image analysis program | |
JP5870230B1 (en) | Watch device, watch method and watch program | |
CN110415486B (en) | Attitude determination method, electronic system and non-transitory computer readable recording medium | |
JP2018143285A (en) | Biological state determination apparatus, biological state determination system and biological state determination method | |
JP2016143071A (en) | Specific motion detection system | |
JP5982835B2 (en) | Detection apparatus, detection method, and detection program | |
JP2023051147A (en) | Nurse call system and state determination system | |
JP2023051149A (en) | Nurse call system and state determination system | |
WO2019013104A1 (en) | Monitoring assistance system and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5782737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |