JP5782737B2 - Status detection device, status detection method, and status detection program - Google Patents

Status detection device, status detection method, and status detection program Download PDF

Info

Publication number
JP5782737B2
JP5782737B2 JP2011032223A JP2011032223A JP5782737B2 JP 5782737 B2 JP5782737 B2 JP 5782737B2 JP 2011032223 A JP2011032223 A JP 2011032223A JP 2011032223 A JP2011032223 A JP 2011032223A JP 5782737 B2 JP5782737 B2 JP 5782737B2
Authority
JP
Japan
Prior art keywords
subject
state
image
bed
moving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011032223A
Other languages
Japanese (ja)
Other versions
JP2012170483A (en
Inventor
卓 片桐
卓 片桐
▲高▼島 知信
知信 ▲高▼島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011032223A priority Critical patent/JP5782737B2/en
Publication of JP2012170483A publication Critical patent/JP2012170483A/en
Application granted granted Critical
Publication of JP5782737B2 publication Critical patent/JP5782737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本件開示は、介護対象者の状態を検知する状態検知装置状態検知方法および状態検知プログラムに関する。 The present disclosure relates to a state detection device , a state detection method, and a state detection program that detect the state of a care recipient.

入院中の患者や介護施設などの入所者などがベッドから降りようとした際に、誤ってベッドから転落する事故が発生することがある。このような事故の発生を防ぐために、様々な転落防止技術が提案されている。   When a hospitalized patient or a resident of a care facility tries to get out of the bed, an accident may occur that falls accidentally from the bed. In order to prevent the occurrence of such an accident, various fall prevention techniques have been proposed.

転落防止技術の一つに、看護や介護を受ける対象者の状態を検知する技術がある。例えば、感圧センサおよび光学センサを含む複数のセンサによって、対象者の状態を検出し、検出した状態を通知する技術が提案されている(特許文献1参照)。また、対象者を撮影した映像を用いて対象者の状態を検知する技術も提案されている。例えば、予め設定された監視領域において、閾値以上の変化が検出されたときに、対象者の状態が検知される(特許文献2,3参照)。   One of the fall prevention techniques is a technique for detecting the condition of a subject who receives nursing or nursing care. For example, a technique has been proposed in which a subject's state is detected by a plurality of sensors including a pressure-sensitive sensor and an optical sensor, and the detected state is notified (see Patent Document 1). In addition, a technique for detecting the state of the subject using an image obtained by photographing the subject has been proposed. For example, the state of the subject is detected when a change equal to or greater than a threshold is detected in a preset monitoring area (see Patent Documents 2 and 3).

また、対象者を撮影した映像そのものを、看護士あるいは介助者が待機する場所に中継するようにした技術も提案されている(特許文献4参照)。   In addition, a technique has been proposed in which a video image of a subject is relayed to a place where a nurse or a caregiver waits (see Patent Document 4).

特開2001−327549号公報JP 2001-327549 A 特開2006−175082号公報JP 2006-175082 A 特開2005−128967号公報JP 2005-128967 A 特開2000−105885号公報JP 2000-105885 A

上述したような従来の検知技術では、カメラを含むセンサにより、ベッド上あるいはベッド付近にいる対象者の状態に異常が検出された場合に、看護士や介助者に検出結果が通知される。しかしながら、従来の技術では、対象者がベッド上で寝返りを打つなどの自然な動作も、対象者の異常な状態として誤検出してしまう場合があった。このような誤検出の頻繁な発生は、看護士や介助者を煩わせてしまい、介護の妨げとなるおそれがある。このため、対象者の異常な状態が誤って検出される頻度を低減することが、状態検知装置および状態検知方法の課題となっている。   In the conventional detection technique as described above, when an abnormality is detected in the state of a subject on or near the bed by a sensor including a camera, a detection result is notified to a nurse or an assistant. However, in the conventional technology, there are cases where a natural motion such as the subject turning over on the bed is erroneously detected as an abnormal state of the subject. Such frequent occurrence of erroneous detection may bother nurses and caregivers and hinder care. For this reason, reducing the frequency with which an abnormal state of the subject is erroneously detected is a problem of the state detection device and the state detection method.

また、対象者の状態を見守るためとはいえ、多数の機材を病室や居室に持ち込むと、介護の妨げとなるおそれもある。このため、対象者の状態を検知するための装置は、できるだけ少ない機材で実現されることが望ましい。   Moreover, although it is for watching the state of the subject person, if a large number of equipment is brought into a hospital room or living room, there is a risk that nursing may be hindered. For this reason, it is desirable that an apparatus for detecting the state of the subject be realized with as few equipment as possible.

本件開示の装置方法およびプログラムは、簡易な構成により、対象者の状態を高い精度で検知可能な状態検知装置状態検知方法および状態検知プログラムを提供することを目的とする。 Apparatus of the present disclosure, methods and programs, with a simple configuration, capable of detecting state detection device the condition of the subject with high precision, and to provide a state detection method and a state detection program.

一つの観点による状態検知装置は、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理部と、前記画像処理部によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部とを有する。 A state detection device according to one aspect analyzes a plurality of images captured by an imaging device including a bed in an imaging range, and a moving direction of a subject included in the image is a longitudinal direction of the bed or a lateral direction An image processing unit that detects the orientation of the subject's body, a moving direction detected by the image processing unit, the orientation of the subject's body, and the past state of the subject And a determination unit that determines the current state of the subject and an output unit that outputs information indicating the current state of the subject obtained by the determination unit.

また別の観点による状態検知方法は、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出し、検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、前記判別によって得られた前記対象者の現在の状態を示す情報を出力する。
更に別の観点による状態検知プログラムは、ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理工程と、前記画像処理工程によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別工程と、前記判別工程によって得られた前記対象者の現在の状態を示す情報を出力する出力工程とをコンピュータに実行させる。
According to another aspect of the state detection method, a plurality of images captured by an imaging device including a bed in an imaging range are analyzed, and a moving direction of a target person included in the image is a longitudinal direction of the bed or a horizontal direction. And the direction of the subject's body, and based on the detected moving direction, the orientation of the subject's body, and the past state of the subject, A current state is determined, and information indicating the current state of the subject obtained by the determination is output.
Further, a state detection program according to another aspect analyzes a plurality of images captured by an imaging device including a bed in an imaging range, and the moving direction of the subject included in the image is the longitudinal direction of the bed or the horizontal direction. An image processing step for detecting whether the direction of the subject, the orientation of the subject's body, the moving direction detected by the image processing step, the orientation of the subject's body, and the past state of the subject Based on the above, the computer is caused to execute a determination step of determining the current state of the subject and an output step of outputting information indicating the current state of the subject obtained by the determination step.

本件開示の装置方法およびプログラムによれば、簡易な構成により、対象者の状態を高い精度で検知することができる。 According to the apparatus , method, and program of the present disclosure , the state of the subject can be detected with high accuracy by a simple configuration.

状態検知装置の一実施形態を示す図である。It is a figure which shows one Embodiment of a state detection apparatus. 対象者Pの状態と対象者Pの像の移動方向との関係を説明する図である。It is a figure explaining the relationship between the state of the subject person P and the moving direction of the subject's P image. 過去の状態ごとの判断基準の例を示す図である。It is a figure which shows the example of the judgment reference | standard for every past state. 検知対象の人物に関する状態遷移図の例を示す図である。It is a figure which shows the example of the state transition diagram regarding the person of a detection target. 状態検知装置の動作を表す流れ図である。It is a flowchart showing operation | movement of a state detection apparatus. 状態検知装置の別実施形態を示す図である。It is a figure which shows another embodiment of a state detection apparatus. 人物の像を検出する処理を説明する図である。It is a figure explaining the process which detects the image of a person. 人物の像を検出する処理を表す流れ図である。It is a flowchart showing the process which detects the image of a person. 人物の移動方向を検出する処理を説明する図である。It is a figure explaining the process which detects the moving direction of a person. 体の向きを検出する処理を説明する図である。It is a figure explaining the process which detects direction of a body. 体の向きを考慮した遷移条件の例を示す図である。It is a figure which shows the example of the transition conditions which considered the direction of the body. 状態検知装置の別実施形態を示す図である。It is a figure which shows another embodiment of a state detection apparatus. 対象者対応の設定に基づく通知判定処理の例を表す流れ図である。It is a flowchart showing the example of the notification determination process based on setting corresponding to a subject.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に、状態検知装置の一実施形態を示す。図1に例示した状態検知装置10は、画像処理部12と、判別部13と、出力部14とを含んでいる。図1に例示した出力部14は、通知処理部15とスピーカ16とを含んでいる。   FIG. 1 shows an embodiment of a state detection device. The state detection device 10 illustrated in FIG. 1 includes an image processing unit 12, a determination unit 13, and an output unit 14. The output unit 14 illustrated in FIG. 1 includes a notification processing unit 15 and a speaker 16.

状態検知装置10は、例えば、状態検知の対象者Pが起居するベッド1に近接して配置されてもよい。状態検知装置10の画像処理部12には、カメラ2によって撮像された画像が入力される。なお、状態検知装置10は、カメラ2およびベッド1から離れた場所に設置されてもよい。   For example, the state detection device 10 may be disposed close to the bed 1 where the state detection target person P stands. An image captured by the camera 2 is input to the image processing unit 12 of the state detection device 10. Note that the state detection device 10 may be installed in a place away from the camera 2 and the bed 1.

カメラ2は、図1に示すように、撮像のための光学系の光軸がベッド1の長手方向に一致するように配置することが望ましい。この場合に、カメラ2の撮像方向は、図1に符号Drで示すようになり、カメラ2は、ベッド1上の対象者を主に背後から撮像する。そして、このように配置されたカメラ2の撮像範囲R1は、ベッド1の対象者Pがベッド1上で起居する際の動作で移動する範囲とほぼ一致させることができる。なお、対象者Pがベッド1上で起居する際の動作には、この対象者Pが、ベッド1上で起き上がる動作や、ベッド1の端に移動する動作が含まれる。   As shown in FIG. 1, the camera 2 is desirably arranged so that the optical axis of the optical system for imaging coincides with the longitudinal direction of the bed 1. In this case, the imaging direction of the camera 2 is as indicated by the symbol Dr in FIG. 1, and the camera 2 images the subject on the bed 1 mainly from behind. And the imaging range R1 of the camera 2 arrange | positioned in this way can be made to correspond substantially with the range which the subject P of the bed 1 moves by the operation | movement at the time of standing on the bed 1. FIG. The operation when the subject person P stands on the bed 1 includes an action of the subject person P getting up on the bed 1 and an action of moving to the end of the bed 1.

カメラ2は、例えば、所定のフレームレートで上述した撮像範囲R1についての撮像を行う。撮像された各フレームの画像は、画像処理部12に順次に送られる。画像処理部12は、各フレームの画像の全てまたは一部に基づいて、上述した対象者Pの像の移動方向を検出する。画像処理部12は、例えば、次のようにして対象者Pの移動方向を検出する。   For example, the camera 2 performs imaging for the imaging range R1 described above at a predetermined frame rate. The captured image of each frame is sequentially sent to the image processing unit 12. The image processing unit 12 detects the moving direction of the image of the subject P described above based on all or part of the image of each frame. For example, the image processing unit 12 detects the moving direction of the subject P as follows.

まず、画像処理部12は、個々の画像から、対象者Pの像を検出する。対象者Pの像の検出には、例えば、輪郭抽出技術や被写体認識技術など、様々な公知技術が適用される。次に、画像処理部12は、画像から検出された対象者Pの像の位置を比較することにより、対象者Pの移動方向を検出する。   First, the image processing unit 12 detects an image of the subject P from each image. For detecting the image of the subject P, various known techniques such as a contour extraction technique and a subject recognition technique are applied. Next, the image processing unit 12 detects the moving direction of the subject person P by comparing the positions of the images of the subject person P detected from the images.

画像処理部12によって、各画像について検出された対象者Pの移動方向は、判別部13に渡される。なお、画像処理部12は、対象者Pの像が検出されなかった画像については、例えば、対象者Pが撮像範囲に捉えられていない旨を判別部13に通知する。   The moving direction of the subject P detected for each image by the image processing unit 12 is passed to the determination unit 13. Note that the image processing unit 12 notifies the determination unit 13 that, for example, the image of the subject P is not detected, the subject P is not captured in the imaging range.

判別部13は、新たな画像に対応して通知された移動方向と、対象者Pの過去の状態とに基づいて、対象者Pの現在の状態を判別する。判別部13による対象者Pの現在の状態を判別する処理については後述する。   The determination unit 13 determines the current state of the target person P based on the movement direction notified corresponding to the new image and the past state of the target person P. Processing for determining the current state of the subject P by the determination unit 13 will be described later.

判別部13によって判別された対象者Pの現在の状態を示す情報は、出力部14に含まれる通知処理部15に渡される。通知処理部15は、受け取った情報で示される状態が通知対象の状態であるか否かを判定する。通知対象の状態は、予め、通知処理部15に設定しておくことができる。そして、対象者Pの現在の状態が通知対象の状態と一致したときに、通知処理部15は、例えば、スピーカ16を介して音声メッセージあるいはアラーム音声を出力することにより、看護士あるいは介助者に対象者Pの状態を通知する。   Information indicating the current state of the subject P determined by the determination unit 13 is passed to the notification processing unit 15 included in the output unit 14. The notification processing unit 15 determines whether the state indicated by the received information is a notification target state. The notification target state can be set in the notification processing unit 15 in advance. When the current state of the target person P matches the state to be notified, the notification processing unit 15 outputs a voice message or an alarm sound through the speaker 16, for example, to the nurse or caregiver. The state of the target person P is notified.

次に、判別部13が、対象者Pの現在の状態を判別する処理について説明する。以下に説明する例では、判別部13は、対象者Pのベッド1上での姿勢あるいは対象者Pとベッド1との位置から、対象者Pの状態を複数種類に区別して判別する。   Next, a process in which the determination unit 13 determines the current state of the target person P will be described. In the example described below, the determination unit 13 determines and distinguishes the state of the target person P into a plurality of types based on the posture of the target person P on the bed 1 or the position of the target person P and the bed 1.

対象者Pの状態は、例えば、着床状態、起床状態、離床状態および不在状態のいずれかである。着床状態は、対象者Pがベッド1上に横になっている状態である。また、起床状態は、対象者Pがベッド1上で起き上がっている状態である。離床状態は、対象者Pがベッド1の端部にいる状態である。離床状態は、対象者Pがベッド1の端に腰掛けている状態、ベッド1にサイドレールが設置されている場合はこれを跨いでいる状態、およびベッド1の脇に立っている状態を含む。不在状態は、対象者Pがベッド1から離れている状態である。これらの4つの状態は、ベッド1上の対象者Pの動作の始点あるいは分岐点に対応している。したがって、これらの状態は、対象者Pを見守る上で、看護士あるいは介助者に通知する状態として適している。   The state of the subject P is, for example, any of a landing state, a wake-up state, a leaving state, and an absent state. The landing state is a state in which the subject P is lying on the bed 1. In addition, the wake-up state is a state in which the subject P is standing on the bed 1. The bed leaving state is a state in which the subject P is at the end of the bed 1. The bed leaving state includes a state in which the subject P is sitting on the end of the bed 1, a state in which a side rail is installed on the bed 1, and a state in which the subject P stands on the side of the bed 1. The absence state is a state in which the subject P is away from the bed 1. These four states correspond to the start point or branch point of the motion of the subject P on the bed 1. Therefore, these states are suitable for notifying the nurse or the caregiver when watching the subject P.

図2に、対象者Pの状態と対象者Pの像の移動方向との関係を説明する図を示す。図2(A),(C),(E)は、図1を用いて説明したカメラ2による撮像で得られた画像の例である。また、図2(B),(D),(F)は、図2(A),(C),(E)に示した各画像が撮像された際に対象者Pがとっている姿勢の例である。なお、図2(B),(D),(F)において、カメラ2の撮像方向は符号Drで示される。   In FIG. 2, the figure explaining the relationship between the state of the subject P and the moving direction of the subject P's image is shown. 2A, 2C, and 2E are examples of images obtained by imaging with the camera 2 described with reference to FIG. 2 (B), (D), and (F) are postures of the subject P when the images shown in FIGS. 2 (A), (C), and (E) are captured. It is an example. In FIGS. 2B, 2D, and 2F, the imaging direction of the camera 2 is indicated by a symbol Dr.

図2(A),(C),(E)に示した例では、撮像範囲R1の内側に検知領域R2が設けられている。図2(A),(C),(E)の例では、検知領域R2は、太い実線で囲まれた台形の領域である。そして、この検知領域R2は、図2において点線で示した境界線BL,BRにより、3つの領域に分けられている。以下の説明では、検知領域R2のうち、境界線BLと境界線BRとに挟まれた矩形の領域を中央部と称する。また、検知領域R2のうち、境界線BLよりも左側の領域を左端部、境界線BRよりも右側の領域を右端部とそれぞれ称する。   In the example shown in FIGS. 2A, 2C, and 2E, the detection region R2 is provided inside the imaging range R1. In the examples of FIGS. 2A, 2C, and 2E, the detection region R2 is a trapezoidal region surrounded by a thick solid line. The detection region R2 is divided into three regions by boundary lines BL and BR indicated by dotted lines in FIG. In the following description, a rectangular area sandwiched between the boundary line BL and the boundary line BR in the detection area R2 is referred to as a central portion. In the detection region R2, a region on the left side of the boundary line BL is referred to as a left end portion, and a region on the right side of the boundary line BR is referred to as a right end portion.

図2(B)は、対象者Pが着床状態である例を示している。着床状態では、図2(A)に示したように、対象者Pの像は撮像範囲R1の中には現れない。なお、対象者Pの像を含まない画像は、対象者Pが不在状態である場合にも、カメラ2によって取得される。したがって、図2(A)に示したように、対象者Pの像が含まれない画像が得られた場合に推定される対象者Pの状態は、着床状態と不在状態とのいずれかである。   FIG. 2B shows an example in which the subject P is in the landing state. In the landing state, as shown in FIG. 2A, the image of the subject P does not appear in the imaging range R1. An image that does not include an image of the subject person P is acquired by the camera 2 even when the subject person P is absent. Therefore, as shown in FIG. 2 (A), the state of the subject P estimated when the image not including the image of the subject P is obtained is either the landing state or the absence state. is there.

一方、図2(D)は、対象者Pがベッド1上で起き上がろうとしている場面を表している。図2(D)に示す矢印は、ベッド1上の対象者Pの移動方向を示している。このとき、図2(C)に示したように、対象者Pの像は検知領域R2の中央部に含まれている。そして、画像処理部12は、対象者Pが起き上がろうとしている過程で撮像された画像から、図2(C)の符号V1に示すように、画面の下から上に向かう移動方向を検出する。   On the other hand, FIG. 2D shows a scene in which the subject P is about to get up on the bed 1. An arrow shown in FIG. 2D indicates the moving direction of the subject P on the bed 1. At this time, as shown in FIG. 2C, the image of the subject P is included in the center of the detection region R2. Then, the image processing unit 12 detects a moving direction from the bottom to the top of the screen, as indicated by reference numeral V1 in FIG. 2C, from an image captured while the subject person P is about to get up.

また、図2(F)は、対象者Pがベッド1の端に腰掛けた状態から立ち上がろうとしている場面を表している。このとき、図2(E)に示したように、対象者Pの像は、検知領域R2の左側の領域に含まれている。ここで、ベッド1上に起き上がっていた対象者Pがベッドの端に腰掛けた状態に移行するまでの間に、対象者Pの像は、検知領域R2の中央部分からベッド1の端に対応する左端部に移動する。また、ベッド1に腰掛けた状態から対象者Pが立ち上がろうとする際には、対象者Pは、体を前に傾ける動作を行う場合が多い。したがって、図2(E)に示した画像の前後に撮像された画像から、画像処理部12は、図2(E)の符号V2に示すように、画面の右から左へ向かう移動方向を検出する。   FIG. 2F shows a scene in which the subject P is about to stand up from a state where he is sitting on the end of the bed 1. At this time, as shown in FIG. 2E, the image of the subject P is included in the left region of the detection region R2. Here, the image of the subject P corresponds to the end of the bed 1 from the central portion of the detection region R2 until the subject P who has been standing on the bed 1 shifts to the state of sitting on the end of the bed. Move to the left edge. Further, when the subject person P tries to stand up from the state of sitting on the bed 1, the subject person P often performs an operation of tilting the body forward. Therefore, from the images taken before and after the image shown in FIG. 2 (E), the image processing unit 12 detects the moving direction from the right to the left of the screen as indicated by reference numeral V2 in FIG. 2 (E). To do.

図2に示した例から分かるように、対象者Pがベッド1上で姿勢を変えていく過程と、対象者Pとベッド1との位置関係が変化する過程は、互いに関連している。つまり、着床状態の対象者Pが不在状態になる過程や、逆に、不在状態だった対象者Pが着床状態になるまでの過程は、いくつかの途中の状態を経由する状態遷移として捉えることができる。   As can be seen from the example shown in FIG. 2, the process of changing the posture of the subject P on the bed 1 and the process of changing the positional relationship between the subject P and the bed 1 are related to each other. In other words, the process in which the target person P in the landing state becomes absent, or conversely, the process in which the target person P who has been in the absence state becomes in the landing state is a state transition through some intermediate states. Can be caught.

そして、例えば、対象者Pの状態が着床状態から起床状態に遷移する間に、画像処理部12は、図2(C)に示したように、検知領域R2内で対象者Pの像について上のほうへ向かう移動方向V1を検出する。逆に、対象者Pの状態が起床状態から着床状態に遷移する間に、画像処理部12は、図2(C)の例とは逆に、対象者Pの像について、検知領域R2の内部から検知領域R2の下側の境界を越えて検知領域R2の外部へ向かう移動方向を検出する。また、対象者Pの状態が起床状態から離床状態に遷移する間に、画像処理部12は、図2(E)に示したように、対象者Pの像について、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向V2を検出する。逆に、対象者Pの状態が離床状態から起床状態に遷移する間に、画像処理部12は、図2(E)の例とは逆に、対象者Pの像について、検知領域R2の左端部あるいは右端部から中央部に向かう移動方向を検出する。一方、対象者Pの状態が離床状態から不在状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の左端部あるいは右端部から検知領域R2の対応する側の境界を超えて検知領域R2の外部に向かう移動方向を検出する。そして、対象者Pの状態が不在状態から離床状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向を検出する。なお、対象者Pがベッド1の端に腰掛けた位置の付近で横になる場合もある。このように、対象者Pの状態が離床状態から着床状態に遷移する間に、画像処理部12は、対象者Pの像について、検知領域R2の左端部あるいは右端部から検知領域R2の下側の境界を越えて検知領域R2の外部に向かう移動方向を検出する。   Then, for example, while the state of the subject person P transitions from the landing state to the wake-up state, the image processing unit 12 displays the image of the subject person P in the detection region R2 as shown in FIG. A moving direction V1 directed upward is detected. Conversely, while the state of the subject P transitions from the wake-up state to the landing state, the image processing unit 12 reverses the detection region R2 for the image of the subject P, contrary to the example of FIG. The moving direction from the inside to the outside of the detection region R2 across the lower boundary of the detection region R2 is detected. In addition, while the state of the subject person P transitions from the wake-up state to the leaving state, the image processing unit 12 performs the image of the subject person P from the center of the detection region R2 as shown in FIG. A moving direction V2 toward the left end or the right end is detected. Conversely, while the state of the subject person P transitions from the leaving state to the rising state, the image processing unit 12 reverses the left end of the detection region R2 for the image of the subject person P, contrary to the example of FIG. Direction of movement from the center or right end to the center. On the other hand, during the transition of the state of the subject P from the bed leaving state to the absent state, the image processing unit 12 performs the image of the subject P from the left end or the right end of the detection region R2 on the corresponding side of the detection region R2. A moving direction toward the outside of the detection region R2 beyond the boundary is detected. Then, while the state of the subject P transitions from the absence state to the bed leaving state, the image processing unit 12 moves the image of the subject P from the outside of the detection region R2 toward the left end or the right end of the detection region R2. Detect direction. In some cases, the subject P may lie near the position where the subject P sits on the end of the bed 1. As described above, while the state of the subject person P transitions from the bed leaving state to the landing state, the image processing unit 12 detects the image of the subject person P from the left end portion or the right end portion of the detection region R2 below the detection region R2. The moving direction toward the outside of the detection region R2 across the side boundary is detected.

このように、上述した4つの状態間の状態遷移と、画像処理部12が検出する対象者Pの移動方向には相関関係がある。したがって、対象者Pの現在の状態は、対象者Pについて既に特定されている過去の状態と対象者Pの像の移動方向との組み合わせに基づいて一意に特定可能である。   Thus, there is a correlation between the above-described state transition between the four states and the moving direction of the target person P detected by the image processing unit 12. Accordingly, the current state of the subject person P can be uniquely identified based on the combination of the past state already identified for the subject person P and the moving direction of the image of the subject person P.

判別部13は、上述した相関関係を利用して、対象者Pの過去の状態と新たに検出された移動方向との組み合わせに基づいて、対象者Pの現在の状態を判別する。過去の状態と対象者Pの移動方向とを組み合わせた判断基準のセットは、例えば、各状態について、判別部13内に予め設定しておくことができる。   The determination unit 13 determines the current state of the target person P based on the combination of the past state of the target person P and the newly detected moving direction using the above-described correlation. For example, a set of determination criteria combining the past state and the moving direction of the subject person P can be set in advance in the determination unit 13 for each state.

図3に、過去の状態ごとの判断基準の例を示す。図3に示した判断基準は、上述した状態遷移と検出される移動方向との対応関係を表にまとめたものである。   FIG. 3 shows an example of judgment criteria for each past state. The determination criteria shown in FIG. 3 summarize the correspondence between the above-described state transition and the detected moving direction in a table.

図3に示した例では、対象者Pの現在の状態として起床状態を判別する判断基準は2通りである。1つは、「過去の状態が着床状態である」ことと「検知領域R2の下側の境界を越えて上向きに検知領域R2内へ向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が離床状態である」ことと「検知領域R2の左端部あるいは右端部から検知領域R2の中央部へ向かう移動方向が検出された」ことの組み合わせである。   In the example illustrated in FIG. 3, there are two criteria for determining the wake-up state as the current state of the subject P. One is a combination of “the past state is a landing state” and “the moving direction toward the detection region R2 upward beyond the lower boundary of the detection region R2 has been detected”. The other is a combination of “the past state is a bed leaving state” and “the movement direction from the left or right end of the detection region R2 toward the center of the detection region R2 is detected”.

同様に、図3に示した例では、対象者Pの現在の状態として着床状態を判別する判断基準も2通りである。1つは、「過去の状態が起床状態である」ことと「検知領域R2の下側の境界を越えて下向きに検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が離床状態である」ことと「検知領域R2の下側の境界を越えて下向きに検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。   Similarly, in the example illustrated in FIG. 3, there are also two criteria for determining the landing state as the current state of the subject P. One is a combination of “the past state is a wake-up state” and “the movement direction toward the outside of the detection region R2 is detected downward beyond the lower boundary of the detection region R2”. The other is a combination of “the past state is a bed leaving state” and “the moving direction toward the outside of the detection region R2 is detected downward beyond the lower boundary of the detection region R2”. .

また、図3に示した例では、対象者Pの現在の状態として離床状態を判別する判断基準も2通りである。1つは、「過去の状態が起床状態である」ことと「検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が検出された」ことの組み合わせである。もう一つは、「過去の状態が不在状態である」ことと「検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向が検出された」ことの組み合わせである。   In the example shown in FIG. 3, there are two criteria for determining the bed leaving state as the current state of the subject person P. One is a combination of “the past state is a wake-up state” and “the moving direction from the central portion of the detection region R2 toward the left end portion or the right end portion is detected”. The other is a combination of “the past state is absent” and “the movement direction from the outside of the detection region R2 toward the left end or the right end of the detection region R2 is detected”.

一方、図3に示した例では、対象者Pの現在の状態として不在状態を判別する判断基準は、「過去の状態が離床状態である」ことと「検知領域R2の左端部あるいは右端部から検知領域R2の外部へ向かう移動方向が検出された」ことの組み合わせである。   On the other hand, in the example shown in FIG. 3, the determination criteria for determining the absence state as the current state of the subject P are “the past state is a bed leaving state” and “from the left end portion or the right end portion of the detection region R2. This is a combination that “the moving direction toward the outside of the detection region R2 has been detected”.

判別部13の判別処理に、過去の状態と対象者Pの像の移動方向とを組み合わせた判断基準を用いることにより、次のような例で、誤った判別結果の出力を避けることができる。   By using a determination criterion that combines the past state and the moving direction of the image of the subject P in the determination process of the determination unit 13, it is possible to avoid outputting an erroneous determination result in the following example.

画像処理部12は、例えば、対象者P以外の物体の移動に応じて、検知領域R2の中央部から左端部あるいは右端部へ向かう移動方向を検出する可能性がある。このような検出結果は、カーテンが揺れた場合や、他の人物がベッド1付近を通る動作などに伴って、画像処理部12から得られる。この場合に、検出された移動方向は、対象者が離床状態となる際に検出される移動方向に一致している。しかし、対象者Pの過去の状態が着床状態であったことは、離床状態を判別するための条件を満たしていない。したがって、移動方向と過去の状態とを組み合わせた判断基準を採用した判別部13によれば、上述した例について、対象者Pの状態が誤って離床状態と判別されることはない。   For example, the image processing unit 12 may detect a moving direction from the central portion of the detection region R2 toward the left end portion or the right end portion in accordance with the movement of an object other than the target person P. Such a detection result is obtained from the image processing unit 12 when the curtain shakes or when another person passes around the bed 1. In this case, the detected moving direction coincides with the moving direction detected when the subject enters the bed leaving state. However, the fact that the past state of the subject person P is the landing state does not satisfy the condition for determining the leaving state. Therefore, according to the determination unit 13 that employs the determination criterion that combines the moving direction and the past state, the state of the subject P is not erroneously determined as the bed leaving state in the above-described example.

また、図3に例示した判断基準のセットでは、対象者Pが起床状態および離床状態であることを判別する際に用いる判断基準に含まれる移動方向が、過去の状態ごとに明らかに異なっている。   Further, in the set of determination criteria illustrated in FIG. 3, the moving directions included in the determination criteria used when determining whether the subject P is in the wake-up state or the leaving state are clearly different for each past state. .

例えば、起床状態の判別に用いられる判断基準のうち、過去の状態が着床状態である場合に組み合わせられる移動方向は画像の下から上に向かう方向である。これに対して、起床状態の判別に用いられる判断基準のうち、過去の状態が離床状態である場合に組み合わせられる移動方向は画像の左右方向である。このように、明確に異なる移動方向を、対応する過去の状態の種類と組み合わせた判断基準を用いることにより、判別部13は、対象者Pの現在の状態をより正確に判別することができる。つまり、図3に例示した判断基準のセットを適用した判別部13によれば、起床状態と離床状態とをより正確に判別することができる。   For example, among the determination criteria used for determining the wake-up state, the moving direction combined when the past state is the landing state is the direction from the bottom to the top of the image. On the other hand, among the determination criteria used for determining the wake-up state, the moving direction combined when the past state is the leaving state is the left-right direction of the image. In this way, by using a determination criterion in which a clearly different moving direction is combined with a corresponding past state type, the determination unit 13 can determine the current state of the subject P more accurately. That is, according to the determination unit 13 to which the set of determination criteria illustrated in FIG. 3 is applied, the rising state and the leaving state can be determined more accurately.

このように、移動方向と過去の状態とを組み合わせた判断基準を判別部13の判別処理に適用することにより、対象者Pの現在の状態が誤って判別される確率を低減することができる。つまり、移動方向と過去の状態とを組み合わせた判断基準を用いることにより、判別部13は、対象者Pの状態を、高い精度で確実に判別することができる。   In this way, by applying a determination criterion combining the moving direction and the past state to the determination process of the determination unit 13, the probability that the current state of the subject P is erroneously determined can be reduced. That is, by using a determination criterion that combines the moving direction and the past state, the determination unit 13 can reliably determine the state of the subject P with high accuracy.

そして、判別部13によって得られた対象者Pの現在の状態を示す情報を、出力部14によって出力することにより、看護士や介助者など、対象者のケアを担当する人々に正確な情報を通知することができる。   Then, by outputting information indicating the current state of the subject P obtained by the discriminating unit 13 by the output unit 14, accurate information is provided to people in charge of the subject, such as nurses and assistants. You can be notified.

このように、本件開示の状態検知装置によれば、対象者Pの状態を高い精度で確実に検知することができる。そして、対象者Pの状態を正確な判別を可能としたことにより、対象者Pについて誤って異常な状態である旨を通知してしまうこと、すなわち、誤検知を低減することができる。つまり、本件開示の状態検知装置によれば、誤検知を低減することにより、対象者のケアを担当する人々を無用に煩わせる事態の発生を防ぐことができる。これにより、対象者のケアを担当する人々の作業負担を軽減することができる。   Thus, according to the state detection device of the present disclosure, the state of the subject P can be reliably detected with high accuracy. Then, by enabling accurate determination of the state of the subject person P, the fact that the subject person P is erroneously notified of an abnormal state, that is, false detection can be reduced. That is, according to the state detection device of the present disclosure, it is possible to prevent the occurrence of a situation in which people who are in charge of care of the subject are bothered unnecessarily by reducing erroneous detection. Thereby, the work burden of the people in charge of the care of the subject can be reduced.

また、図1に例示した状態検知装置10は、例えば、プロセッサとメモリとを含む小規模のコンピュータシステムを用いて実現可能である。また、図1に開示した状態検知装置10に画像を入力するカメラ2の撮像方向は、ベッド1の長手方向であるので、カメラ2は、例えば、ベッド1のヘッドボードや壁などに取り付けられる。このような場所に設置されたカメラ2は、対象者Pおよび看護士あるいは介助者の動作の邪魔になりにくい。しかも、このように設置されたカメラ2によれば、ベッド1上で対象者Pが移動する範囲を漏れなく撮像することが可能であるので、他のカメラの設置を必要としない。したがって、本件開示の状態検知装置10を導入するために、病室あるいは居室に新たに配置される機器は、小規模である。小規模のコンピュータシステムを用いて実現された状態検知装置10は、例えば、上述したカメラ2とともに、ベッド1のヘッドボード内への埋め込みが可能な程度に小型化することも可能である。   Further, the state detection apparatus 10 illustrated in FIG. 1 can be realized using, for example, a small computer system including a processor and a memory. Moreover, since the imaging direction of the camera 2 that inputs an image to the state detection device 10 disclosed in FIG. 1 is the longitudinal direction of the bed 1, the camera 2 is attached to a headboard or a wall of the bed 1, for example. The camera 2 installed in such a place is unlikely to obstruct the operation of the subject P and the nurse or caregiver. In addition, according to the camera 2 installed in this way, it is possible to capture the range in which the subject P moves on the bed 1 without omission, so that it is not necessary to install another camera. Therefore, in order to introduce the state detection apparatus 10 of this indication, the apparatus newly arrange | positioned in a hospital room or a living room is a small scale. The state detection device 10 realized using a small-scale computer system can be miniaturized to the extent that the bed 1 can be embedded in the headboard together with the camera 2 described above, for example.

更に、ベッド1の長手方向を撮像方向とするカメラ2によって撮像された画像では、例えば、対象者Pが起き上がる動作と、対象者Pがベッド1の端に移動する動作とに応じて、対象者Pの像が明らかに異なる方向に移動する。このような画像に基づいて、画像処理部12は、対象者Pの様々な動作に対応して、明確に異なる移動方向を検出することができる。   Furthermore, in the image captured by the camera 2 with the longitudinal direction of the bed 1 as the imaging direction, for example, depending on the motion of the subject P getting up and the motion of the subject P moving to the end of the bed 1 The image of P moves in a clearly different direction. Based on such an image, the image processing unit 12 can detect clearly different moving directions corresponding to various operations of the subject P.

また、上述した着床状態、起床状態、離床状態および不在状態間の状態遷移について状態遷移図を作成することもできる。そして、判別部13は、この状態遷移図に基づいて、判別処理を行ってもよい。   In addition, a state transition diagram can be created for the state transitions between the above-described landing state, wake-up state, leaving bed state, and absent state. And the discrimination | determination part 13 may perform a discrimination | determination process based on this state transition diagram.

図4に、対象者に関する状態遷移図の例を示す。図4に例示した状態遷移図では、着床状態、起床状態、離床状態および不在状態の4つの状態間で想定される遷移は、符号T1〜T7を付した矢印によって示されている。   In FIG. 4, the example of the state transition diagram regarding a subject is shown. In the state transition diagram illustrated in FIG. 4, transitions assumed among the four states of the landing state, the wake-up state, the leaving state, and the absent state are indicated by arrows with reference signs T <b> 1 to T <b> 7.

図4に符号T1を付して示した状態遷移T1は、対象者Pの状態が着床状態から起床状態に向かう遷移を示している。この状態遷移T1の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて上向きに検知領域R2内へ向かう移動方向が、画像処理部12によって検出されることである。   A state transition T1 denoted by reference numeral T1 in FIG. 4 indicates a transition in which the state of the subject P moves from the landing state to the rising state. The condition of this state transition T1 is that the image processing unit 12 detects the moving direction of the image of the subject P, which goes upward in the detection region R2 beyond the lower boundary of the detection region R2. .

また、図4に符号T2を付して示した状態遷移T2は、対象者Pの状態が離床状態から起床状態に向かう遷移を示している。この状態遷移T2の条件は、この対象者Pの像について、検知領域R2の左端部あるいは右端部から中央部へ向かう移動方向が、画像処理部12によって検出されることである。   Moreover, the state transition T2 shown by attaching | subjecting the code | symbol T2 in FIG. 4 has shown the transition from which the state of the subject P goes from a leaving state to a rising state. The condition of this state transition T2 is that the moving direction from the left end or the right end of the detection region R2 toward the center of the image of the subject P is detected by the image processing unit 12.

一方、図4に符号T3を付して示した状態遷移T3は、対象者Pの状態が起床状態から着床状態に向かう遷移を示している。この状態遷移T3の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が、画像処理部12によって検出されることである。   On the other hand, the state transition T3 indicated by the reference numeral T3 in FIG. 4 indicates a transition in which the state of the subject P moves from the rising state to the landing state. The condition of the state transition T3 is that the image processing unit 12 detects a moving direction of the image of the subject P that goes downward beyond the lower boundary of the detection region R2 and goes outside the detection region R2. is there.

また、図4に符号T4を付して示した状態遷移T4は、対象者Pの状態が離床状態から着床状態に向かう遷移を示している。この状態遷移T4の条件は、この対象者Pの像について、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が、画像処理部12によって検出されることである。   Moreover, the state transition T4 shown by attaching | subjecting the code | symbol T4 in FIG. 4 has shown the transition which the state of the subject P heads from a leaving state to a landing state. The condition of this state transition T4 is that the image processing unit 12 detects the moving direction of the image of the subject P toward the outside of the detection region R2 over the lower boundary of the detection region R2. is there.

また、図4に符号T5を付して示した状態遷移T5は、対象者Pの状態が起床状態から離床状態に向かう遷移を示している。この状態遷移T5の条件は、この対象者Pの像について、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が、画像処理部12によって検出されることである。なお、対象者Pが離床する際に降りる側が限定されている場合には、離床が可能な側に対応する検知領域R2の範囲に向かう移動方向の検出を、状態遷移T5の条件とすることもできる。例えば、ベッド1の右側にサイドレールなどが設置されていれば、設置されていない左側に対応する検知領域R2の左端部に向かう移動方向の検出を、選択的に、状態遷移T5の条件とすることができる。   In addition, a state transition T5 indicated by a reference numeral T5 in FIG. 4 indicates a transition in which the state of the subject P is from the wake-up state to the leaving state. The condition for this state transition T5 is that the moving direction from the center of the detection region R2 toward the left end or the right end of the image of the subject P is detected by the image processing unit 12. In addition, when the side to which the subject person P gets off is limited, detection of the moving direction toward the range of the detection region R2 corresponding to the side where the person can get out may be set as the condition of the state transition T5. it can. For example, if a side rail or the like is installed on the right side of the bed 1, detection of the moving direction toward the left end of the detection region R2 corresponding to the left side that is not installed is selectively set as a condition for the state transition T5. be able to.

また、図4に符号T6を付して示した状態遷移T6は、対象者Pの状態が不在状態から離床状態に向かう遷移を示している。この状態遷移T6の条件は、この対象者Pの像について、検知領域R2の外部から検知領域R2の左端部あるいは右端部に向かう移動方向が、画像処理部12によって検出されることである。   Moreover, the state transition T6 shown by attaching | subjecting the code | symbol T6 in FIG. 4 has shown the transition which the state of the subject P goes from an absent state to a bed leaving state. The condition of this state transition T6 is that the moving direction from the outside of the detection region R2 toward the left end or the right end of the detection region R2 is detected by the image processing unit 12 with respect to the image of the subject P.

そして、図4に符号T7を付して示した状態遷移T7は、対象者Pの状態が離床状態から不在状態に向かう遷移を示している。この状態遷移T7の条件は、この対象者Pの像について、検知領域R2の左端部あるいは右端部から外部に向かう移動方向が、画像処理部12によって検出されることである。   And state transition T7 which attached | subjected code | symbol T7 in FIG. 4 has shown the transition which the state of the subject P goes to a absent state from a bed leaving state. The condition for this state transition T7 is that the image processor 12 detects the moving direction of the image of the subject P from the left end or the right end of the detection region R2 toward the outside.

図4に例示した状態遷移図は、図3に例示した判断基準のセットと同等である。判別部13は、この状態遷移図に従って、過去の状態からの状態遷移に対応する条件に基づいて、対象者Pの現在の状態を判別する。   The state transition diagram illustrated in FIG. 4 is equivalent to the set of criteria illustrated in FIG. The determination unit 13 determines the current state of the target person P based on a condition corresponding to the state transition from the past state according to the state transition diagram.

図4に例示した4つの状態のうち、起床状態および離床状態は、それぞれベッド1上の対象者Pの動作の分岐点に対応している。そして、起床状態を始点とする状態遷移T3,T5に対応する条件で示される移動方向は明確に異なる。同様に、離床状態を始点とする状態遷移T2,T7に対応する条件で示される移動方向も明確に異なる。   Among the four states illustrated in FIG. 4, the wake-up state and the leaving state correspond to the branch points of the operation of the subject P on the bed 1, respectively. The moving directions indicated by the conditions corresponding to the state transitions T3 and T5 starting from the wake-up state are clearly different. Similarly, the moving directions indicated by the conditions corresponding to the state transitions T2 and T7 starting from the bed leaving state are also clearly different.

したがって、判別部13は、過去の状態が対象者Pの動作の分岐点に相当する場合に、明確に異なる移動方向のどちらが画像処理部12によって検出されたかによって、過去の状態を始点とする状態遷移のどちらが発生したかを判別することができる。   Therefore, when the past state corresponds to a branch point of the motion of the subject P, the determination unit 13 determines the state starting from the past state depending on which of the clearly different movement directions is detected by the image processing unit 12. It is possible to determine which of the transitions has occurred.

例えば、対象者Pの過去の状態が起床状態のときに、画像処理部12により、検知領域R2の中央部から左端部あるいは右端部に向かう移動方向が検出された場合に、判別部13は、上述した状態遷移T5が発生したと判断する。この場合に、判別部13は、対象者Pの現在の状態として離床状態を判別する。一方、対象者Pの過去の状態が起床状態のときに、検知領域R2の下側の境界を越えて下向きに検知領域R2の外部に向かう移動方向が検出された場合に、判別部13は、上述した状態遷移T3が発生したと判断する。この場合に、判別部13は、対象者Pの現在の状態として着床状態を判別する。   For example, when the past state of the target person P is a wake-up state, when the image processing unit 12 detects a moving direction from the center of the detection region R2 toward the left end or the right end, the determination unit 13 It is determined that the state transition T5 described above has occurred. In this case, the determination unit 13 determines the bed leaving state as the current state of the subject P. On the other hand, when the past state of the subject person P is a wake-up state, when the moving direction toward the outside of the detection region R2 is detected downward beyond the lower boundary of the detection region R2, the determination unit 13 It is determined that the state transition T3 described above has occurred. In this case, the determination unit 13 determines the landing state as the current state of the subject person P.

このようにして、判別部13は、状態遷移図を辿って対象者Pの現在の状態を判別する。このような判別部13は、過去の状態ごとに異なる基準として、当該過去の状態を始点とする状態遷移に対応する対象者Pの移動方向が検出されるか否かを用いる判別部の一例である。そして、このような判別部13は、過去の状態を始点とする少なくとも一つの状態遷移それぞれに対応する対象者Pの移動方向が検出されるか否かに基づいて、これらの状態遷移のどれが発生したかを確実に判断することができる。また、この判断結果に基づいて、判別部13は、対象者Pの現在の状態を確実に判別することができる。   In this way, the determination unit 13 determines the current state of the target person P by tracing the state transition diagram. Such a determination unit 13 is an example of a determination unit that uses whether or not the moving direction of the target person P corresponding to a state transition starting from the past state is detected as a different reference for each past state. is there. And such a discrimination | determination part 13 is based on whether the moving direction of the target person P corresponding to each of at least 1 state transition which makes a past state a starting point is detected, which of these state transitions is. It is possible to reliably determine whether it has occurred. Further, based on the determination result, the determination unit 13 can reliably determine the current state of the subject P.

次に、図1に例示した状態検知装置10により、どのようにして、ベッド1上の対象者Pの状態を見守り、看護士や介助者への通知を行うかについて説明する。   Next, how the state detection apparatus 10 illustrated in FIG. 1 observes the state of the subject P on the bed 1 and notifies the nurse and the caregiver will be described.

図5に、状態検知装置の動作を表す流れ図を示す。   FIG. 5 is a flowchart showing the operation of the state detection device.

ステップ301で、判別部13に対して、対象者Pの初期状態を設定する処理と、通知処理部15に対して、通知対象の状態を設定する処理が行われる。ステップ301で設定された対象者Pの初期状態は、過去の状態として、判別部13の内部に保持される。また、通知対象の状態は、通知処理部15内部に保持される。   In step 301, a process for setting the initial state of the subject P is performed on the determination unit 13, and a process for setting the notification target state is performed on the notification processing unit 15. The initial state of the subject person P set in step 301 is held in the determination unit 13 as a past state. Further, the notification target state is held inside the notification processing unit 15.

次に、カメラ2によって画像が取得されるごとに(ステップ302)、画像処理部12は、対象者Pの像の検出を行う(ステップ303)。なお、画像処理部12は、カメラ2によって所定数のフレームの画像が撮像されるごとに1フレームの画像を受け取って、対象者Pの検出を行ってもよい。次いで、ステップ304で、画像処理部12は、対象者Pの像の検出が成功したか否かを判定する。   Next, every time an image is acquired by the camera 2 (step 302), the image processing unit 12 detects an image of the subject P (step 303). The image processing unit 12 may detect the target person P by receiving one frame image every time a predetermined number of frames are captured by the camera 2. Next, in step 304, the image processing unit 12 determines whether or not the detection of the image of the subject P has succeeded.

新たに取得された画像の検知領域R2から対象者Pの像を検出した場合に(ステップ304の肯定判定)、画像処理部12は、更に、対象者Pの像の移動方向を検出する(ステップ305)。画像処理部12は、例えば、新たなフレームの画像と直前のフレームの画像との比較に基づいて、対象者Pの像の移動方向を検出してもよい。また、新たな画像とそれに先立って取得された複数の画像とに基づいて、対象者Pの像の移動方向を検出することもできる。   When the image of the subject person P is detected from the detection region R2 of the newly acquired image (affirmative determination in step 304), the image processing unit 12 further detects the moving direction of the image of the subject person P (step step). 305). For example, the image processing unit 12 may detect the moving direction of the image of the subject P based on a comparison between an image of a new frame and an image of the previous frame. The moving direction of the image of the subject P can also be detected based on the new image and a plurality of images acquired prior to the new image.

ステップ305で、画像処理部12により検出された移動方向は、判別部13に渡される。一方、ステップ304の否定判定の場合に、画像処理部12は、対象者Pの像の検出に失敗した旨を判別部13に通知する。   In step 305, the moving direction detected by the image processing unit 12 is passed to the determination unit 13. On the other hand, in the case of negative determination in step 304, the image processing unit 12 notifies the determination unit 13 that the detection of the image of the subject P has failed.

ステップ307で、判別部13は、画像処理部12から受け取った検出結果と判別部13の内部に保持された過去の状態と上述した状態遷移図とに基づいて、対象者Pの現在の状態を判別する。このとき、判別部13は、内部に保持された過去の状態を始点とする状態遷移の条件と、画像処理部12から受け取った検出結果とを照合することにより、その状態遷移が起こったか否かを判断することができる。例えば、過去の状態として着床状態が判別部13に保持されている場合に、判別部13は、画像処理部12から受け取った検出結果と、図4に示した状態遷移T1の条件とを照合する。そして、画像処理部12から状態遷移T1の条件と一致する移動方向を受け取っている場合に、判別部13は、対象者Pの現在の状態は起床状態であると判別する。一方、画像処理部12から受け取った移動方向と状態遷移T1の条件とが一致しない場合に、判別部13は、対象者Pの現在の状態は過去の状態と同じ着床状態であると判別する。   In step 307, the determination unit 13 determines the current state of the subject P based on the detection result received from the image processing unit 12, the past state held in the determination unit 13, and the state transition diagram described above. Determine. At this time, the determination unit 13 checks whether or not the state transition has occurred by comparing the condition of the state transition starting from the past state held inside with the detection result received from the image processing unit 12. Can be judged. For example, when the landing state is held in the determination unit 13 as the past state, the determination unit 13 collates the detection result received from the image processing unit 12 with the condition of the state transition T1 illustrated in FIG. To do. When the movement direction that matches the condition of the state transition T1 is received from the image processing unit 12, the determination unit 13 determines that the current state of the subject P is a wake-up state. On the other hand, when the moving direction received from the image processing unit 12 and the condition of the state transition T1 do not match, the determination unit 13 determines that the current state of the subject P is the same landing state as the past state. .

次いで、判別部13は、ステップ307で得られた現在の状態が過去の状態から変化しているか否かを判定する(ステップ308)。そして、判別部13は、状態変化があったと判定した場合に(ステップ308の肯定判定)、現在の状態を、出力部14の通知処理部15に通知する。   Next, the determination unit 13 determines whether or not the current state obtained in Step 307 has changed from the past state (Step 308). When the determination unit 13 determines that the state has changed (Yes determination in step 308), the determination unit 13 notifies the notification processing unit 15 of the output unit 14 of the current state.

通知処理部15は、判別部13から通知された対象者Pの現在の状態が、ステップ301で通知処理部15の内部に保持された通知対象の状態と一致するか否かを判定する(ステップ309)。対象者Pの現在の状態と、通知対象の状態とが一致しない場合に(ステップ309の否定判定)、通知処理部15は、対象者Pの現在の状態を通知する処理は行わない。そして、この場合に、判別部13は、以降の処理で過去の状態として用いるために、対象者Pの現在の状態を内部に保持する(ステップ310)。その後、処理は、ステップ302に戻って、新たに撮像された画像についての処理が開始される。   The notification processing unit 15 determines whether or not the current state of the target person P notified from the determination unit 13 matches the state of the notification target held inside the notification processing unit 15 in Step 301 (Step S1). 309). When the current state of the subject person P and the state to be notified do not match (negative determination at step 309), the notification processing unit 15 does not perform a process of notifying the current state of the subject person P. In this case, the determination unit 13 holds the current state of the target person P in order to use it as a past state in subsequent processing (step 310). Thereafter, the processing returns to step 302, and processing for a newly captured image is started.

一方、判別部13から通知された対象者Pの現在の状態と、通知対象の状態とが一致する場合に(ステップ309の肯定判定)、通知処理部15は、対象者Pの現在の状態を示す情報を通知する処理を行う(ステップ311)。このとき、図1に例示した通知処理部15は、スピーカ16を介して予め通知処理部15の内部に設定されていた音声メッセージやアラーム音声などを出力する。なお、スピーカ16を介した音声出力を行う代わりに、通知処理部15は、ナースコールシステムなどの既存の通知システムを利用して、対象者Pの状態が通知対象の状態に移行した旨の通知を出力してもよい。   On the other hand, when the current state of the target person P notified from the determination unit 13 matches the state of the notification target (affirmative determination in step 309), the notification processing unit 15 displays the current state of the target person P. Processing for notifying the information shown is performed (step 311). At this time, the notification processing unit 15 illustrated in FIG. 1 outputs a voice message, an alarm voice, or the like set in advance in the notification processing unit 15 via the speaker 16. Instead of performing sound output via the speaker 16, the notification processing unit 15 uses an existing notification system such as a nurse call system to notify that the state of the target person P has shifted to the notification target state. May be output.

上述したようにして、本件開示の状態検知方法に従って、ベッド1上の対象者Pの現在の状態を判別し、この判別結果を出力することができる。なお、図5に示した流れ図において、ステップ302は、対象者Pを撮像して得られた画像を入力する手順の一例である。また、ステップ303〜ステップ306は、対象者Pの移動方向を検出する手順の一例である。そして、ステップ307およびステップ310は、対象者Pの現在の状態を判別する手順の一例である。また、ステップ308〜ステップ309およびステップ311は、対象者Pの現在の状態を示す情報を出力する手順の一例である。   As described above, according to the state detection method disclosed herein, the current state of the subject P on the bed 1 can be determined, and the determination result can be output. In the flowchart shown in FIG. 5, step 302 is an example of a procedure for inputting an image obtained by imaging the target person P. Steps 303 to 306 are an example of a procedure for detecting the moving direction of the subject P. Steps 307 and 310 are an example of a procedure for determining the current state of the subject P. Steps 308 to 309 and step 311 are an example of a procedure for outputting information indicating the current state of the subject P.

次に、本件開示の状態検知装置の様々な実施形態について説明する。   Next, various embodiments of the state detection device disclosed herein will be described.

図6に、本件開示の状態検知装置の別実施形態を示す。なお、図6に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 6 shows another embodiment of the state detection device disclosed herein. 6 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図6に示す状態検知装置20は、カメラインタフェース(IF:Interface)21と、ナースコールインタフェース(IF)23と、プロセッサ24と、メモリ25とを含んでいる。プロセッサ24と、カメラIF21と、ナースコールIF23と、メモリ25とは、バスを介して接続されている。また、カメラIF21は、カメラ2に接続されている。ナースコールIF23は、ナースコールシステム4に接続されている。   The state detection device 20 illustrated in FIG. 6 includes a camera interface (IF) 21, a nurse call interface (IF) 23, a processor 24, and a memory 25. The processor 24, the camera IF 21, the nurse call IF 23, and the memory 25 are connected via a bus. The camera IF 21 is connected to the camera 2. The nurse call IF 23 is connected to the nurse call system 4.

図6に示したメモリ25には、画像認識プログラム26と状態判別プログラム27と通知判定プログラム28とが格納されている。画像認識プログラム26を読み込んで、このプログラムに従って動作するプロセッサ24は、画像処理部12の別実施形態である。同様に、状態判別プログラム27を読み込んで、このプログラムに従って動作するプロセッサ24は、判別部13の別実施形態である。また、通知判定プログラム28を読み込んで、このプログラムに従って動作するプロセッサ24と通知IF23およびナースコールシステム4は、通知処理部15の別実施形態である。   In the memory 25 shown in FIG. 6, an image recognition program 26, a state determination program 27, and a notification determination program 28 are stored. The processor 24 that reads the image recognition program 26 and operates according to the program is another embodiment of the image processing unit 12. Similarly, the processor 24 that reads the state determination program 27 and operates according to this program is another embodiment of the determination unit 13. The processor 24, the notification IF 23, and the nurse call system 4 that read the notification determination program 28 and operate according to this program are other embodiments of the notification processing unit 15.

図6に示した照明部3は、例えば、近赤外領域の赤外光によって、ベッド1上の対象者Pを照明する。なお、図6において、照明部3によって照明される範囲を符号R3で示した。照明部3によって照明される範囲R3は、カメラ2の撮像範囲を含んでいることが望ましい。カメラ2は、照明部3による照明光の波長を含む範囲に感度を有する。照明制御部5は、カメラ2による撮像に同期して照明部3による照明光を点滅させる。例えば、照明制御部5は、カメラ2によって奇数フレームの撮像が行われる際に照明光を点灯させとし、偶数フレームの撮像が行われる際には消灯させるように、照明部3を制御する。このようにして、1フレームおきに近赤外領域の光によって照明された対象者Pの画像を取得することができる。このようにして取得された画像は、カメラIF21を介してプロセッサ24に渡される。   The illumination unit 3 illustrated in FIG. 6 illuminates the subject P on the bed 1 with, for example, infrared light in the near infrared region. In addition, in FIG. 6, the range illuminated by the illumination part 3 was shown with the code | symbol R3. The range R3 illuminated by the illuminating unit 3 preferably includes the imaging range of the camera 2. The camera 2 has sensitivity in a range including the wavelength of illumination light emitted from the illumination unit 3. The illumination control unit 5 blinks illumination light from the illumination unit 3 in synchronization with imaging by the camera 2. For example, the illumination control unit 5 controls the illumination unit 3 so that the illumination light is turned on when an odd frame is captured by the camera 2 and is turned off when an even frame is captured. In this manner, an image of the subject P illuminated with light in the near infrared region every other frame can be acquired. The image acquired in this way is passed to the processor 24 via the camera IF 21.

上述したようにして、1フレームおきに近赤外領域の光によって照明された対象者Pの画像を受け取るようにした状態検知装置20は、夜間に対象者Pの状態を検知する際に有用である。以下、照明光の点滅を利用して、対象者Pの像を検出する処理および検出した対象者Pの像に基づいて、対象者Pの移動方向を検出する処理について説明する。   As described above, the state detection device 20 configured to receive an image of the subject P illuminated by light in the near infrared region every other frame is useful when detecting the state of the subject P at night. is there. Hereinafter, processing for detecting an image of the subject P using blinking illumination light and processing for detecting the moving direction of the subject P based on the detected image of the subject P will be described.

図7に、対象者Pの像を検出する処理を説明する図を示す。また、図8に、対象者Pの像を検出する処理を表す流れ図を示す。また、図9に、対象者の移動方向を検出する処理を説明する図を示す。   FIG. 7 is a diagram illustrating processing for detecting an image of the subject P. FIG. 8 is a flowchart showing processing for detecting an image of the subject P. FIG. 9 is a diagram illustrating processing for detecting the moving direction of the subject person.

図7(A)に、照明部3による照明を点灯した状態でカメラ2によって撮像された画像の例を示す。また、図7(B)に、照明部3による照明を消灯した状態でカメラ2によって撮像された画像の例を示す。   FIG. 7A shows an example of an image captured by the camera 2 in a state where the illumination by the illumination unit 3 is turned on. FIG. 7B shows an example of an image captured by the camera 2 with the illumination by the illumination unit 3 turned off.

ベッド1上の対象者Pは、ベッド1などの周囲の物体に比べて、照明部3に近い位置にいる。このため、図7(A)の例では、対象者Pの像の輝度は、図7(B)の例と比べて高くなっている。一方、ベッド1などの周囲の物体と照明部3との距離は、照明部3と対象者Pとの距離に比べて大きい。このため、対象者Pの図7(A)の例と図7(B)の例との間での輝度の変化と比較して、これらの物体の像の明るさの変化は少ない。   The subject P on the bed 1 is closer to the illumination unit 3 than the surrounding objects such as the bed 1. For this reason, in the example of FIG. 7A, the luminance of the image of the subject P is higher than that of the example of FIG. On the other hand, the distance between the surrounding object such as the bed 1 and the illumination unit 3 is larger than the distance between the illumination unit 3 and the subject P. For this reason, compared with the change of the brightness between the example of FIG. 7A and the example of FIG.

このため、照明を点灯して撮像した画像と照明を消灯して撮像した画像とを用いて作成した差分画像では、図7(C)に示すように、対象者Pの像は、それ以外の物体の像との明るさの差が強調されたものとなる。このような差分画像から、例えば、所定の閾値以上の明るさを持つ領域を抽出することにより、対象者Pの像を容易に抽出することができる。なお、図7(A)〜(C)においては、検知領域R2の境界を白線で示した。   For this reason, in the difference image created using the image captured with the illumination turned on and the image captured with the illumination turned off, as shown in FIG. The brightness difference from the object image is emphasized. From such a difference image, for example, by extracting a region having a brightness equal to or higher than a predetermined threshold, an image of the subject person P can be easily extracted. 7A to 7C, the boundary of the detection region R2 is indicated by a white line.

図8に示した流れ図は、画像認識プログラム26のうち、対象者Pの像を検出する処理にかかわる手順を示している。図8に示した各ステップは、画像認識プログラム26を読み込んだプロセッサ24によって実行される。   The flowchart shown in FIG. 8 shows a procedure related to processing for detecting an image of the subject P in the image recognition program 26. Each step shown in FIG. 8 is executed by the processor 24 that has read the image recognition program 26.

ステップ321およびステップ322で、プロセッサ24は、カメラIF21を介して、照明を点灯した状態と消灯した状態でそれぞれ撮像された画像を取得する。次いで、プロセッサ24は、ステップ321,322で取得した2フレームの画像から、差分画像を生成する(ステップ323)。次に、プロセッサ24は、差分画像から明るさが所定の閾値以上である領域を抽出する(ステップ324)。   In step 321 and step 322, the processor 24 acquires images captured with the illumination turned on and turned off via the camera IF 21. Next, the processor 24 generates a difference image from the two-frame images acquired in steps 321 and 322 (step 323). Next, the processor 24 extracts a region whose brightness is equal to or greater than a predetermined threshold value from the difference image (step 324).

抽出した領域の面積が別の所定の閾値未満である場合に(ステップ325の否定判定)、プロセッサ24は、対象者Pの像の検出が失敗した旨を出力する(ステップ327)。この場合に、プロセッサ24は、状態判別プログラム27に基づいて、対象者Pの状態を判別する処理を開始する。   When the area of the extracted region is less than another predetermined threshold value (No determination at Step 325), the processor 24 outputs that the detection of the image of the subject P has failed (Step 327). In this case, the processor 24 starts processing for determining the state of the subject P based on the state determination program 27.

一方、抽出した領域の面積が別の所定の閾値以上である場合に(ステップ325の肯定判定)、プロセッサ24は、対象者Pの像の検出が成功した旨を出力する(ステップ326)。この場合に、プロセッサ24は、対象者Pの移動方向を検出する処理を開始する。   On the other hand, when the area of the extracted region is equal to or larger than another predetermined threshold (Yes in Step 325), the processor 24 outputs that the detection of the image of the subject P has succeeded (Step 326). In this case, the processor 24 starts a process of detecting the moving direction of the subject P.

1フレームおきに照明された対象者Pの画像の入力を受ける場合に、状態検知装置20は、上述したステップ321からステップ327に示したように、対象者Pの像を簡略な処理によって検出することができる。   When receiving an image of the subject P illuminated every other frame, the state detection device 20 detects the image of the subject P by a simple process as shown in Steps 321 to 327 described above. be able to.

このようにして抽出された対象者Pの像について、次のような処理を行うことにより、対象者Pの移動方向を検出することができる。   The moving direction of the subject person P can be detected by performing the following process on the image of the subject person P extracted in this way.

図9(A),(C)は、ベッド1上で起き上がろうとしている際に、対象者Pがとりうる姿勢の例を表している。図9(B),(D)は、それぞれ、対象者Pが図9(A),(C)に示したような姿勢をとっているときに、カメラ2によって撮像される画像から生成される差分画像の例である。なお、図9(A)、(C)において矢印を付して示した範囲は、カメラ2の撮像範囲に含まれる検知領域R2の上下方向の範囲に対応する。また、図9(B),(D)の例では、対象者Pの像に網掛けを付して示した。   FIGS. 9A and 9C show examples of postures that the subject person P can take when trying to get up on the bed 1. FIGS. 9B and 9D are generated from images captured by the camera 2 when the subject P is in the posture shown in FIGS. 9A and 9C, respectively. It is an example of a difference image. 9A and 9C corresponds to the vertical range of the detection region R2 included in the imaging range of the camera 2. Further, in the examples of FIGS. 9B and 9D, the image of the subject P is shaded.

図9(A)は、対象者Pが頭をわずかに持ち上げた姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図9(B)に示すように、検知領域R2内に、対象者Pの後頭部に対応する像の一部がわずかに含まれる。   FIG. 9A shows an example of a posture in which the subject P slightly lifts his head. At this time, the difference image obtained from the image captured by the camera 2 includes a slight part of the image corresponding to the back of the subject P in the detection region R2, as shown in FIG. 9B. .

図9(C)は、対象者Pが半ば起き上がった姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図9(D)に示すように、検知領域R2内に、対象者Pの後頭部の像と、対象者Pの上半身に対応する像の一部が含まれる。   FIG. 9C is an example of a posture in which the subject P is halfway up. At this time, as shown in FIG. 9D, the difference image obtained from the image captured by the camera 2 corresponds to the image of the back of the subject P and the upper half of the subject P in the detection region R2. Part of the image is included.

そして、対象者Pの移動方向は、例えば、各差分画像において対象者Pの像として検出された部分の重心の移動から求めることができる。例えば、図9(B)、(D)に示した差分画像が順に得られた場合に、プロセッサ24は、次のようにして、対象者Pの移動方向を求めればよい。まず、プロセッサ24は、各差分画像に基づいて、対象者Pの像に相当する部分の重心位置を求める。そして、図9(B)に示した差分画像から求めた重心位置から、図9(D)に示した差分画像から求めた重心位置に向かう移動方向を検出すればよい。このようにして、プロセッサ24は、図9(B),(D)に示した差分画像に基づいて、検知領域R2の下側の境界から検知領域R2に入る移動方向を検出する。   The moving direction of the subject P can be obtained from, for example, the movement of the center of gravity of the portion detected as the image of the subject P in each difference image. For example, when the difference images shown in FIGS. 9B and 9D are obtained in order, the processor 24 may obtain the moving direction of the target person P as follows. First, the processor 24 obtains the position of the center of gravity of the portion corresponding to the image of the subject P based on each difference image. Then, the moving direction toward the center of gravity obtained from the difference image shown in FIG. 9D may be detected from the center of gravity obtained from the difference image shown in FIG. 9B. In this way, the processor 24 detects the moving direction that enters the detection region R2 from the lower boundary of the detection region R2, based on the difference images shown in FIGS. 9B and 9D.

なお、上述したように、近赤外領域の照明光を用いる場合には、対象者Pの毛髪が黒色である場合などに、対象者Pの後頭部が差分画像にはっきり現れないこともある。しかし、後頭部に対応する像が検出されない場合でも、対象者Pの上半身の一部がカメラ2の撮像範囲に入ったときに、対象者Pの上半身の像が差分画像に現れる。そして、対象者Pの上半身の像を含む差分画像について、上述したような処理を行うことにより、プロセッサ24は、上半身の一部に対応する像の重心位置の移動から、対象者Pの移動方向を検出することができる。また、プロセッサ24は、対象者Pの像の位置の変化を検出する方法であれば、どのような方法でも、対象者Pの移動方向を検出する処理に利用してよい。   As described above, when using illumination light in the near-infrared region, the back of the head of the subject P may not appear clearly in the difference image, for example, when the hair of the subject P is black. However, even when an image corresponding to the back of the head is not detected, when a part of the upper body of the subject P enters the imaging range of the camera 2, an image of the upper body of the subject P appears in the difference image. Then, by performing the above-described processing on the difference image including the upper body image of the subject person P, the processor 24 moves the subject person P from the movement direction of the center of gravity of the image corresponding to a part of the upper body. Can be detected. Further, the processor 24 may use any method for detecting the moving direction of the subject person P as long as it detects a change in the position of the image of the subject person P.

ところで、近赤外光は、人間の視覚では感知されにくい。しかも、図6に例示した照明部3およびカメラ2は、主として、対象者Pの背後から照明および撮像を行うので、対象者Pに監視されているという印象を持たせることなく、この対象者Pの状態を見守ることができる。   By the way, near-infrared light is difficult to be detected by human vision. In addition, since the illumination unit 3 and the camera 2 illustrated in FIG. 6 mainly perform illumination and imaging from behind the subject P, the subject P does not have the impression of being monitored by the subject P. You can watch over the state.

また、上述した差分画像を用いて対象者Pの像を検出する手法は、夜間の見守りのみならず、日中の見守りにおいても有用である。なぜなら、上述したようにして差分画像を生成する過程で、照明部3以外の光による物体の像はキャンセルされ、照明部3からの光による像だけを抜き出す事ができ、上述したような夜間の見守りの場合と同様の処理で対象者Pを抽出する事ができるからである。例えば、ベッド1の足元側を通る別の人物や仕切りのカーテンなどの対象者Pと紛らわしい物体の像は、差分画像を生成する過程で照明部3以外の光による像がキャンセルされ、かつ照明部3から距離が大きいため、照明部3の光による像は、対象者Pの像と容易に区別することができる明るさとなる。これにより、上述したような差分画像に基づいて対象者Pの像を検出する場合には、対象者P以外の人物の像の影響による誤検出を低減することができる。   Moreover, the method of detecting the image of the subject P using the above-described difference image is useful not only for nighttime watching but also for daytime watching. Because, in the process of generating the difference image as described above, the image of the object by the light other than the illumination unit 3 is canceled, and only the image by the light from the illumination unit 3 can be extracted. This is because the target person P can be extracted by the same processing as in the case of watching. For example, an image of an object confused with the target person P such as another person passing through the foot side of the bed 1 or a partition curtain is canceled by the light other than the illumination unit 3 in the process of generating the difference image, and the illumination unit Since the distance from 3 is large, the image of the light of the illumination unit 3 has a brightness that can be easily distinguished from the image of the subject P. Thereby, when detecting the image of the subject P based on the difference image as described above, it is possible to reduce erroneous detection due to the influence of the image of a person other than the subject P.

なお、画像認識プログラム27は、例えば、上述した差分画像を用いて対象者Pの像を検出する手法と、可視光を用いて撮像された画像について被写体認識を行って対象者Pの像を検出する手法との両方を含むことも可能である。また、上述したカメラ2に代えて、遠赤外領域に感度を有するカメラを用いてもよい。この場合は、遠赤外線用のカメラを用いて取得した温度画像から、人間の体温に相当する温度の領域を抽出することによって、対象者Pの像を検出することができる。また、カメラ2の側で、上述したような差分画像を生成する処理を行ってもよい。この場合は、生成された差分画像が、カメラIF21を介してプロセッサ24に渡される。   The image recognition program 27 detects, for example, the method of detecting the image of the subject P using the above-described difference image and subject recognition of the image captured using visible light to detect the image of the subject P. It is also possible to include both methods. Further, a camera having sensitivity in the far infrared region may be used instead of the camera 2 described above. In this case, the image of the subject P can be detected by extracting a temperature region corresponding to the human body temperature from the temperature image acquired using the far-infrared camera. Moreover, you may perform the process which produces | generates a difference image as mentioned above on the camera 2 side. In this case, the generated difference image is passed to the processor 24 via the camera IF 21.

次に、ベッド上の対象者Pを撮像して得られる画像から、更に、対象者Pの状態を判別する指標として有用な情報を抽出する方法について説明する。   Next, a method for extracting information useful as an index for determining the state of the subject P from an image obtained by imaging the subject P on the bed will be described.

図10に、対象者の体の向きを検出する処理を説明する図を示す。図10(A),(C)は、ベッド1上にいる対象者Pがとりうる姿勢の例を表している。図10(B),(D)は、それぞれ、対象者Pが図10(A),(C)に示した姿勢をとっているときに、カメラ2によって撮像される画像から生成される差分画像の例である。なお、図10(A)、(C)において矢印を付して示した範囲は、カメラ2の撮像範囲に含まれる検知領域R2の上下方向の範囲に対応する。また、図10(B),(D)の例では、対象者Pの像に網掛けを付して示した。   FIG. 10 is a diagram illustrating processing for detecting the orientation of the subject's body. 10A and 10C show examples of postures that the subject P on the bed 1 can take. FIGS. 10B and 10D show difference images generated from images captured by the camera 2 when the subject P is in the posture shown in FIGS. 10A and 10C, respectively. It is an example. 10A and 10C corresponds to the vertical range of the detection region R2 included in the imaging range of the camera 2. In the examples of FIGS. 10B and 10D, the image of the subject P is shown with shading.

図10(A)は、対象者Pがベッド1上で起き上がった姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図10(B)に示すように、検知領域R2中央部に、対象者Pの後頭部と上半身の背面に対応する像が含まれている。   FIG. 10A is an example of a posture in which the subject P gets up on the bed 1. At this time, as shown in FIG. 10B, the difference image obtained from the image captured by the camera 2 includes images corresponding to the back of the back of the subject P and the back of the upper body in the center of the detection region R2. ing.

図10(C)は、対象者Pがベッド1の端に腰掛けている姿勢の例である。このときに、カメラ2による撮像画像から得られる差分画像には、図10(D)に示すように、検知領域R2左側に、対象者Pの側頭部の像と、対象者Pの上半身の側面に対応する像の一部が含まれる。   FIG. 10C is an example of a posture in which the subject P is sitting on the end of the bed 1. At this time, the difference image obtained from the image captured by the camera 2 includes an image of the temporal region of the subject person P and the upper body of the subject person P on the left side of the detection region R2, as shown in FIG. Part of the image corresponding to the side is included.

図10(A)、(C)の比較から分かるように、対象者Pがベッド1上で起床しているときと、ベッド1の端に腰掛けているときとでは、体の向きが異なっている。そして、このような体の向きの違いは、図10(B),(D)に示す差分画像に含まれる対象者Pの上半身に対応する像の形状の違いとして反映されている。このような形状の違いは、例えば、上半身に対応する像の上下方向のサイズと左右方向のサイズの比によって表すことができる。なお、図10(B),(D)において、対象者Pの上半身に対応する像のうち、検知領域R2に含まれている部分の上下方向のサイズおよび左右方向のサイズを、それぞれ符号a、bで示す。   As can be seen from the comparison between FIGS. 10A and 10C, the orientation of the body is different when the subject P is getting up on the bed 1 and when the subject P is sitting on the end of the bed 1. . Such a difference in body orientation is reflected as a difference in the shape of the image corresponding to the upper half of the subject P included in the difference images shown in FIGS. 10 (B) and 10 (D). Such a difference in shape can be represented by, for example, a ratio of the vertical size and the horizontal size of the image corresponding to the upper body. 10B and 10D, in the image corresponding to the upper body of the subject P, the vertical size and the horizontal size of the portion included in the detection region R2 are denoted by a, Indicated by b.

したがって、例えば、以下に示す3つの処理をプロセッサ24が実行することにより、差分画像に含まれている対象者Pの像の形状に基づいて、対象者Pの体の向きを検出することができる。   Therefore, for example, when the processor 24 executes the following three processes, it is possible to detect the orientation of the body of the subject P based on the shape of the image of the subject P included in the difference image. .

まず、プロセッサ24は、差分画像に含まれている対象者Pの像のうち、対象者Pの上半身に対応する部分について、上下方向および左右方向のサイズa,bを取得する。次いで、プロセッサ24は、例えば、上下方向のサイズaを左右方向のサイズbで除算して縦横比cを求める。次に、プロセッサ24は、この縦横比cと所定の閾値Thとを比較し、この比較結果に応じて、対象者Pの体の向きを判定する。例えば、縦横比cが所定の閾値Thよりも大きい場合に、プロセッサ24は、対象者Pはカメラ2に対して側面を向けていると判定することができる。この場合に、プロセッサ24は、対象者Pの体の向きは横向きであると判定する。逆に、縦横比cが所定の閾値Thよりも小さい場合に、プロセッサ24は、対象者Pはカメラ2に対して背中あるいは正面を向けている判定することができる。この場合に、プロセッサ24は、対象者Pの体の向きは正面であると判定する。なお、上述した閾値Thの値は、例えば、様々な対象者の正面向きの像について求めた縦横比と、様々な対象者の側面向きの像について求めた縦横比とに基づいて決定すればよい。また、上述したように、対象者Pの像の縦横比に基づいて、対象者の体の向きを判定する処理の対象は、上述した差分画像に限られない。例えば、プロセッサ24は、可視光を用いて撮像された画像から検出された対象者Pの像について、縦横比に基づいて対象者の体の向きを判定する処理を行うこともできる。   First, the processor 24 acquires the sizes a and b in the vertical direction and the horizontal direction for a portion corresponding to the upper half of the subject P among the images of the subject P included in the difference image. Next, for example, the processor 24 divides the vertical size a by the horizontal size b to obtain the aspect ratio c. Next, the processor 24 compares the aspect ratio c with a predetermined threshold Th, and determines the orientation of the body of the subject P according to the comparison result. For example, when the aspect ratio c is larger than a predetermined threshold Th, the processor 24 can determine that the subject P is facing the camera 2 side. In this case, the processor 24 determines that the body direction of the subject P is horizontal. On the other hand, when the aspect ratio c is smaller than the predetermined threshold Th, the processor 24 can determine that the subject P is facing the camera 2 with his back or front. In this case, the processor 24 determines that the body direction of the subject P is the front. Note that the value of the threshold Th described above may be determined based on, for example, the aspect ratio obtained for the front-facing images of various subjects and the aspect ratio obtained for the lateral-facing images of various subjects. . Further, as described above, the target of the process for determining the orientation of the body of the subject based on the aspect ratio of the image of the subject P is not limited to the difference image described above. For example, the processor 24 can perform a process of determining the orientation of the subject's body based on the aspect ratio of the image of the subject P detected from the image captured using visible light.

そして、上述したようにして得られた対象者Pの体の向きは、次のようにして、対象者Pの状態を判別する処理に利用することができる。   Then, the orientation of the body of the subject P obtained as described above can be used for processing for determining the state of the subject P as follows.

図10(A),(B)に示した例から分かるように、起床状態では、ベッド1上の対象者Pは正面向きである可能性が高い。したがって、起床状態に向かう状態遷移T1,T2を判定する条件に、対象者Pの体の向きが正面向きであることをアンド条件として追加することが望ましい。   As can be seen from the examples shown in FIGS. 10A and 10B, in the wake-up state, there is a high possibility that the subject P on the bed 1 is facing the front. Therefore, it is desirable to add, as an AND condition, that the direction of the body of the subject P is the front direction to the condition for determining the state transitions T1 and T2 toward the rising state.

一方、図10(C),(D)に示した例から分かるように、離床状態では、ベッド1上の対象者Pは横向きである可能性が高い。したがって、離床状態に向かう状態遷移T5,T6を判定する条件に、対象者Pの体の向きが横向きであることをアンド条件として追加することが望ましい。   On the other hand, as can be seen from the examples shown in FIGS. 10C and 10D, in the state of getting out of bed, there is a high possibility that the subject P on the bed 1 is facing sideways. Therefore, it is desirable to add to the condition for determining the state transitions T5 and T6 toward the bed leaving state that the direction of the body of the subject P is horizontal as an AND condition.

図11に、体の向きを考慮した遷移条件の例を示す。図11に示した遷移条件は、図4に示した状態遷移図の説明で示した遷移条件に、上述したアンド条件を追加したものである。   FIG. 11 shows an example of the transition condition considering the body direction. The transition condition shown in FIG. 11 is obtained by adding the AND condition described above to the transition condition shown in the description of the state transition diagram shown in FIG.

図6に例示したメモリ25に格納された状態判別プログラム27は、図11に示したように、一部の状態遷移について体の向きの判定結果を条件に含む遷移条件を含むことができる。そして、このような遷移条件を含む状態判別プログラム27に従って動作するプロセッサ24は、対象者Pが起床状態であることや、対象者Pが離床状態であることをより高い精度で判別することができる。   As shown in FIG. 11, the state determination program 27 stored in the memory 25 illustrated in FIG. 6 can include a transition condition that includes the determination result of the body orientation as a condition for some state transitions. The processor 24 operating according to the state determination program 27 including such a transition condition can determine with high accuracy that the subject P is in the wake-up state and that the subject P is in the get-off state. .

更に、上述した判定処理で得られた対象者Pの体の向きを利用して、対象者Pの異常な移動を検出することも可能である。   Furthermore, it is also possible to detect an abnormal movement of the subject person P using the body direction of the subject person P obtained by the determination process described above.

例えば、対象者Pが起床状態から離床状態に向かう正常な過程では、次のような変化が観察される。画像に含まれる対象者Pの像が、検知領域R2の中央部から左端部あるいは右端部に移動するとともに、対象者Pの上半身に対応する像の縦横比が、正面向きに対応する値から横向きに対応する値に変化する。一方、次のような変化が検出された場合には、対象者Pの移動に異常があると推定することができる。例えば、縦横比が正面向きに対応する値を維持したまま、対象者Pの像が検知領域R2の外側へ向かって移動した場合には、対象者Pがベッド1から転落している可能性がある。   For example, the following changes are observed in the normal process in which the subject P moves from the rising state to the leaving state. The image of the subject P included in the image moves from the center of the detection region R2 to the left end or the right end, and the aspect ratio of the image corresponding to the upper body of the subject P is horizontal from the value corresponding to the front direction. It changes to the value corresponding to. On the other hand, when the following change is detected, it can be estimated that the movement of the subject P is abnormal. For example, when the image of the subject P moves toward the outside of the detection region R2 while maintaining the value corresponding to the frontal aspect ratio, the subject P may have fallen from the bed 1. is there.

状態判別プログラム27は、例えば、離床状態からの状態遷移の有無を判断する手順の中に、対象者Pの上半身に対応する像の縦横比の変化と対象者Pの像の移動方向との間の矛盾を検出する手順を含むことができる。そして、このような状態判別プログラム27を実行するプロセッサ24は、上述したような矛盾を検出したときに、離床状態から不在状態への正常な状態遷移T7とは異なる異常な状態の変化を検出する。また、このようにして異常な状態の変化を検出したときに、プロセッサ24は、ナースコールIF23を介して、より緊急度の高い警報をナースコールシステム4に通知する。   For example, the state determination program 27 determines whether there is a change in the aspect ratio of the image corresponding to the upper half of the subject P and the moving direction of the image of the subject P in the procedure for judging whether or not there is a state transition from the bed leaving state. A procedure for detecting discrepancies can be included. The processor 24 that executes the state determination program 27 detects an abnormal state change different from the normal state transition T7 from the bed leaving state to the absent state when detecting the contradiction as described above. . Further, when the abnormal state change is detected in this manner, the processor 24 notifies the nurse call system 4 of an alarm with a higher degree of urgency via the nurse call IF 23.

ところで、本件開示の状態検知装置20は、図6に示した例のように、病室あるいは居室内に配置することもできるし、一部または全部をナースステーションなどに配置することもできる。   By the way, the state detection apparatus 20 of this indication can also be arrange | positioned in a sickroom or a living room like the example shown in FIG. 6, and part or all can also be arrange | positioned in a nurse station etc.

図12に、状態検知装置の別実施形態を示す。なお、図12に示した構成要素のうち、図6に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 12 shows another embodiment of the state detection device. Note that among the constituent elements shown in FIG. 12, those equivalent to the constituent elements shown in FIG. 6 are denoted by the same reference numerals, and description thereof is omitted.

図12に例示する状態検知装置は、病室あるいは居室に設置されるローカルユニット30と、ナースステーションに設置されるセンタユニット32とを含んでいる。ローカルユニット30は、図6に示したナースコールIF23に代えて、通知インタフェース(IF)31を有する。また、図6に示した通知判定プログラム28は、ローカルユニット30のメモリ25ではなく、センタユニット32のメモリ34に格納されている。   The state detection apparatus illustrated in FIG. 12 includes a local unit 30 installed in a hospital room or a living room, and a center unit 32 installed in a nurse station. The local unit 30 has a notification interface (IF) 31 instead of the nurse call IF 23 shown in FIG. 6 is stored in the memory 34 of the center unit 32, not the memory 25 of the local unit 30.

図12に例示したセンタユニット32は、上述した通知IF31に対応する通知インタフェース(IF)33と、メモリ34と、プロセッサ35と、ナースコールIF23と、データベースインタフェース(DBIF)36とを有する。プロセッサ35と、通知IF33と、メモリ34と、ナースコールIF23と、DBIF36とは、バスを介して互いに接続されている。センタユニット32のプロセッサ35は、ナースコールIF23を介してナースコールシステム4に接続されている。また、このプロセッサ35は、DBIF36を介して対象者情報データベース(DB)6に接続されている。   The center unit 32 illustrated in FIG. 12 includes a notification interface (IF) 33 corresponding to the notification IF 31 described above, a memory 34, a processor 35, a nurse call IF 23, and a database interface (DBIF) 36. The processor 35, the notification IF 33, the memory 34, the nurse call IF 23, and the DBIF 36 are connected to each other via a bus. The processor 35 of the center unit 32 is connected to the nurse call system 4 via the nurse call IF 23. The processor 35 is connected to a target person information database (DB) 6 via a DBIF 36.

図12に例示した状態検知装置では、各病室に配置されたローカルユニット30からセンタユニット32に、各対象者Pの状態を含む情報が通知される。なお、図12に示したローカルユニット30に含まれる通知IF31は、対象者Pの現在の状態をセンタユニット32に通知する際に、ローカルユニット30の設置場所あるいは対象者Pの識別情報を付加する。以下では、通知IF31により、個々の対象者を識別する対象者IDとその対象者Pの状態を示す情報とがセンタユニット32に通知される場合について説明する。   In the state detection apparatus illustrated in FIG. 12, information including the state of each subject P is notified from the local unit 30 arranged in each hospital room to the center unit 32. The notification IF 31 included in the local unit 30 shown in FIG. 12 adds the installation location of the local unit 30 or the identification information of the subject person P when notifying the center unit 32 of the current state of the subject person P. . Hereinafter, a case will be described in which the notification unit 31 notifies the center unit 32 of a target person ID for identifying an individual target person and information indicating the state of the target person P.

また、対象者情報DB6は、各対象者について看護士あるいは介助者への通知が必要とされる状態を個別に設定する情報を含んでいる。また、メモリ34に格納される通知判定プログラムは、このような対象者対応の設定に基づいて、ナースコールシステム4への通知を行うか否かを判断する手順を含む。このような通知判定プログラムを読み込むことにより、プロセッサ35は、対象者対応の設定に基づいて、ナースコールシステム4への通知を制御することができる。   Further, the target person information DB 6 includes information for individually setting a state in which notification to the nurse or the assistant is required for each target person. Further, the notification determination program stored in the memory 34 includes a procedure for determining whether or not to notify the nurse call system 4 based on such a setting corresponding to the subject. By reading such a notification determination program, the processor 35 can control the notification to the nurse call system 4 based on the setting corresponding to the subject.

図13に、対象者対応の設定に基づく通知判定処理の例を表す流れ図を示す。図13に例示した流れ図に含まれる各ステップは、ローカルユニット30から通知を受け取るごとに、上述した通知判定プログラムに基づいて、プロセッサ35によって実行される。   FIG. 13 is a flowchart illustrating an example of the notification determination process based on the target person corresponding setting. Each time the steps included in the flowchart illustrated in FIG. 13 are received from the local unit 30, the processor 35 executes the steps based on the notification determination program described above.

ステップ331で、プロセッサ35は、通知IF33を介してローカルユニット30から対象者IDと当該対象者の現在の状態を示す情報を受け取る。次いで、プロセッサ35は、対象者IDに基づいて、対象者情報DB6を参照することにより、対象者IDに対応して格納された通知対象の状態を取得する(ステップ332)。次に、プロセッサ35は、通知対象の状態とステップ331で受け取った現在の状態を照合する(ステップ333)。   In step 331, the processor 35 receives information indicating the target person ID and the current state of the target person from the local unit 30 via the notification IF 33. Next, the processor 35 refers to the target person information DB 6 based on the target person ID, thereby acquiring the notification target state stored in correspondence with the target person ID (step 332). Next, the processor 35 collates the notification target state with the current state received at step 331 (step 333).

通知対象の状態と現在の状態とが一致する場合に(ステップ334の肯定判定)、プロセッサ35は、ナースコールIF23を介してナースコールシステム4に、対象者IDで示された対象者の現在の状態が通知対象の状態であることを通知する(ステップ335)。その後、プロセッサ35は、ステップ331で受け取った通知についての処理を終了する。   When the notification target state matches the current state (Yes in step 334), the processor 35 sends the current call of the subject indicated by the subject ID to the nurse call system 4 via the nurse call IF 23. It is notified that the state is the state to be notified (step 335). Thereafter, the processor 35 ends the process for the notification received in Step 331.

一方、通知対象の状態と現在の状態とが一致しない場合に(ステップ334の否定判定)、プロセッサ35は、ナースコールシステム4への通知は行わずに、ステップ331で受け取った通知についての処理を終了する。   On the other hand, when the state to be notified does not match the current state (negative determination at step 334), the processor 35 does not notify the nurse call system 4 but performs the process for the notification received at step 331. finish.

このような処理を、センタユニット32のプロセッサ35が行うことにより、個々の対象者について異なる基準を適用して、ナースコールシステム4に対象者Pの状態を通知することができる。また、個々の対象者についての通知対象の状態は、対象者情報DB6に一括して格納されている。したがって、対象者情報DB6に格納された情報を操作することにより、対象者Pの状態を通知するか否かを判定する基準を、個々の対象者に対して必要とされるケアの内容に合わせて変更することが可能である。   Such processing is performed by the processor 35 of the center unit 32, so that different criteria can be applied to each subject person to notify the nurse call system 4 of the state of the subject person P. In addition, the notification target state for each target person is collectively stored in the target person information DB 6. Therefore, the criteria for determining whether or not to notify the state of the subject person P by manipulating the information stored in the subject person information DB 6 is matched to the content of care required for each subject person. Can be changed.

また、対象者Pの現在の状態を判別する処理を、センタユニット32に分担することもできる。この場合に、状態判別プログラム27は、センタユニット32のメモリ34に格納される。また、ローカルユニット30のプロセッサ24は、画像認識プログラム26に基づく処理を行うことにより、対象者Pの移動方向と対象者Pの体の向きを検出する。そして、この対象者Pの移動方向と対象者Pの体の向きとを含む情報と対象者IDとが、通知IF31を介してセンタユニット32に通知される。状態判別プログラム27を読み込んだプロセッサ35は、通知IF33を介して受け取った対象者Pの移動方向および対象者Pの体の向きと過去の状態とに基づいて、対象者IDで示される対象者Pの現在の状態を判別する。   Further, the center unit 32 can share the process of determining the current state of the subject person P. In this case, the state determination program 27 is stored in the memory 34 of the center unit 32. Further, the processor 24 of the local unit 30 detects the moving direction of the subject person P and the body direction of the subject person P by performing processing based on the image recognition program 26. Then, the information including the moving direction of the target person P and the body direction of the target person P and the target person ID are notified to the center unit 32 via the notification IF 31. The processor 35 that has read the state determination program 27 receives the subject P indicated by the subject ID based on the moving direction of the subject P, the body orientation of the subject P, and the past state received via the notification IF 33. Determine the current state of.

同様にして、対象者Pの移動方向および体の向きを検出する処理を、センタユニット32に分担することもできる。この場合に、各ローカルユニット30は、カメラ2によって撮像された画像をセンタユニット32に伝送する。そして、センタユニット32のプロセッサ35によって、各対象者を撮像した画像についての画像認識処理と、対象者の現在の状態を判別する処理と、対象者の現在の状態を出力する処理とが、一括して処理される。   Similarly, the process of detecting the moving direction and the body direction of the subject person P can be shared by the center unit 32. In this case, each local unit 30 transmits an image captured by the camera 2 to the center unit 32. Then, the processor 35 of the center unit 32 collectively performs an image recognition process on an image obtained by capturing each target person, a process for determining the current state of the target person, and a process for outputting the current state of the target person. Is processed.

また、センタユニット32は、クラウドサービスを利用して実現することも可能である。   The center unit 32 can also be realized using a cloud service.

なお、本件開示の状態検知装置に入力される画像は、ベッドの長手方向と交差する方向から撮像した画像でもよい。また、他のセンサの出力などを、本件開示の状態検知装置の判断基準に追加的に取り込むこともできる。例えば、ベッドの端部分などに設置した感圧センサによる加重の検出を、起床状態から離床状態への状態遷移の条件に一つに加えてもよい。これにより、対象者の離床状態を更に高い確度で検知することができる。   In addition, the image input into the state detection apparatus of this indication may be the image imaged from the direction which cross | intersects the longitudinal direction of a bed. Moreover, the output of another sensor etc. can also be taken in into the judgment criteria of the state detection apparatus of this indication. For example, the detection of the weight by a pressure sensor installed at the end of the bed or the like may be added to the condition for the state transition from the rising state to the leaving state. Thereby, the subject's bed leaving state can be detected with higher accuracy.

以上、図1〜図13を用いて説明した実施形態に関して、更に、以下の各項を開示する。
(付記1) ベッド上の対象者を撮像した画像を解析することにより、前記対象者の移動方向を検出する画像処理部と、
前記画像処理部によって検出された移動方向と前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、
前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部と、
を備えたことを特徴とする状態検知装置。
(付記2) 付記1に記載の状態検知装置において、
前記過去の状態および前記現在の状態は、前記対象者が前記ベッド上に横たわっている着床状態と、前記対象者が前記ベッド上で上半身を起こしている起床状態と、前記対象者が前記ベッドの端の部分にいる離床状態と、前記対象者が前記ベッドから離れている不在状態とを含み、
前記判別部は、複数種類の前記過去の状態ごとに異なる基準を用いて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
(付記3) 付記1または付記2に記載の状態検知装置において、
前記画像処理部は、前記画像に含まれる前記対象者の像の形状に基づいて、前記対象者の体の向きを判定し、
前記判別部は、前記画像処理部で得られる前記移動方向および前記対象者の体の向きと前記過去の状態とに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
(付記4) 付記2に記載の状態検知装置において、
前記複数種類の前記過去の状態ごとに異なる基準は、当該過去の状態を始点とする状態遷移に対応する前記対象者の移動方向が検出されるか否かである
ことを特徴とする状態検知装置。
(付記5) 付記1乃至付記4のいずれか1に記載の状態検知装置において、
前記対象者を撮像した画像は、
前記対象者を、光軸を前記ベッドの長手方向に合わせて配置されたカメラによって撮像した画像である
ことを特徴とする状態検知装置。
(付記6) 付記1乃至付記4のいずれか1に記載の状態検知装置において、
前記対象者を撮像した画像は、
1フレームおきに近赤外領域の光によって照明された前記対象者を、光軸を前記ベッドの長手方向に合わせて配置されたカメラによって撮像した画像から生成した差分画像である
ことを特徴とする状態検知装置。
(付記7) ベッド上の対象者を撮像した画像の入力を受け、
前記画像を解析することにより、前記対象者の移動方向を検出し、
前記検出された移動方向と前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、
前記判別によって得られた前記対象者の現在の状態示す情報を出力する
ことを特徴とする状態検知方法。
As described above, the following items are further disclosed with respect to the embodiment described with reference to FIGS.
(Appendix 1) An image processing unit that detects a moving direction of the subject by analyzing an image of the subject on the bed;
A discriminating unit for discriminating the current state of the subject based on the moving direction detected by the image processing unit and the past state of the subject;
An output unit that outputs information indicating the current state of the subject obtained by the determination unit;
A state detection device comprising:
(Supplementary Note 2) In the state detection device described in Supplementary Note 1,
The past state and the current state are: a landing state where the subject lies on the bed; a wake-up state where the subject wakes up on the bed; and A bed leaving state at the end of the bed, and a absent state in which the subject is away from the bed,
The said discrimination | determination part discriminate | determines the present state of the said subject using the different reference | standard for every said multiple types of said past states. The state detection apparatus characterized by the above-mentioned.
(Supplementary Note 3) In the state detection device according to Supplementary Note 1 or Supplementary Note 2,
The image processing unit determines the orientation of the subject's body based on the shape of the subject's image included in the image,
The determination unit determines a current state of the subject based on the moving direction obtained by the image processing unit, the orientation of the subject's body, and the past state. apparatus.
(Supplementary Note 4) In the state detection device described in Supplementary Note 2,
The reference different for each of the past states of the plurality of types is whether or not the moving direction of the subject corresponding to a state transition starting from the past state is detected. .
(Supplementary note 5) In the state detection device according to any one of supplementary notes 1 to 4,
The image of the subject is
The state detection device, wherein the subject is an image obtained by capturing an image of the subject with a camera arranged with an optical axis aligned with a longitudinal direction of the bed.
(Appendix 6) In the state detection device according to any one of Appendix 1 to Appendix 4,
The image of the subject is
It is a difference image generated from an image obtained by capturing the subject illuminated with light in the near-infrared region every other frame with a camera arranged with the optical axis aligned with the longitudinal direction of the bed. Condition detection device.
(Appendix 7) Receiving an image of the subject on the bed,
By detecting the moving direction of the subject by analyzing the image,
Based on the detected moving direction and the past state of the subject, determine the current state of the subject,
Outputting information indicating the current state of the subject obtained by the discrimination. A state detection method.

1…ベッド;2…カメラ;3…照明部;4…ナースコールシステム;5…照明制御部;6…対象者データベース(DB);10,20…状態検知装置;12…画像処理部;13…判別部;14…出力部;15…通知処理部;16…スピーカ;21…カメラインタフェース(IF);23…ナースコールインタフェース(IF);24,35…プロセッサ;25、34…メモリ;26…画像認識プログラム;27…状態判別プログラム;28…通知判定プログラム;30…ローカルユニット;31,33…通知インタフェース(IF);32…センタユニット;36…データベースインタフェース(DBIF) DESCRIPTION OF SYMBOLS 1 ... Bed; 2 ... Camera; 3 ... Illumination part; 4 ... Nurse call system; 5 ... Illumination control part; 6 ... Subject database (DB); 10, 20 ... State detection apparatus; Discrimination unit; 14 ... Output unit; 15 ... Notification processing unit; 16 ... Speaker; 21 ... Camera interface (IF); 23 ... Nurse call interface (IF); 24, 35 ... Processor; 25, 34 ... Memory; Recognition program; 27 ... Status determination program; 28 ... Notification determination program; 30 ... Local unit; 31, 33 ... Notification interface (IF); 32 ... Center unit; 36 ... Database interface (DBIF)

Claims (9)

ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理部と、
前記画像処理部によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別部と、
前記判別部によって得られた前記対象者の現在の状態を示す情報を出力する出力部と、
を備えたことを特徴とする状態検知装置。
Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , An image processing unit for detecting the orientation of the body ;
A determination unit that determines the current state of the subject based on the moving direction detected by the image processing unit, the orientation of the subject's body, and the past state of the subject;
An output unit that outputs information indicating the current state of the subject obtained by the determination unit;
A state detection device comprising:
請求項1に記載の状態検知装置において、
前記画像処理部は更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
前記判別部は、前記画像処理部によって検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
The state detection device according to claim 1,
The image processing unit further detects whether or not the moving direction of the subject is a direction outward from the bed,
The discriminating unit includes a moving direction indicating either a longitudinal direction or a lateral direction detected by the image processing unit, a moving direction indicating whether the direction is outward from the bed, and the subject. A state detection device that determines a current state of the subject based on a combination of a body orientation of the subject and a past state of the subject.
請求項1または請求項2に記載の状態検知装置において、
前記過去の状態および前記現在の状態は、前記対象者が前記ベッド上に横たわっている着床状態と、前記対象者が前記ベッド上で上半身を起こしている起床状態と、前記対象者が前記ベッドの端の部分にいる離床状態と、前記対象者が前記ベッドから離れている不在状態とを含み、
前記判別部は、前記複数種類の前記過去の状態ごとに異なる前記組み合わせを用いて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知装置。
In the state detection device according to claim 1 or 2,
The past state and the current state are: a landing state where the subject lies on the bed; a wake-up state where the subject wakes up on the bed; and A bed leaving state at the end of the bed, and a absent state in which the subject is away from the bed,
The said discrimination | determination part discriminate | determines the present state of the said subject using the said different combination for every said multiple types of said past states. The state detection apparatus characterized by the above-mentioned.
請求項1乃至請求項3のいずれか1項に記載の状態検知装置において、
前記画像処理部は、前記対象者の体の向きを、前記画像に含まれる前記対象者の像の形状に基づいて判定する
ことを特徴とする状態検知装置。
In the state detection device according to any one of claims 1 to 3,
Wherein the image processing unit, the orientation of the subject's body, the state detection device, wherein the determining based on the shape of the subject image contained in the image.
請求項3に記載の状態検知装置において、
前記複数種類の過去の状態ごとに異なる前記組み合わせは、当該過去の状態を始点とする状態遷移に対応する前記対象者の移動方向が検出されるか否かである
ことを特徴とする状態検知装置。
In the state detection device according to claim 3,
The combination different for each of the plurality of types of past states is whether or not the moving direction of the subject corresponding to a state transition starting from the past state is detected. .
ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出し、
検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別し、
前記判別によって得られた前記対象者の現在の状態を示す情報を出力する
ことを特徴とする状態検知方法。
Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , Detect the direction of the body ,
Based on the detected moving direction, the direction of the subject's body, and the past state of the subject, determine the current state of the subject,
Outputting information indicating the current state of the subject obtained by the discrimination. A state detection method.
請求項6に記載の状態検知方法において、
更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知方法。
In the state detection method of Claim 6,
Further, it is detected whether or not the moving direction of the subject is a direction toward the outside from the bed,
A detected moving direction indicating either the longitudinal direction or the lateral direction, a moving direction indicating whether the direction is from the bed or not, a direction of the subject's body, and the subject 's body A state detection method comprising: determining a current state of the target person based on a combination with a past state.
ベッドを撮像範囲に含む撮像装置により撮像された複数の画像を解析し、画像内に含まれる対象者の移動方向が、該ベッドの長手方向であるか横方向であるかと、該対象者の体の向きとを検出する画像処理工程と、
前記画像処理工程によって検出された移動方向と、前記対象者の体の向きと、前記対象者の過去の状態とに基づいて、前記対象者の現在の状態を判別する判別工程と、
前記判別工程によって得られた前記対象者の現在の状態を示す情報を出力する出力工程と、
をコンピュータに実行させることを特徴とする状態検知プログラム。
Analyzing a plurality of images captured by the imaging device including the bed in the imaging range, whether the moving direction of the subject included in the image is the longitudinal direction or the lateral direction of the bed , An image processing step for detecting the orientation of the body ;
A determination step of determining the current state of the subject based on the moving direction detected by the image processing step, the orientation of the subject's body, and the past state of the subject;
An output step of outputting information indicating the current state of the subject obtained by the determination step;
A state detection program for causing a computer to execute.
請求項8に記載の状態検知プログラムにおいて、
前記画像処理工程は更に、前記対象者の移動方向が、前記ベッドから外へ向かう方向か否かを検出し、
前記判別工程は、前記画像処理工程によって検出された長手方向または横方向のいずれかを示す移動方向と前記ベッドから外へ向かう方向か否かのいずれであるかを示す移動方向と、前記対象者の体の向きと、前記対象者の過去の状態との組み合わせに基づいて、前記対象者の現在の状態を判別する
ことを特徴とする状態検知プログラム。
In the state detection program according to claim 8,
The image processing step further detects whether or not the moving direction of the subject is a direction toward the outside from the bed,
The determining step includes a moving direction indicating either a longitudinal direction or a lateral direction detected by the image processing step, a moving direction indicating whether the direction is outward from the bed, and the subject. A state detection program for determining a current state of the subject based on a combination of a body orientation of the subject and a past state of the subject.
JP2011032223A 2011-02-17 2011-02-17 Status detection device, status detection method, and status detection program Active JP5782737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011032223A JP5782737B2 (en) 2011-02-17 2011-02-17 Status detection device, status detection method, and status detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011032223A JP5782737B2 (en) 2011-02-17 2011-02-17 Status detection device, status detection method, and status detection program

Publications (2)

Publication Number Publication Date
JP2012170483A JP2012170483A (en) 2012-09-10
JP5782737B2 true JP5782737B2 (en) 2015-09-24

Family

ID=46973978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032223A Active JP5782737B2 (en) 2011-02-17 2011-02-17 Status detection device, status detection method, and status detection program

Country Status (1)

Country Link
JP (1) JP5782737B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5915199B2 (en) * 2012-01-20 2016-05-11 富士通株式会社 Status detection device and status detection method
JP6171415B2 (en) * 2013-03-06 2017-08-02 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP6182917B2 (en) * 2013-03-15 2017-08-23 ノーリツプレシジョン株式会社 Monitoring device
JP6115335B2 (en) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP2015139550A (en) * 2014-01-29 2015-08-03 シャープ株式会社 Bed-leaving determination device and bed-leaving determination method
JP6264181B2 (en) * 2014-05-07 2018-01-24 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP6340957B2 (en) * 2014-07-02 2018-06-13 株式会社デンソー Object detection apparatus and object detection program
JP6454506B2 (en) * 2014-09-19 2019-01-16 アイホン株式会社 Nurse call system
JP2016120190A (en) * 2014-12-25 2016-07-07 アイホン株式会社 Leaving bed detecting device
JP2016120189A (en) * 2014-12-25 2016-07-07 アイホン株式会社 Leaving bed detecting device
JP6455234B2 (en) * 2015-03-03 2019-01-23 富士通株式会社 Action detection method and action detection apparatus
JP2016202384A (en) * 2015-04-17 2016-12-08 株式会社デンソー Bed-leaving behavior detection device
JP6856026B2 (en) * 2015-10-06 2021-04-07 コニカミノルタ株式会社 Behavior detection system, behavior detection device, behavior detection method, and behavior detection program
JP6590689B2 (en) * 2015-12-25 2019-10-16 キヤノン株式会社 Inspection system, portable information terminal, and inspection method
JP6292363B2 (en) * 2016-02-24 2018-03-14 コニカミノルタ株式会社 Terminal device, terminal device display method, and monitored person monitoring system
WO2018012432A1 (en) * 2016-07-12 2018-01-18 コニカミノルタ株式会社 Behavior determination device and behavior determination method
JP6804330B2 (en) * 2017-02-27 2020-12-23 アイホン株式会社 Nurse call system
JP6406371B2 (en) * 2017-03-02 2018-10-17 オムロン株式会社 Watch support system and control method thereof
JP6717235B2 (en) 2017-03-02 2020-07-01 オムロン株式会社 Monitoring support system and control method thereof
JP7180601B2 (en) * 2017-08-10 2022-11-30 コニカミノルタ株式会社 SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM
WO2019031012A1 (en) * 2017-08-10 2019-02-14 コニカミノルタ株式会社 Action detection device and method therefor, and monitored person monitoring assist system
WO2019031011A1 (en) * 2017-08-10 2019-02-14 コニカミノルタ株式会社 Sleep state detection device and method therefor, and monitored person monitoring assist system
JP6959898B2 (en) * 2018-09-26 2021-11-05 Kddi株式会社 Information processing equipment, support methods, and support systems
JP6620210B2 (en) * 2018-11-07 2019-12-11 アイホン株式会社 Nurse call system
CN111686378B (en) * 2020-07-14 2023-02-17 上海联影医疗科技股份有限公司 Bed body movement precision detection method, device, equipment and storage medium
CN114333228B (en) * 2020-09-30 2023-12-08 北京君正集成电路股份有限公司 Intelligent video nursing method for infants
WO2023042310A1 (en) * 2021-09-15 2023-03-23 三菱電機株式会社 Monitoring system and monitoring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345766A (en) * 2001-03-19 2002-12-03 Fuji Electric Co Ltd Condition detector
JP2007020844A (en) * 2005-07-15 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method for detecting motion of leaving one's sickbed
JP4579865B2 (en) * 2006-06-05 2010-11-10 日本電信電話株式会社 Rise detection device

Also Published As

Publication number Publication date
JP2012170483A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
JP5782737B2 (en) Status detection device, status detection method, and status detection program
JP6717235B2 (en) Monitoring support system and control method thereof
WO2016143641A1 (en) Posture detection device and posture detection method
US10121062B2 (en) Device, system and method for automated detection of orientation and/or location of a person
JP6232165B2 (en) Occupancy detection
JP6500785B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6297822B2 (en) Detection device, detection system, and detection method
JP6417670B2 (en) Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP2013152669A (en) Image monitoring device
CN106605238A (en) Occupancy monitoring
US10509967B2 (en) Occupancy detection
JP2011053005A (en) Monitoring system
JP5812948B2 (en) Patient recognition device
WO2018235628A1 (en) Monitoring assistance system, control method therefor, and program
JPWO2017029841A1 (en) Image analysis apparatus, image analysis method, and image analysis program
JP5870230B1 (en) Watch device, watch method and watch program
CN110415486B (en) Attitude determination method, electronic system and non-transitory computer readable recording medium
JP2018143285A (en) Biological state determination apparatus, biological state determination system and biological state determination method
JP2016143071A (en) Specific motion detection system
JP5982835B2 (en) Detection apparatus, detection method, and detection program
JP2023051147A (en) Nurse call system and state determination system
JP2023051149A (en) Nurse call system and state determination system
WO2019013104A1 (en) Monitoring assistance system and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150706

R150 Certificate of patent or registration of utility model

Ref document number: 5782737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150