JP2018082745A - Posture determination device and notification system - Google Patents

Posture determination device and notification system Download PDF

Info

Publication number
JP2018082745A
JP2018082745A JP2016225872A JP2016225872A JP2018082745A JP 2018082745 A JP2018082745 A JP 2018082745A JP 2016225872 A JP2016225872 A JP 2016225872A JP 2016225872 A JP2016225872 A JP 2016225872A JP 2018082745 A JP2018082745 A JP 2018082745A
Authority
JP
Japan
Prior art keywords
determination
posture
image
subject
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016225872A
Other languages
Japanese (ja)
Other versions
JP6791731B2 (en
Inventor
大輔 櫛田
Daisuke Kushida
大輔 櫛田
卓也 空田
Takuya Sorada
卓也 空田
小谷悠太
Yuta Kotani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
K'S KK
Tottori University NUC
Original Assignee
K'S KK
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by K'S KK, Tottori University NUC filed Critical K'S KK
Priority to JP2016225872A priority Critical patent/JP6791731B2/en
Publication of JP2018082745A publication Critical patent/JP2018082745A/en
Application granted granted Critical
Publication of JP6791731B2 publication Critical patent/JP6791731B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a posture determination device by which to accurately determine a posture of a patient, etc. even in such a state that a quilt is used on a bed, and a notification system by which to notify in such a case where there is a possible risk.SOLUTION: A posture determination device 1 acquires a determination image formed with a depth value by determination image acquisition means 10 to eliminate an influence of a quilt, forms divided images by dividing the determination image into images at each constant distance using the depth value in posture determination means 20, and performs posture determination on an object person S using the divided images.SELECTED DRAWING: Figure 8

Description

本発明は、ベッド上における対象者の姿勢を判定する姿勢判定装置及びベッド上における対象者の姿勢を判定することで、ベッドから転落のおそれがある際等に通報する通報システムに関する。   The present invention relates to a posture determination device that determines the posture of a subject on a bed and a notification system that reports when there is a risk of falling from the bed by determining the posture of the subject on the bed.

入院している患者や高齢者がベッドから転落する事故が問題となっていることから、このような転落事故に関連する様々な技術が知られている。その一例として、ベッドの横に荷重を検出するセンサを配置し、センサで荷重が検出されると患者等の転落が生じたとして通報する装置や、ベッド上にセンサを配置し、荷重が検出されなくなると患者等の転落が生じたとして通報する装置が知られている。   Various problems related to such a fall accident are known because an accident in which a patient or an elderly person falls from a bed has become a problem. As an example, a sensor that detects the load is placed beside the bed, and when the load is detected by the sensor, a device that reports that a patient has fallen or a sensor is placed on the bed to detect the load. There is known an apparatus that reports that a patient or the like has fallen when it disappears.

また、本願の発明者自身が開発した技術として、特許文献1にある患者に取り付けたセンサにより姿勢情報を取得して、その姿勢情報に基づいて転落の危険度を算出するシステムが知られている。   Further, as a technology developed by the inventors of the present application, a system is known that acquires posture information by a sensor attached to a patient in Patent Document 1 and calculates the risk of falling based on the posture information. .

しかしながら、ベッドの横に荷重センサを配置する装置は、誤報が多くまた荷重が検出された後で通報することから転落を防ぐことは難しい等の難点がある。また、ベッドの上に荷重センサを配置する装置は、体重の違いによる誤作動が生じやすく、また汗や水分等によるセンサの誤作動、故障が多い等の難点がある。また、特許文献1の患者自身にセンサを取り付ける方法は、患者自身が取り付けたセンサを不快に感じ、センサを勝手に取り外してしまったり、手術等の影響で適切な位置にセンサを取り付けることができない等の難点がある。   However, an apparatus that arranges a load sensor beside the bed has many drawbacks such as many false alarms and it is difficult to prevent a fall because it reports after the load is detected. In addition, a device in which a load sensor is arranged on a bed is prone to malfunction due to a difference in body weight, and has problems such as malfunction of the sensor due to sweat or moisture, and many failures. Moreover, the method of attaching a sensor to the patient himself / herself in Patent Document 1 feels uncomfortable with the sensor attached by the patient himself, cannot remove the sensor without permission, or cannot attach the sensor to an appropriate position due to the influence of surgery or the like. There are difficulties such as.

そこで、特許文献2にあるようにベッド上の患者の画像を取得して、その画像を基に姿勢を推定する装置が知られている。また、本願の発明者自身も、ベッド上の患者の画像を取得し、その画像を基に姿勢を判定する研究を行い、その内容について非特許文献1として既に発表を行っている。   Therefore, as disclosed in Patent Document 2, an apparatus that acquires an image of a patient on a bed and estimates the posture based on the image is known. The inventor of the present application has also acquired a patient image on the bed and conducted a study to determine the posture based on the image, and the contents thereof have already been published as Non-Patent Document 1.

特開2015−103042号公報Japanese Patent Laying-Open No. 2015-103042 特開2014−236896号公報JP 2014-236896 A

「ビジョンセンサを用いた入院患者のベッド上における姿勢推定」、第24回計測自動制御学会中国支部学術講演会論文集、2015年、p.150−151"Posture estimation on inpatient's bed using vision sensor", Proc. 24th Annual Conference of the Society of Instrument and Control Engineers China Chapter, 2015, p. 150-151

非特許文献1による姿勢判定は、ベッド上で掛け布団を使用していない状況で患者の姿勢を判定すると高い精度で判定できたが、掛け布団を使用している状況で患者の姿勢を判定すると掛け布団の影響で姿勢判定の精度が著しく低下してしまうという問題が見つかった。姿勢判定装置を実際の現場で使用することを想定すると、ベッド上の患者は通常掛け布団を使用しているので、この掛け布団による姿勢判定精度の低下という問題を解決することは非常に重要である。   The posture determination according to Non-Patent Document 1 can be determined with high accuracy when determining the posture of the patient in a situation where the comforter is not used on the bed, but if the posture of the patient is determined in the situation where the comforter is used, A problem has been found that the accuracy of posture determination is significantly reduced by the influence. Assuming that the posture determination device is used at an actual site, the patient on the bed usually uses a comforter. Therefore, it is very important to solve the problem of the accuracy of posture determination due to the comforter.

そこで、本発明は、ベッド上で掛け布団を使用している様な状態でも精度よく患者等の姿勢を判定することができる姿勢判定装置及び危険なおそれがある際等に通報することができる通報システムに関する。   Therefore, the present invention provides a posture determination device that can accurately determine the posture of a patient or the like even when a comforter is used on a bed, and a notification system that can report when there is a risk of danger. About.

上記課題を解決するため、本発明の姿勢判定装置は、深度値により形成される判定画像を取得する判定画像取得手段と、前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、を備えることを特徴とする。   In order to solve the above-described problem, the posture determination apparatus according to the present invention divides the determination image into images at fixed distances using determination image acquisition means for acquiring a determination image formed by depth values and the depth value. Posture determination means for performing posture determination of the subject person based on the segmented image.

また、前記姿勢判定手段は、前記区分画像から動きがある動体画像を検出する動体検出手段と、異なる前記区分画像の動体画像を合成して合成動体画像を形成する合成動体画像形成手段と、を備え、前記合成動体画像により前記対象者の姿勢を判定することを特徴とする。   In addition, the posture determination unit includes a moving object detection unit that detects a moving object image having a motion from the segmented image, and a combined moving object image forming unit that combines the moving object images of the different segment images to form a combined moving image. And the posture of the subject is determined from the synthesized moving body image.

また、前記姿勢判定手段は、前記合成動体画像について、テンプレート画像を用いたテンプレートマッチングを行うことで姿勢を判定するテンプレートマッチング手段を備えていることを特徴とする。   In addition, the posture determination unit includes a template matching unit that determines a posture by performing template matching using a template image for the synthesized moving body image.

また、本発明の通報システムは、深度値により形成される判定画像を取得する判定画像取得手段と、前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、前記姿勢判定手段による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段と、前記通報判定手段の判定結果に基づいて通報を行う通報手段と、を備えることを特徴とする。   In addition, the notification system of the present invention includes a determination image acquisition unit that acquires a determination image formed by a depth value, and a classification image obtained by dividing the determination image into images of a certain distance using the depth value. Posture determination means for performing posture determination, notification determination means for determining whether or not to report based on a determination result by the posture determination means, and notification means for performing notification based on a determination result of the notification determination means It is characterized by providing.

本発明の姿勢判定装置は、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団のように対象者の姿勢判定に邪魔になるものが写っている判定画像において、邪魔なものがない区分画像を基にして姿勢判定を行うことができる。   The posture determination apparatus of the present invention acquires a determination image formed by depth values, and performs posture determination based on segmented images divided into images at fixed distances using the depth values. In a determination image in which an object that interferes with the determination of the posture of the subject, such as a comforter, is present, posture determination can be performed based on a segmented image that has no obstruction.

また、具体的には、各区分画像から動体画像を検出し、異なる区分画像の動体画像を合成した合成動体画像で姿勢を判定するので、掛け布団のような邪魔なものが動体画像として検出されていても、掛け布団が検出されるまでの合成動体画像により対象者の姿勢を判定することができる。   Specifically, since moving body images are detected from each segmented image and the posture is determined based on a synthesized moving body image obtained by synthesizing moving body images of different segmented images, obstructive objects such as comforters are detected as moving body images. Even so, the posture of the subject can be determined from the synthesized moving body image until the comforter is detected.

また、具体的には、テンプレート画像を用いたテンプレートマッチングにより姿勢判定を行うので、精度よく高速に姿勢判定を行うことができる。   Specifically, since posture determination is performed by template matching using a template image, posture determination can be performed with high accuracy and at high speed.

また、本発明の通報システムは、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団のように対象者の姿勢判定に邪魔になるものが写っている判定画像において、邪魔なものがない区分画像を基にして姿勢判定を行うことができる。また本発明の通報システムは、姿勢判定の判定結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うので、例えば、病院や介護施設のように多くの判定対象者がいる施設での使用に適している。   In addition, the notification system of the present invention acquires a determination image formed by the depth value, and performs posture determination based on the segmented image divided into images at fixed distances using the depth value. In a determination image in which an object that interferes with the determination of the posture of the subject, such as a comforter, is present, posture determination can be performed based on a segmented image that does not interfere. In addition, the notification system of the present invention determines whether or not to report based on the determination result of the posture determination, and performs notification based on the determination result. For example, many determinations such as hospitals and care facilities Suitable for use in facilities where the subject is located.

実施形態1の姿勢判定装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the attitude | position determination apparatus of Embodiment 1. 実施形態1の姿勢判定装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the attitude | position determination apparatus of Embodiment 1. 実施形態1の姿勢判定装置の使用例を示した図である。It is the figure which showed the usage example of the attitude | position determination apparatus of Embodiment 1. FIG. 比較例の姿勢判定装置の使用例を示した図である。It is the figure which showed the usage example of the attitude | position determination apparatus of a comparative example. (A)は比較例の姿勢判定装置におけるDepthマップの一例であり、(B)は背景差分法により検出された対象者の画像の一例である。(A) is an example of a depth map in the posture determination apparatus of the comparative example, and (B) is an example of an image of the subject detected by the background difference method. (A)〜(D)は、比較例の姿勢判定装置における姿勢判定の手法の具体例である。(A)-(D) are the specific examples of the attitude | position determination method in the attitude | position determination apparatus of a comparative example. 比較例の姿勢判定装置において、掛け布団が使用されている場合に検出される対象者の画像の一例である。It is an example of the image of the subject detected when the comforter is used in the posture determination apparatus of the comparative example. 実施形態1の姿勢判定装置における区分の概念図である。It is a conceptual diagram of the division | segmentation in the attitude | position determination apparatus of Embodiment 1. FIG. 実施形態1の姿勢判定装置において区分毎に検出された姿勢P2での動体画像の一例である。It is an example of the moving body image in the attitude | position P2 detected for every division in the attitude | position determination apparatus of Embodiment 1. FIG. 実施形態1の姿勢判定装置における合成動体画像形成手段とテンプレートマッチング手段での合成動体画像形成処理及び姿勢判定処理のフローチャートである。6 is a flowchart of a combined moving image forming process and a posture determining process performed by a combined moving object image forming unit and a template matching unit in the posture determining apparatus according to the first embodiment. 実施形態1の姿勢判定装置における姿勢判定のイメージ図である。It is an image figure of attitude | position determination in the attitude | position determination apparatus of Embodiment 1. FIG. 実施形態1の姿勢判定装置を用いた検証における検証環境の条件である。It is the conditions of the verification environment in verification using the attitude | position determination apparatus of Embodiment 1. FIG. 実施形態1の姿勢判定装置と比較例の姿勢判定装置における検証結果であり、(A)は掛け布団無しの検証結果、(B)は掛け布団有りの検証結果である。It is a verification result in the posture determination apparatus of Embodiment 1 and the posture determination apparatus of a comparative example, (A) is a verification result without a comforter, and (B) is a verification result with a comforter. 実施形態2の通報システムの使用例を示した図である。It is the figure which showed the usage example of the notification system of Embodiment 2. FIG.

以下、本発明の具体例について図面を用いて詳細に説明する。但し、以下に示す実施形態は、本発明の技術的思想を具体化するための例示であって、本発明をこの実施形態に特定することを意図するものではなく、本発明は、特許請求の範囲に含まれるその他の実施形態にも等しく適応し得るものである。   Hereinafter, specific examples of the present invention will be described in detail with reference to the drawings. However, the embodiment shown below is an example for embodying the technical idea of the present invention, and is not intended to specify the present invention to this embodiment. Other embodiments within the scope are equally applicable.

[実施形態1]
まず、図1、図2を参照して、本実施形態の姿勢判定装置1の基本的な構成を説明する。図1は、姿勢判定装置1のハードウェア構成を示すブロック図であり、図2は、姿勢判定装置の機能構成を示すブロック図である。
[Embodiment 1]
First, with reference to FIG. 1 and FIG. 2, a basic configuration of the posture determination apparatus 1 of the present embodiment will be described. FIG. 1 is a block diagram illustrating a hardware configuration of the posture determination device 1, and FIG. 2 is a block diagram illustrating a functional configuration of the posture determination device.

姿勢判定装置1は、図1に示すように、入力部2、制御部3、記憶部4、出力部5、通信部6を備えている。   As shown in FIG. 1, the posture determination apparatus 1 includes an input unit 2, a control unit 3, a storage unit 4, an output unit 5, and a communication unit 6.

入力部2は、姿勢判定装置1で姿勢判定を行う対象者が含まる範囲について、深度値の情報により形成さる画像を取得するものであり、いわゆる距離画像センサと呼ばれるものである。本実施形態においては、具体的には、入力部2は、ベッド上の対象者を含む画像を取得するためのカメラ2aと、カメラ2aで撮影する画像内の被写体までの深度に関する深度情報を取得する深度センサ2bと、を備えて構成されている。このような構成の距離画像センサとして、Microsoft社製のKINECT(登録商標)が知られている。   The input unit 2 acquires an image formed based on depth value information for a range including a subject whose posture is determined by the posture determination device 1, and is called a so-called distance image sensor. In the present embodiment, specifically, the input unit 2 acquires a camera 2a for acquiring an image including the target person on the bed and depth information regarding the depth to the subject in the image captured by the camera 2a. And a depth sensor 2b. As a distance image sensor having such a configuration, KINET (registered trademark) manufactured by Microsoft Corporation is known.

なお、本実施形態において、このKINECTを用いて、深度値により形成さる画像を取得しているが、当然ながらこれ以外のものを用いても構わない。また、KINECTには音情報を取得するためのマイクロフォンが備わっている。したがって、このマイクロフォンを入力部2として用い、音情報を取得しても構わない。また、姿勢判定に音情報も活用できる場合には、KINECTに限らず入力部2としてマイクロフォンを含むこともできる。また、入力部2は、図示していないが、カメラ2a、深度センサ2bの他に、例えば、姿勢判定の対象者となる人の名前を入力する等、姿勢判定装置1への情報を入力するためのキーボードやタッチパネル等の入力装置を含んでいても構わない。   In the present embodiment, the image formed by the depth value is acquired using this KINECT, but other than this, it is needless to say. In addition, KINECT is provided with a microphone for acquiring sound information. Therefore, this microphone may be used as the input unit 2 to acquire sound information. When sound information can also be used for posture determination, the input unit 2 can include a microphone as well as KINECT. In addition to the camera 2a and the depth sensor 2b, the input unit 2 inputs information to the posture determination device 1, for example, the name of a person who is a subject of posture determination, although not shown. For example, an input device such as a keyboard or a touch panel may be included.

制御部3は、CPU、RAM、ROM等からなり、後述の姿勢判定を行うプログラム等、記憶されているプログラムに基づいて各種の処理を実行する。記憶部4は、DRAMやHDDのような記憶装置であり、入力部2で取得した画像データを一時的に記憶しておく等、
各種のデータ等を記憶しておく。出力部5は、表示装置やスピーカ等からなり、姿勢判定の結果等を映像や音を用い出力する。
The control unit 3 includes a CPU, a RAM, a ROM, and the like, and executes various processes based on stored programs such as a program for performing posture determination described later. The storage unit 4 is a storage device such as a DRAM or HDD, and temporarily stores image data acquired by the input unit 2.
Various data and the like are stored. The output unit 5 includes a display device, a speaker, and the like, and outputs an attitude determination result and the like using video and sound.

通信部6は、インターネットやLAN等を介して携帯端末等の他の機器と通信を行うものである。この通信部6を介することで、姿勢判定装置1は姿勢判定の結果等を他の機器にも出力することができる。   The communication unit 6 communicates with other devices such as a mobile terminal via the Internet or a LAN. Through the communication unit 6, the posture determination device 1 can output the posture determination result and the like to other devices.

このような姿勢判定装置1は、図2に示すように、判定画像取得手段10と、姿勢判定手段20と、判定結果出力手段30を備えている。判定画像取得手段10は、主に入力部2によって構成されており、姿勢の判定を行う対象者が含まれるとともに、深度値により形成される判定画像を取得する。   As shown in FIG. 2, the posture determination apparatus 1 includes a determination image acquisition unit 10, a posture determination unit 20, and a determination result output unit 30. The determination image acquisition unit 10 is mainly configured by the input unit 2 and includes a target person who performs posture determination and acquires a determination image formed by a depth value.

また、姿勢判定手段20は、主に制御部3や記憶部4によって構成されており、判定画像取得手段10を介して取得した判定画像について、その判定画像に含まれる深度値を用いて対象者の姿勢を判定する。とくに本実施形態における姿勢判定手段20は、深度値を用いて判定画像を一定距離毎の画像に区分けし、この区分画像を用いて対象者の姿勢を判定することを特徴としている。   In addition, the posture determination unit 20 is mainly configured by the control unit 3 and the storage unit 4, and uses the depth value included in the determination image for the determination image acquired via the determination image acquisition unit 10. Determine the posture. In particular, the posture determination means 20 according to the present embodiment is characterized in that the determination image is divided into images for every predetermined distance using the depth value, and the posture of the subject is determined using this divided image.

このような姿勢判定を実現するための一例として、姿勢判定手段20は、更に、判定画像区分手段21と、動体検出手段22と、合成動体画像形成手段23と、テンプレートマッチング手段24を備えている。   As an example for realizing such posture determination, the posture determination unit 20 further includes a determination image classification unit 21, a moving body detection unit 22, a combined moving body image formation unit 23, and a template matching unit 24. .

詳細は具体例とともに後述するが、判定画像区分手段21は、判定画像取得手段10を介して取得した判定画像について、含まれている深度値を用いて一定距離毎の画像に区分けした区分画像を作成する。そして動体検出手段22は、この区分画像から動きがある動体画像を検出する。そして合成動体画像形成手段23は、異なる区分画像の動体画像同士を合成して合成動体画像を形成する。そしてテンプレートマッチング手段24は、合成動体画像を用い、各姿勢のテンプレートとのマッチングを行い合致する姿勢を対象者の姿勢として判定する。   Although details will be described later along with a specific example, the determination image classification unit 21 divides the determination image acquired via the determination image acquisition unit 10 into an image for each predetermined distance using the included depth value. create. Then, the moving object detection unit 22 detects a moving object image having a movement from the segmented image. Then, the synthesized moving body image forming unit 23 synthesizes moving body images of different segment images to form a synthesized moving body image. Then, the template matching unit 24 uses the synthesized moving body image to perform matching with the template of each posture and determines the matching posture as the posture of the subject person.

つまり、本実施形態の姿勢判定手段20は、掛け布団による影響を排除するために、一定距離毎の区分画像をつくり、この区分画像から抽出した動体画像を順次合成して合成動体画像を形成して、テンプレートマッチングを行うことで、掛け布団が出現するまでの距離にある合成動体画像によって姿勢を判定する。   In other words, the posture determination means 20 of the present embodiment creates a segmented image for each predetermined distance in order to eliminate the influence of the comforter, and sequentially synthesizes the moving body images extracted from the segmented images to form a synthesized moving body image. By performing template matching, the posture is determined based on the synthesized moving body image at a distance until the comforter appears.

判定結果出力手段30は、主に出力部5によって構成されており、姿勢判定手段20により判定された対象者の姿勢結果についてモニタ等を用いて出力する。姿勢結果の出力については、例えば、上体を起こしている姿勢が判定された場合に、『上体を起こしている姿勢』であることがわかるように、文字で表示したり、音声で出力する。また、判定結果出力手段30は、判定した結果を随時出力するのではなく、対象者がベッド上から転落する可能性が高い姿勢を検出したときのみ出力するようにしてもよい。   The determination result output unit 30 is mainly configured by the output unit 5 and outputs the posture result of the subject determined by the posture determination unit 20 using a monitor or the like. As for the output of the posture result, for example, when the posture of raising the upper body is determined, it is displayed in text or output in voice so that it can be understood that it is “the posture of raising the upper body” . Further, the determination result output means 30 may output the determination result only when it detects a posture in which the subject is highly likely to fall from the bed.

このような構成の姿勢判定装置1について、次に実際の使用例を基に説明を行う。図3は、姿勢判定装置1の使用例を示した図である。姿勢判定装置1は、ベッドBを使用する対象者SのベッドB上での姿勢を、判定画像取得手段10により取得した画像を用いて判定する。   Next, the posture determination apparatus 1 having such a configuration will be described based on an actual usage example. FIG. 3 is a diagram illustrating a usage example of the posture determination apparatus 1. The posture determination apparatus 1 determines the posture of the subject S who uses the bed B on the bed B using the image acquired by the determination image acquisition unit 10.

判定画像取得手段10を構成する入力部2の距離画像センサとして、先にも説明したようにMicrosoft社製のKINECT(登録商標)を用いた。この入力部2は、対象者Sを撮影する必要があるため、対象者Sの近傍に設置されるが、それ以外の姿勢判定手段20や判定結果出力手段30を構成するハードウェアに関しては、ベッドBが設置されている部屋とは異なる部屋に通常配置されている。例えば、病院内での使用を想定した場合には、入力部2は入院患者のベッド上に設置され、それ以外の構成については、ナースステーションのような場所に設置される。   As described above, KINET (registered trademark) manufactured by Microsoft Corporation was used as the distance image sensor of the input unit 2 constituting the determination image acquisition unit 10. Since the input unit 2 needs to photograph the subject S, the input unit 2 is installed in the vicinity of the subject S. However, the hardware constituting the posture determination unit 20 and the determination result output unit 30 is not limited to the bed. It is usually arranged in a room different from the room where B is installed. For example, when it is assumed to be used in a hospital, the input unit 2 is installed on the bed of the inpatient, and other configurations are installed in a place such as a nurse station.

なお、姿勢判定装置1は、姿勢判定手段20や判定結果出力30を構成するハードウェアについても、ベッドBが設置されている部屋に配置することもできる。この場合、判定結果出力手段30によって対象者Sが危険な状態であることを知らせる必要があるため、判定結果出力手段30は、警報音等、音声による出力が好ましい。   Note that the posture determination device 1 can also be arranged in the room in which the bed B is installed with respect to the hardware constituting the posture determination means 20 and the determination result output 30. In this case, since it is necessary to notify that the subject S is in a dangerous state by the determination result output means 30, the determination result output means 30 is preferably output by sound such as an alarm sound.

また、入力部2の設置場所は、例えば部屋の天井等に設置しても構わないが、本実施形態では図3に示しているように、ベッドBの頭部側に設置して、撮影面を対象者Sの足元に向けている。これは対象者Sの視界に入り難いベッドBの頭部側に設置することで、入力部2が視界に入って常に監視されているという対象者Sの心理的負担を軽減する為である。   The installation location of the input unit 2 may be installed on the ceiling of a room, for example, but in this embodiment, as shown in FIG. Is directed toward the subject S's feet. This is for reducing the psychological burden of the subject S that the input unit 2 enters the view and is always monitored by being installed on the head side of the bed B that is difficult to enter the view of the subject S.

判定画像取得手段10で取得された判定画像のデータは、姿勢判定装置1の姿勢判定手段20へと送られる。そして、判定画像取得手段10で取得された判定画像を基に、姿勢判定手段20により対象者Sの姿勢が判定されることになる。   The data of the determination image acquired by the determination image acquisition unit 10 is sent to the attitude determination unit 20 of the attitude determination device 1. Then, based on the determination image acquired by the determination image acquisition unit 10, the posture of the subject S is determined by the posture determination unit 20.

ここで、本実施形態における姿勢判定手段20における姿勢判定の具体例を説明する前に、本願の発明者が先に非特許文献1で発表した姿勢判定の具体的内容について比較例としてまず説明を行う。   Here, before describing a specific example of posture determination in the posture determination means 20 in the present embodiment, the specific contents of posture determination previously disclosed in Non-Patent Document 1 by the inventor of the present application will be first described as a comparative example. Do.

[比較例]
図4は、比較例となる姿勢判定装置1Aの使用例を示した図である。比較例の姿勢判定装置1Aは、図1で示した本実施形態の姿勢判定装置1とハードウェア構成は同様となっている。また、姿勢判定装置1Aは、姿勢判定装置1と同様の判定画像取得手段10Aと、判定結果出力手段30Aを備えている。そして、姿勢判定装置1Aが姿勢判定装置1と異なる点は、姿勢判定手段20Aである。
[Comparative example]
FIG. 4 is a diagram illustrating a usage example of the posture determination apparatus 1A as a comparative example. The posture determination device 1A of the comparative example has the same hardware configuration as the posture determination device 1 of the present embodiment shown in FIG. In addition, the posture determination device 1A includes a determination image acquisition unit 10A similar to the posture determination device 1 and a determination result output unit 30A. The difference between the posture determination device 1A and the posture determination device 1 is a posture determination unit 20A.

姿勢判定装置1Aは、姿勢判定装置1と同様に、KINECT(登録商標)からなる判定画像取得手段10Aにより、まず深度値の含まれる判定画像を取得する。なお、このKINECTには、512×424[pixel]の平面内に奥行の距離を取得する機能がある。   Similar to the posture determination device 1, the posture determination device 1A first acquires a determination image including a depth value by the determination image acquisition unit 10A made of KINET (registered trademark). Note that this KINECT has a function of acquiring a depth distance in a 512 × 424 [pixel] plane.

判定画像は、0.5〜8.0(m)までの奥行データを分解能256にてグレースケール化した深度マップ(Depthマップ)として2次元画像に変換したものを用いる。図5(A)には、このDepthマップの一例を示している。なお、このDepthマップの取得には赤外線が用いられている。赤外線を用いることで、医療従事者等が少なくなる夜間の暗い室内においても平面内に三次元情報を読み取ることができ、また個人の顔を識別できないため対象者のプライバシーが守られる。   The determination image is obtained by converting depth data from 0.5 to 8.0 (m) into a two-dimensional image as a depth map (Depth map) that is grayscaled at a resolution of 256. FIG. 5A shows an example of the depth map. In addition, infrared rays are used for obtaining the depth map. By using infrared rays, it is possible to read three-dimensional information in a plane even in a dark room at night when there are fewer medical workers and the like, and the privacy of the subject can be protected because the individual's face cannot be identified.

このDepthマップからなる判定画像を用いて、姿勢判定手段20Aの動体検出手段21Aにより、対象者Sを動体として検出する。この動体検出の具体的な方法として、背景差分法を用いている。背景差分法は、対象者Sのいない環境を背景画像として取得しておき、背景画像との比較によって背景画像になかったものを抽出するというものであり、これにより背景画像にない対象者Sを動体として検出する。   The subject S is detected as a moving object by the moving object detecting means 21A of the posture determining means 20A using the determination image made up of the depth map. The background subtraction method is used as a specific method of moving object detection. In the background subtraction method, an environment in which no subject S is present is acquired as a background image, and what is not included in the background image is extracted by comparison with the background image. Detect as a moving object.

図5(B)には、この背景差分法により動体として検出された対象者Sの画像の一例を示している。背景画像になかったものだけが図5(B)ではグレーで示されており、グレー部分は対象者Sである。なお、図5(B)では対象者がグレーで示されているが、本発明者が実際に用いた装置では赤色で示している。   FIG. 5B shows an example of an image of the subject S detected as a moving object by the background difference method. Only what was not in the background image is shown in gray in FIG. 5B, and the gray portion is the subject S. In FIG. 5B, the subject is shown in gray, but the device actually used by the inventor is shown in red.

なお、ベッドBの奥(対象者Sの足元よりも奥側)で対象者S以外の者が動くとその動きも動体として検出され誤判定が生じるので、Depthマップがもつ深度値を用いて、動体検出の範囲は2mまでとして、2m以上の距離を検出の対象外としている。   In addition, when a person other than the target person S moves in the back of the bed B (back side of the target person S), the movement is also detected as a moving object, and erroneous determination occurs. Therefore, using the depth value of the depth map, The moving object detection range is up to 2 m, and distances of 2 m or more are excluded from detection.

つぎに、動体検出手段21Aで検出した動体の画像について、テンプレートマッチング手段22Aにて姿勢の判定を行う。姿勢判定を行うにあたり、事前情報としてポインとなる姿勢を定め、その姿勢の画像データに基づきテンプレートを作成しておく。なお、テンプレートのデータは、姿勢判定装置1Aのハードウェア構成における記憶部等に記憶しておく。   Next, the posture of the moving body image detected by the moving body detection unit 21A is determined by the template matching unit 22A. When performing posture determination, a posture that becomes a point is determined as prior information, and a template is created based on image data of the posture. The template data is stored in a storage unit or the like in the hardware configuration of the posture determination apparatus 1A.

ポイントとなる姿勢として、比較例においては3つの姿勢を定めた。3つの姿勢は、図4において、P1と記した姿勢:寝ている姿勢、P2と記した姿勢:状態を起こした姿勢、P3と記した姿勢:ベッド縁に座っている姿勢、である。なお、この姿勢P1〜3は、後述する本実施形態においても同様の姿勢として用いる。   In the comparative example, three postures were defined as the postures to be points. In FIG. 4, the three postures are a posture indicated as P1: a sleeping posture, a posture indicated as P2, a posture that caused a state, and a posture indicated as P3: a posture sitting on a bed edge. Note that these postures P1 to P3 are also used as the same posture in this embodiment described later.

また、姿勢判定の精度向上と判定の高速化のため、事前情報として姿勢遷移の過程図を定義し、姿勢遷移も考慮することとしている。例えば、現在の姿勢が、姿勢P1の場合には、姿勢P1からいきなり姿勢P3へ遷移する可能性はないので、この場合姿勢P3は姿勢判定の対象としないこととする。   In addition, in order to improve the accuracy of posture determination and speed up the determination, a process diagram of posture transition is defined as prior information, and posture transition is also considered. For example, when the current posture is the posture P1, there is no possibility of sudden transition from the posture P1 to the posture P3. In this case, the posture P3 is not set as a posture determination target.

具体的な姿勢判定の手法としては、averageHash(以下、適宜『aHash』と記す)に基づくテンプレートマッチングを用いている。その手順として、
1)まず、動体の画像を検出する。検出した具体例として、図6(A)に示す。
2)つぎに、この画像をグレースケールに変換する。具体例として、図6(B)に示す。なお、図6(A)と図6(B)はここでは同じ画像となっているが、上述のように本実施形態の実際の装置では図6(A)での動体は赤い画像として検出されている。したがって、図6(B)は実際にはこの赤い画像を変換したものである。
3)つぎに、グレースケール画像のサイズを、処理を高速化するため縮小する。今回は16×16のサイズに縮小している。
4)つぎに、縮小画像の各ピクセル色(濃淡:pixel_value)の平均値(average_pixel)を式(1)にて計算する。
5)つぎに、縮小画像の各ピクセルにおいて、式(2)を用いて各ピクセルのbit値を設定する。
6)つぎに、16×16=256ビットのビット列を生成し画像をハッシュ化する。このビットデータの具体例として、図6(C)に示す。
7)つぎに、あらかじめ生成しておいた姿勢P1〜3のテンプレート画像の各ハッシュ値に対し、1ビットずつシフトさせて比較する。図6(D)にビット比較のイメージ図を記す。
8)そして、比較した際のビット誤差の最小値を画像データの一致度と定め、最も一致度が高いテンプレートの姿勢を現在の姿勢として判定する。
As a specific posture determination method, template matching based on averageHash (hereinafter referred to as “aHash” as appropriate) is used. As a procedure,
1) First, an image of a moving object is detected. A specific example detected is shown in FIG.
2) Next, this image is converted to gray scale. A specific example is shown in FIG. 6A and 6B are the same image here, but the moving body in FIG. 6A is detected as a red image in the actual apparatus of this embodiment as described above. ing. Therefore, FIG. 6B is actually a red image converted.
3) Next, the size of the grayscale image is reduced in order to speed up the processing. This time it has been reduced to a size of 16 × 16.
4) Next, the average value (average_pixel) of each pixel color (shading: pixel_value) of the reduced image is calculated by the equation (1).
5) Next, in each pixel of the reduced image, the bit value of each pixel is set using Expression (2).
6) Next, a 16 × 16 = 256-bit bit string is generated and the image is hashed. A specific example of this bit data is shown in FIG.
7) Next, each hash value of the template images of the postures P1 to P3 generated in advance is shifted by 1 bit and compared. An image of bit comparison is shown in FIG.
8) Then, the minimum value of the bit error at the time of comparison is determined as the matching degree of the image data, and the posture of the template having the highest matching degree is determined as the current posture.

このような手順により、姿勢判定手段20Aのテンプレートマッチング手段22Aにて対象者Sの現在の姿勢がどの姿勢のテンプレートに近いかを判定する。そして、姿勢判定装置1Aは、この判定結果に基づいて判定結果出力手段30Aにより判定結果を出力する。   By such a procedure, the template matching unit 22A of the posture determination unit 20A determines to which template the posture of the target person S is close. And attitude | position determination apparatus 1A outputs a determination result by the determination result output means 30A based on this determination result.

以上のような比較例の姿勢判定装置1Aは、ベッドB上で掛け布団の無い状態で姿勢判定を行った場合には、精度よく対象者Sの姿勢を判定することができた。一方、姿勢判定装置1Aは、掛け布団がベッド上で使用されている状態では対象者Sの姿勢判定の精度が著しく低下してしまった。   The posture determination apparatus 1A of the comparative example as described above was able to accurately determine the posture of the subject S when the posture determination was performed on the bed B without a comforter. On the other hand, in the posture determination apparatus 1A, the accuracy of the posture determination of the subject S is significantly reduced in the state where the comforter is used on the bed.

この理由は、ベッド上で掛け布団が使用されていると、対象者Sの移動に伴い掛け布団も動くので、掛け布団が対象者Sとともに動体として検出されてしまうためであった。このため、対象者Sの本来の姿勢とは異なる姿勢として、姿勢判定装置1Aは判定してしまうことになる。   This is because when the comforter is used on the bed, the comforter also moves as the subject S moves, so that the comforter is detected as a moving object together with the subject S. For this reason, the posture determination apparatus 1A determines that the posture is different from the original posture of the subject S.

例えば、掛け布団Cを使用している状態で、対象者Sが姿勢2の状態になると、図7に示すような動体として検出されてしまう。このため、姿勢判定装置1Aでは、この姿勢は本来姿勢P2と判定されるところ、掛け布団の影響で姿勢P3と判定してしまった。   For example, when the subject S is in the posture 2 state while using the comforter C, the moving object as shown in FIG. 7 is detected. For this reason, in the posture determination apparatus 1A, this posture is originally determined as the posture P2, but has been determined as the posture P3 due to the influence of the comforter.

[本実施形態]
そこで、本実施形態の姿勢判定装置1は、掛け布団を考慮した姿勢判定が行えるようになっている。具体的には、次の手順により行われる。
[This embodiment]
Therefore, the posture determination device 1 of the present embodiment can perform posture determination in consideration of comforters. Specifically, the following procedure is performed.

まず、判定画像取得手段10で取得された判定画像について、判定画像区分手段21により一定距離毎の画像に区分けした区分画像を形成する。具体的には判定画像に含まれる深度値を利用して、0.1m毎に区分けを行い各区分の区分画像を形成する。なお、一定距離毎に区分けしたこの区分画像についてイメージし易いよう、図8に区分の概念図を示す。   First, with respect to the determination image acquired by the determination image acquisition unit 10, a determination image classification unit 21 forms a divided image into images of a certain distance. Specifically, using the depth value included in the determination image, the image is divided every 0.1 m to form a divided image for each division. FIG. 8 shows a conceptual diagram of the division so that it is easy to image the divided images divided every predetermined distance.

図8に示すように、入力部2から、対象者Sの足元側に向かって一定間隔で分割し、区分1〜n毎に画像を形成する。なお、本実施形態では0.1m毎に区分けを行っているが、入力部2からあまりに近い位置には対象者Sは存在しないので、図8に示すように、例えば0.5m程度離れた位置から区分けを開始してもよい。また、図8で破線を用いて示している区分の間隔は、単に説明のために記しているだけであり、本実施形態における0.1mの間隔を正確に示しているわけではない。また、今回の区分けの範囲である0.1mはあくまでも一例であり、より短く或はより長く区分けの範囲は設定することもできる。   As shown in FIG. 8, the image is divided from the input unit 2 toward the feet of the subject S at regular intervals, and an image is formed for each of the sections 1 to n. In addition, in this embodiment, although it classifies every 0.1 m, since the subject S does not exist in the position very close to the input part 2, as shown in FIG. You may start sorting from. Moreover, the interval of the division shown using the broken line in FIG. 8 is only described for description, and does not necessarily indicate the 0.1 m interval in the present embodiment. Further, the current range of 0.1 m is merely an example, and the range of the division can be set shorter or longer.

このように判定画像区分手段21で区分けした区分画像について、つぎに、動体検出手段22で区分画像毎に動体画像の検出を行う。この動体画像検出の具体的な方法は、比較例の姿勢判定装置1Aと同様であり、背景差分法を用いて行うことができる。具体的には、まず対象者Sと掛け布団のない環境を背景画像として取得しておき、この背景画像を用いて対象者Sと掛け布団の動きを動体画像として検出する。このようにして検出した各区分における動体画像について、図9に示す。なお、図9に示す区分毎の動体画像は、対象者Sが姿勢P2の状態にある時の判定画像に基づくものである。   With respect to the divided images divided by the determination image dividing means 21 in this way, the moving object detection means 22 detects a moving object image for each divided image. A specific method of detecting the moving body image is the same as that of the posture determination apparatus 1A of the comparative example, and can be performed using the background difference method. Specifically, first, an environment without the subject S and the comforter is acquired as a background image, and the movement of the subject S and the comforter is detected as a moving object image using the background image. FIG. 9 shows the moving body image in each section detected in this way. In addition, the moving body image for every division shown in FIG. 9 is based on the determination image when the subject S is in the state of the posture P2.

図9に区分1〜12を示しているが、区分1側が入力部2側となり、区分12が入力部2から一番遠い区分(対象者Sの足元側)となる。図9からわかるように、区分1〜5については、とくに目立った動体は検出できないが、区分6では対象者Sの背中が検出されていることがわかる。また、区分7では、対象者Sの頭や肩、体が検出されていることがわかる。そして、区分8では対象者Sの一部だけでなく掛け布団Cが検出されていることがわかる。   Although the divisions 1 to 12 are shown in FIG. 9, the division 1 side is the input unit 2 side, and the division 12 is the division farthest from the input unit 2 (the foot side of the subject S). As can be seen from FIG. 9, in Sections 1 to 5, a particularly conspicuous moving object cannot be detected, but in Section 6 it can be seen that the back of the subject S is detected. In section 7, it can be seen that the head, shoulders, and body of the subject S are detected. In section 8, it can be seen that not only a part of the subject S but also the comforter C is detected.

ベッドB上で掛け布団Cを使っていた場合、掛け布団Cは対象者Sの動きに伴って動き、通常対象者Sの位置よりも、奥側(入力部2から離れる側)に掛け布団は位置することになる。このため、区分画像においても、手前側(入力部2に近い側)にまず初めに対象者Sが動体として現れ始めることになり、図9からもそのことを理解することができる。   When the comforter C is used on the bed B, the comforter C moves with the movement of the subject S, and the comforter is usually located on the back side (the side away from the input unit 2) from the position of the subject S. become. For this reason, also in the segmented image, the subject S first appears as a moving object on the near side (side closer to the input unit 2), and this can also be understood from FIG.

つぎに、動体検出手段22で検出した区分画像毎の動体画像を、合成動体画像形成手段23で合成し、その合成動体画像を用いてテンプレートマッチング手段24で姿勢の判定を行う。つまり、姿勢判定手段20は、掛け布団が現れるまでの動体画像を用いた合成動体画像で対象者Sの姿勢判定を行っている。   Next, the moving body image for each segment image detected by the moving body detecting unit 22 is synthesized by the synthesized moving body image forming unit 23, and the posture matching is performed by the template matching unit 24 using the synthesized moving body image. That is, the posture determination means 20 performs the posture determination of the subject person S with a composite moving body image using the moving body image until the comforter appears.

この合成動体画像形成手段23とテンプレートマッチング手段24で行われる具体的な処理について、図10を用いて説明する。図10は、合成動体画像形成手段23とテンプレートマッチング手段24とで行われる合成動体画像形成処理及び姿勢判定処理のフローチャートである。   Specific processing performed by the synthesized moving body image forming unit 23 and the template matching unit 24 will be described with reference to FIG. FIG. 10 is a flowchart of the combined moving body image forming process and the posture determination process performed by the combined moving body image forming unit 23 and the template matching unit 24.

まず、区分1となる手前側の区分画像から、検出した動体の画像の変化量が一定量以上か否かの判定を行う(ステップ1:S1)。変化量が一定量以上でなければ(S1でNO)、この処理を繰り返して変化量が一定量以上の動体が検出されるまでの区分を判定する。この処理は、対象者Sと関係しない微細な動体等を排除するためである。   First, it is determined whether or not the amount of change in the detected moving object image is greater than or equal to a certain amount from the near-side segment image to be segment 1 (step 1: S1). If the amount of change is not equal to or greater than a certain amount (NO in S1), this process is repeated to determine a segment until a moving object whose amount of change is equal to or greater than a certain amount is detected. This process is for eliminating fine moving objects that are not related to the subject S.

変化量が一定量以上であれば(S1でYES)次に、その動体の画像についてテンプレートマッチングを行う(ステップ2:S2)。このテンプレートマッチングは、具体的には比較例の姿勢判定装置1Aと同様、aHashに基づくテンプレートマッチングを用いて行っており、詳細な説明は省略する。   If the amount of change is equal to or greater than a certain amount (YES in S1), then template matching is performed for the moving object image (step 2: S2). Specifically, this template matching is performed using template matching based on aHash, as in the posture determination apparatus 1A of the comparative example, and detailed description thereof is omitted.

そして、S2のマッチング結果による差分値が姿勢P1〜3の何れの姿勢の閾値を満たすか否かの判定を行う(ステップ3:S3)。差分値が何れの姿勢の閾値に満たない場合(例えば、差分値10以下)には(S3でNO)、次の区分の動体の画像を合成する(ステップ4:S4)。そして、合成した動体の画像について、S2と同様テンプレートマッチングを行う(ステップ5:S5)。   Then, it is determined whether or not the difference value based on the matching result in S2 satisfies the posture threshold value of any one of postures P1 to P3 (step 3: S3). When the difference value is less than the threshold value of any posture (for example, the difference value is 10 or less) (NO in S3), the moving object image of the next section is synthesized (step 4: S4). Then, template matching is performed on the synthesized moving object image in the same manner as S2 (step 5: S5).

そして、S5のマッチング結果による差分値をS2のマッチング結果による差分値と比較を行い、差分値が改善したか否かの判定を行う(ステップ6:S6)。ここで差分値が改善した場合(S5の差分値の方がS2の差分値よりも低くなっている場合)には(S6でYES)、S3に戻って何れの姿勢の閾値を満たすか否かの判定を行う。そして、S3でYESとなれば、その姿勢を対象者の姿勢として決定する(ステップ8:S8)。   Then, the difference value based on the matching result in S5 is compared with the difference value based on the matching result in S2, and it is determined whether or not the difference value has been improved (step 6: S6). If the difference value is improved (if the difference value in S5 is lower than the difference value in S2) (YES in S6), the process returns to S3 to determine which posture threshold is satisfied. Judgment is made. If YES in S3, the posture is determined as the posture of the subject (step 8: S8).

S6で差分値が改善していない場合(S5の差分値の方がS2の差分値よりも高くなっている場合)には(S6でNO)、姿勢不明として判断し(ステップ7:S7)、S1に戻って次の区分の動体の画像についてS1の処理を行う。   If the difference value is not improved in S6 (if the difference value in S5 is higher than the difference value in S2) (NO in S6), it is determined that the posture is unknown (step 7: S7). Returning to S1, the processing of S1 is performed on the moving object image of the next section.

以上のような処理を行って、対象者Sの姿勢判定が行われる。姿勢判定の具体的なイメージを図11の画像を使って説明する。図11には、連続する4つの区分(区分a〜d)で検出された対象者Sの動体や掛け布団の動体を示している。そして、区分aから、図10の処理を行うことで、区分(a+b)で示した合成動体画像によって、この場合姿勢P2として判定結果が得られることになる。つまり、区分dに現れている掛け布団の動体に影響されてしまう区分(a+b+c+d)の合成動体画像に至るまでに、区分(a+b)の合成動体画像で姿勢判定を行うことができる。   The posture determination of the subject person S is performed by performing the processing as described above. A specific image of posture determination will be described using the image of FIG. FIG. 11 shows the moving body of the subject S and the moving body of the comforter detected in four consecutive sections (sections a to d). Then, by performing the processing of FIG. 10 from the section a, the determination result is obtained as the posture P2 in this case by the synthesized moving body image indicated by the section (a + b). That is, the posture determination can be performed with the combined moving image of the section (a + b) until the combined moving image of the section (a + b + c + d) that is affected by the moving body of the comforter appearing in the section d.

このように、本実施形態の姿勢判定装置1は、掛け布団の影響を排除するため、判定画像取得手段10により深度値により形成される判定画像を取得し、姿勢判定手段20において、この深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像を形成するとともに、この、区分画像を用いて対象者Sの姿勢判定を行う構成となっている。とくに姿勢判定手段20は、動体検出手段22により区分画像から動きがある動体画像を検出し、合成動体画像形成手段23により異なる区分画像の動体画像を合成した合成動体画像を形成し、この合成動体画像を用いて対象者Sの姿勢判定を行っている。   As described above, the posture determination apparatus 1 according to the present embodiment acquires a determination image formed by the depth value by the determination image acquisition unit 10 in order to eliminate the influence of the comforter, and the posture determination unit 20 sets the depth value. The determination image is divided into images for each predetermined distance to form a divided image, and the posture of the subject person S is determined using the divided image. In particular, the posture determination unit 20 detects a moving body image having a motion from the segmented image by the moving body detection unit 22, and forms a synthesized moving body image by combining the moving body images of different segmented images by the synthesized moving body image forming unit 23. The posture determination of the subject person S is performed using the image.

[検証]
次に、実施形態の姿勢判定装置1についての検証結果について説明する。具体的には、5名の被験者を対象にして、掛け布団の有無での本実施形態の姿勢判定装置1と比較例の姿勢判定装置1Aとの比較検証を行った。この比較検証は、被験者が姿勢1(ベッド上で寝ている姿勢)、姿勢2(ベッド上での起き上がりの姿勢)、姿勢3(ベッド縁に座る姿勢)の順に動いたことを想定して実施した。本検証における検証環境を図12に示す。
[Verification]
Next, the verification result about the attitude | position determination apparatus 1 of embodiment is demonstrated. Specifically, comparison verification between the posture determination device 1 of the present embodiment and the posture determination device 1A of the comparative example with or without a comforter was performed on five subjects. This comparative verification was performed on the assumption that the subject moved in the order of posture 1 (posture sleeping on the bed), posture 2 (posture of getting up on the bed), and posture 3 (posture sitting on the edge of the bed). did. The verification environment in this verification is shown in FIG.

そして、この検証条件および検証環境によって実施した検証結果を図13に示す。図13(A)は掛け布団無しの条件での検証結果であり、図13(B)は掛け布団有りの条件での検証結果である。図13(A)に示すように掛け布団が無い場合には、比較例の姿勢判定装置1Aでも本実施形態の姿勢判定装置1でも正解率は平均97.7%であった。つまり、掛け布団が無い状況でも、本実施形態の姿勢判定装置1は比較例と同等の判定を行うことができることがわかる。   And the verification result implemented by this verification condition and verification environment is shown in FIG. FIG. 13A shows the result of verification under the condition without comforter, and FIG. 13B shows the result of verification under the condition with comforter. When there is no comforter as shown in FIG. 13 (A), the correct answer rate was 97.7% on average in both the posture determination device 1A of the comparative example and the posture determination device 1 of the present embodiment. That is, it can be seen that the posture determination apparatus 1 of the present embodiment can perform the same determination as that of the comparative example even in a situation where there is no comforter.

一方、図13(B)に示すように掛け布団が有る場合には、比較例の姿勢判定装置1Aでは正解率が65%と著しく低下したのに対し、本実施形態の姿勢判定装置1では掛け布団が無い場合と同じ正解率であった。つまり、掛け布団が有る状況でも、本実施形態の姿勢判定装置1は掛け布団が無い状況と同等の判定を行うことができ、掛け布団の影響を排除できていることがわかる。したがって、深度値により形成される判定画像を取得し、深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像を形成することで、対象者Sの身体部分のみが抽出できていることが示されており、その結果として掛け布団の影響が排除されている。   On the other hand, when the comforter is present as shown in FIG. 13B, the correct answer rate is significantly reduced to 65% in the posture determination device 1A of the comparative example, whereas in the posture determination device 1 of the present embodiment, the comforter is The accuracy rate was the same as when there was no. That is, it can be seen that the posture determination device 1 of the present embodiment can perform the same determination as in the situation without the comforter even in the situation where the comforter is present, and the influence of the comforter can be eliminated. Therefore, only the body part of the target person S can be extracted by acquiring the determination image formed by the depth value and forming a segmented image by dividing the determination image into images of a certain distance using the depth value. As a result, the influence of the comforter is eliminated.

なお、本実施形態の姿勢判定装置1では掛け布団の影響が排除されているにも関わらず、図13に示すように姿勢2の正解率が何れも93.3%に留まっている。この理由としては、被験者の座高の差異等によって、起き上がる際の位置が被験者により異なることに起因するためと考える。つまり、起き上がる際の被験者の位置が異なることにより、結果として入力部2に写る被験者の大きさに差が生じ、それが理由となり姿勢を判定する際に誤判定が生じたものと考えられる。また、被験者が重度の猫背の時、0.1m毎に区分けされた区分画像の中に、猫背の背中部分のみが写る区分画像が存在する場合があり、その背中を被験者の頭と誤認識した結果、姿勢2を姿勢1と誤判定することがあった。これらの対策として、患者の特性に合わせた複数のテンプレートセットを用意しておくこととしてもよく、また、背中が現れた際の距離情報から頭と背中の区別を行うようにしてもよい。   In addition, in the posture determination apparatus 1 of this embodiment, although the influence of the comforter is eliminated, the correct rate of posture 2 remains 93.3% as shown in FIG. The reason for this is considered to be that the position when getting up differs depending on the subject due to the difference in sitting height of the subject. In other words, the position of the subject at the time of getting up is different, resulting in a difference in the size of the subject shown in the input unit 2, which is considered to be an erroneous determination when determining the posture. In addition, when the subject is severely stooped, there may be a segmented image in which only the back part of the back of the cat is reflected in the segmented image segmented every 0.1 m, and the back was misrecognized as the subject's head. As a result, posture 2 may be erroneously determined as posture 1. As these countermeasures, it is possible to prepare a plurality of template sets according to the characteristics of the patient, or to distinguish between the head and the back from the distance information when the back appears.

また、本実施形態の姿勢判定装置1では、判定画像取得手段10で取得された判定画像について、判定画像区分手段21により0.1m毎に区分けした区分画像を形成していたが、必ずしも全て同じ距離で区分画像を形成する必要はない。例えば、対象者Sの頭部側では掛け布団が影響し易いので、区分画像の間隔を短くし、対象者Sの足元側では反対に区分画像の間隔を長くして区分画像を形成してもよい。   In the posture determination apparatus 1 according to the present embodiment, the determination images acquired by the determination image acquisition unit 10 are formed by the determination image classification unit 21 so as to be divided at intervals of 0.1 m. There is no need to form segmented images by distance. For example, the comforter is easily affected on the head side of the subject S, so that the interval between the segment images may be shortened, and on the other hand, the segment image may be formed by increasing the interval between the segment images. .

また、本実施形態の姿勢判定装置1では、動体検出手段22で区分画像毎の動体画像を検出し、合成動体画像形成手段23により対象者Sの頭部側から合成しながら合成動体画像を形成し、この合成動体画像を用いて姿勢判定を行っていたが、必ずしも動体画像を合成しながら姿勢判定を行う必要はない。例えば、全ての区分画像の動体画像を先に合成しておき、この全て合成された合成動体画像から、各区分の合成動体を除きながら、姿勢判定を行ってもよい。具体的には、全て合成された合成動体画像を用い、対象者Sの足元側から、足元側の区分における動体画像を除いていく。この場合、最初から掛け布団が動体画像として含まれているため、テンプレート画像との一致度が低くなるが、掛け布団の画像が取り除かれた段階でテンプレート画像との一致度が高くなるので、例えば一致度が一番高いものを対象者Sの姿勢として判定することができる。   Further, in the posture determination apparatus 1 of the present embodiment, the moving body detection unit 22 detects a moving body image for each segment image, and the combined moving body image forming unit 23 forms a combined moving body image while synthesizing from the head side of the subject S. However, although the posture determination is performed using the synthesized moving body image, it is not always necessary to perform the posture determination while combining the moving body images. For example, the moving body images of all the segment images may be synthesized first, and the posture determination may be performed while excluding the synthesized moving body of each segment from the synthesized video image of all the segments. Specifically, the synthesized moving body image that has been entirely synthesized is used, and the moving body image in the foot side segment is removed from the foot side of the subject S. In this case, since the comforter is included as a moving body image from the beginning, the degree of coincidence with the template image is low, but the degree of coincidence with the template image is high when the image of the comforter is removed. Can be determined as the posture of the subject S.

また、本実施形態の姿勢判定装置1では、背景差分法により各区分画像から動体画像を検出したり、テンプレートマッチングにより対象者Sの姿勢判定を行っているが、本発明は、深度値が含まれる判定画像を基にして、この深度値を用いて一定距離毎の区分画像を形成して、この区分画像を利用して姿勢判定を行うことを特徴としている。したがって、例えば、各区分画像から動体画像を検出するために背景差分法以外の方法も適用することも可能であり、また姿勢判定についてもテンプレートマッチング以外の画像認識方法を適用して姿勢判定することも可能である。   Moreover, in the posture determination apparatus 1 of the present embodiment, a moving body image is detected from each segmented image by the background difference method or the posture determination of the target person S is performed by template matching. However, the present invention includes a depth value. Based on the determined image, a segmented image is formed for each fixed distance using the depth value, and posture determination is performed using the segmented image. Therefore, for example, a method other than the background subtraction method can be applied to detect a moving body image from each segmented image, and posture determination can also be performed by applying an image recognition method other than template matching for posture determination. Is also possible.

また、本実施形態の姿勢判定装置1では、対象者Sの心理的負担を軽減するため判定画像取得手段10を構成する入力部2をベッドBの頭部側に設置したが、ベッドBの足元側や、部屋の天井に設置して判定画像を取得して、姿勢判定手段20により姿勢判定を行うこともできる。   In addition, in the posture determination apparatus 1 of the present embodiment, the input unit 2 constituting the determination image acquisition unit 10 is installed on the head side of the bed B in order to reduce the psychological burden on the subject S. It is also possible to obtain a determination image by installing it on the side or the ceiling of the room and perform posture determination by the posture determination means 20.

[実施形態2]
次に、実施形態2にかかる通報システム100について説明する。通報システム100は、実施形態1の姿勢判定装置1と同様の機能を用いて姿勢判定を行うとともに、この姿勢判定の結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うシステムである。
[Embodiment 2]
Next, the reporting system 100 according to the second embodiment will be described. The notification system 100 performs posture determination using the same function as the posture determination device 1 of the first embodiment, determines whether to perform notification based on the result of the posture determination, and based on the determination result. It is a system that reports.

具体的には、通報システム100は、深度値により形成される判定画像取得手段110と、この深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段120と、この姿勢判定手段120による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段130と、通報判定手段の判定結果に基づいて通報を行う通報手段140と、を備えている。   Specifically, the notification system 100 performs the posture determination of the subject using the determination image acquisition unit 110 formed by the depth value, and the divided image obtained by dividing the determination image into images of a certain distance using the depth value. Attitude determination means 120, notification determination means 130 for determining whether or not to report based on the determination result by the attitude determination means 120, notification means 140 for notification based on the determination result of the notification determination means, It has.

また、通報システム100のハードウェア構成は、図1に示した姿勢判定装置1と略同様であり、異なる点については適宜説明を行うとともに、同様の構成については同様の符号を用いるとともに詳細な説明を省略する。   Moreover, the hardware configuration of the notification system 100 is substantially the same as that of the posture determination apparatus 1 shown in FIG. 1, and different points will be described as appropriate, and the same reference numerals will be used for the same configuration and detailed description. Is omitted.

そして、判定画像取得手段110及び姿勢判定手段120は、実施形態1の姿勢判定装置1の判定画像取得手段10及び姿勢判定手段20と同様である。   The determination image acquisition unit 110 and the posture determination unit 120 are the same as the determination image acquisition unit 10 and the posture determination unit 20 of the posture determination apparatus 1 according to the first embodiment.

通報判定手段130は、制御部3や記憶部4によって構成されており、姿勢判定手段120による判定結果に基づいて通報を行うか否かの判定を行う。具体的には、例えば通報判定手段130は、対象者Sについて姿勢P3と判定されたら通報を行うと判定し、姿勢P1や姿勢P2では通報を行わないというように判定する。   The notification determination unit 130 is configured by the control unit 3 and the storage unit 4, and determines whether to perform notification based on the determination result by the posture determination unit 120. Specifically, for example, the notification determination unit 130 determines that the notification is performed when it is determined that the subject S is in the posture P3, and determines that the notification is not performed in the posture P1 or the posture P2.

なお、通報を行うか否かの判定は、事前に設定した判定条件に基づいて行われる。また、対象者S毎に姿勢による危険度は異なることから、この判定条件は対象者S毎に異なっていても構わない。このような判定条件は、例えば、通報システム100が備えるカメラ2aや深度センサ2b以外の入力部2を構成する入力装置(キーボードやタッチパネル等)によって設定することができる。   Note that whether or not to make a report is determined based on a determination condition set in advance. Further, since the degree of risk depending on the posture is different for each target person S, this determination condition may be different for each target person S. Such a determination condition can be set by, for example, an input device (such as a keyboard or a touch panel) that constitutes the input unit 2 other than the camera 2a and the depth sensor 2b included in the reporting system 100.

通報手段140は、主に出力部5によって構成されており、通報判定手段130の判定結果に基づいて通報を行う。具体的には、通報手段140は、通報判定手段130で通報を行うと判定された場合に、モニタによる表示やスピーカによる音声によって通報を行う。   The reporting unit 140 is mainly configured by the output unit 5, and reports based on the determination result of the reporting determination unit 130. Specifically, the reporting unit 140 performs reporting by display on a monitor or sound by a speaker when it is determined by the reporting determination unit 130 that reporting is to be performed.

このような構成の通報システム100について、実際の使用例を基に説明を行う。図14は、通報システム100の設置例を示した図である。図14に示す使用例は、病院や高齢者の介護施設のようにベッド上の対象者Sを見守る必要がある施設での使用を想定したものである。   The notification system 100 having such a configuration will be described based on an actual usage example. FIG. 14 is a diagram illustrating an installation example of the notification system 100. The use example shown in FIG. 14 assumes use in a facility that needs to watch over the target person S on a bed, such as a hospital or a care facility for elderly people.

この施設には、複数の部屋R(R1〜3)があり、各部屋にはベッドBが設置されている。なお、図14では各部屋RにはベッドBが一つだけ示してあるが、ベッドが複数設置されていても構わない。また図14では部屋数が三つだけであるが、通報システム100は、当然ながらより多くの部屋数であっても使用できる。   This facility has a plurality of rooms R (R1 to R3), and a bed B is installed in each room. In FIG. 14, only one bed B is shown in each room R, but a plurality of beds may be installed. In FIG. 14, the number of rooms is only three, but the reporting system 100 can be used even with a larger number of rooms.

各部屋RのベッドBには、判定画像取得手段110を構成している入力部2が設置されている。また、通報システム100を構成する姿勢判定手段120、通報判定手段130、通報手段140は、看護師や介護士が待機するステーションDに設置されている。なお、通報手段140は、ステーションDだけでなく各部屋Rに設置されていても構わない。   In the bed B of each room R, the input unit 2 constituting the determination image acquisition unit 110 is installed. Further, the posture determination means 120, the notification determination means 130, and the notification means 140 constituting the notification system 100 are installed at a station D where a nurse or a caregiver waits. Note that the reporting unit 140 may be installed not only in the station D but also in each room R.

例えば、部屋R2の対象者Sについて通報の判定条件となっている姿勢P2が判定されると、部屋R2の通報手段140によって通報することで、部屋R2にいる他の人や部屋R2の近くにいる人に対象者Sが危険な姿勢P2になっていることを知らせることができる。   For example, when the posture P2 that is the determination condition of the notification for the subject S in the room R2 is determined, the notification means 140 of the room R2 notifies the person R, and the person R in the room R2 or near the room R2. It is possible to inform a person that the subject S is in a dangerous posture P2.

ここで、図14に示すステーションDに設置された端末200aは、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。   Here, the terminal 200a installed in the station D shown in FIG. 14 is a terminal connected to the reporting system 100 via the communication unit 6 constituting the reporting system 100.

また、端末200bは、例えば、ステーションDとは異なる階であったり、離れている場所であったりと、ステーションDとは異なるステーションD´に設置されている端末である。そして、この端末200bも、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。   Further, the terminal 200b is a terminal installed in a station D ′ different from the station D, for example, on a different floor from the station D or in a place away from the station D. The terminal 200b is also a terminal connected to the notification system 100 via the communication unit 6 constituting the notification system 100.

また、携帯型の端末200cは、例えば、施設内で働く看護師や介護士が携帯している端末である。そして、この端末200cも、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。   The portable terminal 200c is a terminal that is carried by, for example, a nurse or a caregiver working in a facility. The terminal 200c is also a terminal connected to the notification system 100 via the communication unit 6 constituting the notification system 100.

通報システム100は、通信部6を介して接続する端末200a、200b、200cの表示部や音声出力部を通報手段140として用いることができる。そして、通報システム100は、端末200a、200b、200cを通報手段140として用いることで、通報判定手段130による判定結果を複数の看護師や介護士に通報することが可能となっている。   The reporting system 100 can use the display unit and the voice output unit of the terminals 200 a, 200 b, and 200 c connected via the communication unit 6 as the reporting unit 140. And the reporting system 100 can report the determination result by the report determination means 130 to a plurality of nurses and caregivers by using the terminals 200a, 200b, and 200c as the notification means 140.

また、このような通報システム100は、例えば、部屋R2の対象者Sについては、ある特定の看護師に通報し、部屋R3の対象者Sについては、別の看護師に通報する、というようなことも可能である。   In addition, such a reporting system 100 reports, for example, the subject S in the room R2 to a specific nurse and reports the subject S in the room R3 to another nurse. It is also possible.

なお、端末200a、200b、200cは、ノートパソコンやタブレット、スマートフォン等の端末だけでなく、通報専用に作られた専用端末を用いることができる。   As the terminals 200a, 200b, and 200c, not only terminals such as notebook computers, tablets, and smartphones, but also dedicated terminals made exclusively for reporting can be used.

以上のように、本実施形態の通報システム100は、実施形態1の姿勢判定装置1と同様、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団による影響を排除して姿勢判定を行うことができる。また、通報システム100は、姿勢判定の判定結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うので、病院や介護施設のように多くの判定対象者Sがいる施設での使用に非常に適している。   As described above, the notification system 100 according to the present embodiment acquires the determination image formed by the depth value as in the posture determination device 1 according to the first embodiment, and divides the image into images for each predetermined distance using the depth value. Since the posture determination is performed based on the segmented image, the posture determination can be performed without the influence of the comforter used by the subject on the bed. In addition, since the notification system 100 determines whether or not to report based on the determination result of the posture determination and performs notification based on the determination result, many determination target persons S such as hospitals and care facilities. Very suitable for use in facilities with

なお、実施形態1の姿勢判定装置や実施形態2の通報システム100は、主としてベッド上の対象者Sの姿勢を判定することにより、対象者SのベッドBからの転落を未然に防止する目的で用いているが、ベッドB上からの転落防止以外の目的でも使用できる。例えば、ベッド上で同じ姿勢を長時間続けていると、床ずれと呼ばれる褥瘡のおそれがある。したがって、本発明の姿勢判定装置や通報システムは、同じ姿勢が長時間続いていると判定された場合には、対象者Sの姿勢を変える必要があることを看護師や介護士に通報するためのものとして使用することもできる。   Note that the posture determination apparatus of the first embodiment and the notification system 100 of the second embodiment mainly prevent the fall of the subject S from the bed B by mainly judging the posture of the subject S on the bed. Although it is used, it can be used for purposes other than preventing falling from the bed B. For example, if the same posture is continued on the bed for a long time, there is a risk of pressure ulcers called bedsores. Therefore, the posture determination apparatus and the notification system of the present invention notify the nurse or caregiver that it is necessary to change the posture of the subject S when it is determined that the same posture continues for a long time. Can also be used.

また、実施形態1の姿勢判定装置や実施形態2の通報システム100は、対象者Sの姿勢を判定するものではあるが、この対象者Sとは何も人間に限られるということではなく、人以外の動物や物も広く含まれているおり、対象物と言い換えることもできる。そして、姿勢判定という言葉も、ベッド上での姿勢の判定に限られるということではなく、ベッド上以外でも、また姿勢以外の判定も含まれており、形状判定と言い換えることもでき、本発明は非常に適用範囲の広いものである。   In addition, the posture determination apparatus according to the first embodiment and the notification system 100 according to the second embodiment determine the posture of the target person S. However, the target person S is not limited to a human being, but a person. Other animals and objects are also widely included and can be rephrased as objects. And the word posture determination is not limited to the determination of the posture on the bed, but also includes determinations other than on the bed and other than the posture, and can be rephrased as shape determination. It is very flexible.

1、1A…姿勢判定装置
2…入力部
6…通信部
10、10A、110…判定画像取得手段
20、20A、120…姿勢判定手段
21…判定画像区分手段
22、21A…動体検出手段
23…合成動体画像形成手段
24、22A…テンプレートマッチング手段
30、30A…判定結果出力手段
100…通報システム
130…通報判定手段
140…通報手段
200a、200b、200c…端末
S…対象者
B…ベッド
P1…姿勢1
P2…姿勢2
P3…姿勢3
D、D´…ステーション
R…部屋
DESCRIPTION OF SYMBOLS 1, 1A ... Attitude determination apparatus 2 ... Input part 6 ... Communication part 10, 10A, 110 ... Determination image acquisition means 20, 20A, 120 ... Attitude determination means 21 ... Determination image classification means 22, 21A ... Moving object detection means 23 ... Composition Moving body image forming means 24, 22A ... Template matching means 30, 30A ... Determination result output means 100 ... Notification system 130 ... Notification determination means 140 ... Notification means 200a, 200b, 200c ... Terminal S ... Subject B ... Bed P1 ... Posture 1
P2 ... Attitude 2
P3 ... Attitude 3
D, D '... Station R ... Room

Claims (4)

深度値により形成される判定画像を取得する判定画像取得手段と、
前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、
を備える姿勢判定装置。
Determination image acquisition means for acquiring a determination image formed by a depth value;
Posture determination means for performing posture determination of a subject by a divided image obtained by dividing the determination image into images at fixed distances using the depth value;
An attitude determination device comprising:
前記姿勢判定手段は、
前記区分画像から動きがある動体画像を検出する動体検出手段と、
異なる前記区分画像の動体画像を合成して合成動体画像を形成する合成動体画像形成手段と、
を備え、
前記合成動体画像により前記対象者の姿勢を判定することを特徴とする請求項1に記載の姿勢判定装置。
The posture determination means includes
A moving object detecting means for detecting a moving object image having movement from the segmented image;
A combined moving body image forming means for combining the moving body images of the different segment images to form a combined moving body image;
With
The posture determination apparatus according to claim 1, wherein the posture of the subject is determined from the synthesized moving body image.
前記姿勢判定手段は、
前記合成動体画像について、テンプレート画像を用いたテンプレートマッチングを行うことで姿勢を判定するテンプレートマッチング手段を備えていることを特徴とする請求項2に記載の姿勢判定装置。
The posture determination means includes
The posture determination apparatus according to claim 2, further comprising a template matching unit that determines a posture of the synthesized moving body image by performing template matching using a template image.
深度値により形成される判定画像を取得する判定画像取得手段と、
前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、
前記姿勢判定手段による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段と、
前記通報判定手段の判定結果に基づいて通報を行う通報手段と、
を備えることを特徴とする通報システム。
Determination image acquisition means for acquiring a determination image formed by a depth value;
Posture determination means for performing posture determination of a subject by a divided image obtained by dividing the determination image into images at fixed distances using the depth value;
Notification determination means for determining whether to perform notification based on the determination result by the posture determination means;
A reporting means for reporting based on a determination result of the reporting determination means;
A reporting system comprising:
JP2016225872A 2016-11-21 2016-11-21 Posture judgment device and reporting system Active JP6791731B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225872A JP6791731B2 (en) 2016-11-21 2016-11-21 Posture judgment device and reporting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225872A JP6791731B2 (en) 2016-11-21 2016-11-21 Posture judgment device and reporting system

Publications (2)

Publication Number Publication Date
JP2018082745A true JP2018082745A (en) 2018-05-31
JP6791731B2 JP6791731B2 (en) 2020-11-25

Family

ID=62236513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225872A Active JP6791731B2 (en) 2016-11-21 2016-11-21 Posture judgment device and reporting system

Country Status (1)

Country Link
JP (1) JP6791731B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109717661A (en) * 2018-12-27 2019-05-07 浙江梦神家居股份有限公司 A method of the mattress and its monitoring children sleeping of monitoring children sleeping
JP2020078532A (en) * 2018-11-14 2020-05-28 アイホン株式会社 Patient watching system and nurse call system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102404971B1 (en) * 2021-02-02 2022-06-07 (주)아주스마트솔루션 System and Method for Detecting Risk of Patient Falls

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366958A (en) * 2001-06-08 2002-12-20 Toshiba Corp Method and device for recognizing image
JP2012030042A (en) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd Monitoring device, and program
JP2014090841A (en) * 2012-11-02 2014-05-19 Sony Corp Information processing device, information processing method, and program
JP2014236896A (en) * 2013-06-10 2014-12-18 Nkワークス株式会社 Information processor, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366958A (en) * 2001-06-08 2002-12-20 Toshiba Corp Method and device for recognizing image
JP2012030042A (en) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd Monitoring device, and program
JP2014090841A (en) * 2012-11-02 2014-05-19 Sony Corp Information processing device, information processing method, and program
JP2014236896A (en) * 2013-06-10 2014-12-18 Nkワークス株式会社 Information processor, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020078532A (en) * 2018-11-14 2020-05-28 アイホン株式会社 Patient watching system and nurse call system
JP7300262B2 (en) 2018-11-14 2023-06-29 アイホン株式会社 Patient monitoring system
CN109717661A (en) * 2018-12-27 2019-05-07 浙江梦神家居股份有限公司 A method of the mattress and its monitoring children sleeping of monitoring children sleeping

Also Published As

Publication number Publication date
JP6791731B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
JP7271915B2 (en) Image processing program and image processing device
JPWO2016143641A1 (en) Attitude detection device and attitude detection method
US20190313948A1 (en) Monitoring assistance system, control method thereof, and program
KR102052883B1 (en) Prediction system using a thermal imagery camera and fall prediction method using a thermal imagery camera
JP2016067641A (en) Fall detection processing apparatus and fall detection system
US20180005510A1 (en) Situation identification method, situation identification device, and storage medium
JP5760905B2 (en) Danger detection device and danger detection method
JP6791731B2 (en) Posture judgment device and reporting system
JP2020034960A (en) Posture detection apparatus of person to be monitored
WO2019003859A1 (en) Monitoring system, control method therefor, and program
JP6737645B2 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
Amir et al. Real-time threshold-based fall detection system using wearable IoT
US20220084657A1 (en) Care recording device, care recording system, care recording program, and care recording method
EP3819864A1 (en) Target object detection program and target object detection device
WO2019013105A1 (en) Monitoring assistance system and control method thereof
WO2018235628A1 (en) Monitoring assistance system, control method therefor, and program
JP7351339B2 (en) Image processing system, image processing program, and image processing method
JP7342863B2 (en) Computer-executed programs, information processing systems, and computer-executed methods
Silapasuphakornwong et al. A conceptual framework for an elder-supported smart home
JP7435609B2 (en) Image processing system, image processing program, and image processing method
JP2020190889A (en) Monitoring system for care-needing person
JP2020091628A (en) Care recipient monitoring system
JP7388440B2 (en) Image processing system, image processing program, and image processing method
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6791731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250