JP2019195395A - Risk degree estimation system - Google Patents

Risk degree estimation system Download PDF

Info

Publication number
JP2019195395A
JP2019195395A JP2018089722A JP2018089722A JP2019195395A JP 2019195395 A JP2019195395 A JP 2019195395A JP 2018089722 A JP2018089722 A JP 2018089722A JP 2018089722 A JP2018089722 A JP 2018089722A JP 2019195395 A JP2019195395 A JP 2019195395A
Authority
JP
Japan
Prior art keywords
risk
image
unit
estimation
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018089722A
Other languages
Japanese (ja)
Other versions
JP7076281B2 (en
Inventor
大輔 櫛田
Daisuke Kushida
大輔 櫛田
公祐 神庭
Kimihiro Kanba
公祐 神庭
悠太 小谷
Yuta Kotani
悠太 小谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
K'S KK
Tottori University NUC
Original Assignee
K'S KK
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by K'S KK, Tottori University NUC filed Critical K'S KK
Priority to JP2018089722A priority Critical patent/JP7076281B2/en
Publication of JP2019195395A publication Critical patent/JP2019195395A/en
Application granted granted Critical
Publication of JP7076281B2 publication Critical patent/JP7076281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To provide a risk degree estimation system capable of acquiring risk of accident due to fall or inversion of a patient on a bed on a medical site, in a contactless and unconstrained manner.SOLUTION: A risk degree estimation system 1 comprises: a right above image acquisition part 10 acquiring a right above image of an object person S on a bed which is a risk degree estimation object, the right above image being formed on the basis of a depth value image formed on the basis of the depth value; a risk degree estimation part 20 estimating a risk degree on the basis of the right above image; and an estimation result output part 30 outputting the estimation result.SELECTED DRAWING: Figure 3

Description

本発明は、医療現場においてベッド上の患者の転倒や転落等による事故のリスクを非接触・非拘束で取得する危険度推定システムに関する。   The present invention relates to a risk estimation system for acquiring a risk of an accident due to a patient falling or falling on a bed in a medical field in a non-contact / non-restraint manner.

入院している患者や高齢者がベッドから転倒、転落する事故が問題となっていることから、このような事故に関連する様々な技術が知られている。その一例として、ベッドの横に荷重を検出するセンサを配置し、センサで荷重が検出されると患者等の転落が生じたとして通報する装置が知られている。   Various problems relating to such accidents are known because accidents in which hospitalized patients or elderly people fall from the bed and fall are a problem. As an example, there is known a device that arranges a sensor for detecting a load next to a bed and reports that a patient or the like has fallen when the sensor detects the load.

また、本願の発明者自身が開発した技術として、特許文献1にある患者に取り付けたセンサにより姿勢情報を取得して、その姿勢情報に基づいて転落の危険度を算出するシステムが知られている。   Further, as a technology developed by the inventors of the present application, a system is known that acquires posture information by a sensor attached to a patient in Patent Document 1 and calculates the risk of falling based on the posture information. .

また、荷重センサを用いたり、患者自身にセンサを取り付けたりするのではなく、特許文献2にあるようにベッド上の患者の画像を取得して、その画像を基に姿勢を推定する装置が知られている。   Also, there is a known apparatus that acquires an image of a patient on a bed and estimates the posture based on the image as disclosed in Patent Document 2, instead of using a load sensor or attaching a sensor to the patient. It has been.

特開2015−103042号公報Japanese Patent Laying-Open No. 2015-103042 特開2014−236896号公報JP 2014-236896 A

しかしながら、ベッドの横に荷重センサを配置する装置は、誤報が多くまた荷重が検出された後で通報することから転落を未然に防ぐことは難しい等の難点がある。   However, an apparatus that arranges a load sensor beside the bed has many problems such as many false alarms and notification after the load is detected, so that it is difficult to prevent the fall.

また、特許文献1の患者自身にセンサを取り付ける方法は、患者自身が取り付けたセンサを不快に感じ、センサを勝手に取り外してしまったり、手術等の影響で適切な位置にセンサを取り付けることができなかったり等の難点がある。   Moreover, the method of attaching a sensor to the patient himself / herself in Patent Document 1 makes the sensor attached to the patient feel uncomfortable, and the sensor can be removed without permission, or attached to an appropriate position due to the influence of surgery or the like. There are some difficulties.

また、特許文献2のように患者の画像を取得して姿勢判定をするような装置は、非接触、非拘束であることから、使用中に患者に不快感を与えたり、自身で解除することができなかったり等のメリットはあるが、判定の精度の問題等もありまだまだ実際の現場で使用するには十分と言えるものではなかった。特に、特許文献2では患者の画像を患者の頭部横に設置して画像を取得している。このような横方向からの画像は、例えばベッド周辺の状況も含めて危険度の推定を行いたい場合に、視野角の問題もあり、十分な推定を行うことが難しい。   Moreover, since the apparatus which acquires a patient's image and performs posture determination like patent document 2 is non-contact and non-restraint, it gives a patient discomfort during use, or cancels itself. Although there are merits such as not being able to be performed, there are problems with the accuracy of judgment, etc., and it is still not sufficient for use in actual sites. In particular, in Patent Document 2, an image of a patient is placed beside the patient's head and acquired. For example, when it is desired to estimate the degree of danger including the situation around the bed, it is difficult to estimate the image from the lateral direction sufficiently because of the problem of the viewing angle.

そこで、本発明は、医療現場においてベッド上の患者の転倒や転落等による事故のリスクを、非接触、非拘束で取得することのできる危険度推定システムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a risk estimation system that can acquire the risk of an accident due to a patient falling or falling on a bed in a medical field without contact and without restraint.

上記課題を解決するため、本発明の危険度推定システムは、深度値により形成された深度値画像を基に形成される、危険度推定対象物の直上画像を取得する直上画像取得部と、前記直上画像を基に危険度を推定する危険度推定部と、前記危険度推定部による推定結果を出力する推定結果出力部と、を備えることを特徴とする。   In order to solve the above-described problem, the risk estimation system of the present invention is formed on the basis of a depth value image formed by depth values. A risk level estimation unit that estimates a risk level based on an image directly above and an estimation result output unit that outputs a result of estimation by the risk level estimation unit are provided.

また、本発明の危険度推定システムは、前記危険度推定部が、前記直上画像から前記深度値を用いて、危険度推定を行うための判定層に分割する判定層分割手段と、分割された前記判定層の中から着目する層を決定する着目層決定手段と、からなり、前記着目層決定手段により決定された着目層を基に危険度の推定を行うことを特徴とする。
また、本発明の危険度推定システムは、前記判定層分割手段が、複数の立方体領域に分割する立方体分割手段からなることを特徴とする
Further, the risk estimation system of the present invention is divided into determination layer dividing means for dividing the risk estimation unit into determination layers for performing risk estimation using the depth value from the immediately above image. And a target layer determining means for determining a target layer from among the determination layers, wherein the risk level is estimated based on the target layer determined by the target layer determining means.
In the risk estimation system according to the present invention, the determination layer dividing unit includes a cube dividing unit that divides a plurality of cube regions.

また、本発明の危険度推定システムは、前記危険度推定部が、更に、対象物の位置を特定するための位置特定手段と、前記位置特定手段により特定された位置を基に危険度を算出する危険度算出手段と、を備えていることを特徴とする。
また、本発明の危険度推定ステムは、前記直上画像取得部が、前記深度値画像を前記直上画像に変換する直上画像変換手段を備えることを特徴とする。
In the risk estimation system of the present invention, the risk estimation unit further calculates a risk based on a position specifying unit for specifying the position of the object and a position specified by the position specifying unit. And a risk level calculating means.
In the risk estimation stem of the present invention, the directly above image acquisition unit includes an directly above image converting unit that converts the depth value image into the directly above image.

本発明の危険度推定システムは、深度値により形成された深度値画像を基に形成される危険度推定対象物の直上画像を取得して、この直上画像を基に危険度を推定する構成であることから、医療現場におけるベッド上の患者の転倒や転落等による事故のリスクを、非接触、非拘束で取得することができる。そして、深度値画像を基に形成される直上画像を用いて危険度の推定を行う危険度推定システムは、従来全くなかったものである。また、直上画像を用いることにより、ベッド周辺の状況も含めた危険度の推定を容易に行うことができる。   The risk level estimation system of the present invention is configured to acquire a directly above image of a risk level estimation object formed based on a depth value image formed based on a depth value, and to estimate the risk level based on the directly above image. Therefore, it is possible to acquire the risk of an accident due to a fall or fall of a patient on a bed in a medical field without contact and without restraint. There has never been a risk level estimation system that estimates the level of risk using an immediately above image formed based on a depth value image. Further, by using the image directly above, it is possible to easily estimate the degree of risk including the situation around the bed.

また、本発明の危険度推定システムは、危険度推定部が、危険度推定を行うための判定層に分割する判定層分割手段と、分割された判定層の中から着目する層を決定する着目層決定手段と、からなり、この着目層を基にして危険度の推定を行う構成となっている。このような方法によって、直上画像を用いて危険度の推定を行うことができる。   In the risk estimation system of the present invention, the risk estimation unit is configured to divide the determination layer into determination layers for performing risk estimation, and to determine a target layer from the divided determination layers. And a layer determining means, and the risk is estimated based on the layer of interest. By such a method, it is possible to estimate the degree of risk using the image directly above.

また、判定層分割手段が、複数の立方体領域に分割する立方体分割手段からなるため、深度方向(Z軸方向)だけでなく、平面領域(X軸方向、Y軸方向)においても領域を分割して、より精度良く危険度推定を行うことができる。   In addition, since the determination layer dividing unit includes a cube dividing unit that divides into a plurality of cube regions, the region is divided not only in the depth direction (Z-axis direction) but also in the plane region (X-axis direction, Y-axis direction). Thus, the risk level can be estimated with higher accuracy.

また、危険度推定部が、更に、対象物の位置を特定するための位置特定手段と、特定された位置を基に危険度を算出する危険度算出手段と、を備えているため、より精度良く危険度推定を行うことが可能である。   In addition, since the risk level estimation unit further includes a position specifying unit for specifying the position of the object and a risk level calculating unit for calculating the risk level based on the specified position, the risk level estimation unit is more accurate. It is possible to estimate the risk well.

また、直上画像取得部が、深度値画像を直上画像に変換する直上画像変換手段を備えるため、危険度推定対象物を斜め方向から撮影して取得した深度値画像からでも直上画像を取得することができる。なお、斜め方向から撮影する場合には、直上画像に変換できる範囲であれば深度値画像を取得する入力部を設置できるので、入力部の設置位置の選択肢が非常に多くなる。   In addition, since the overhead image acquisition unit includes a overhead image conversion means for converting the depth value image into the overhead image, the overhead image can be acquired even from the depth value image obtained by photographing the risk estimation target object from an oblique direction. Can do. Note that when photographing from an oblique direction, an input unit for acquiring a depth value image can be installed within a range that can be converted into an image directly above, so that there are a great number of options for the installation position of the input unit.

実施形態1の危険度推定システムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the risk estimation system of Embodiment 1. FIG. 実施形態1の危険度推定システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the risk estimation system of Embodiment 1. 実施形態1の危険度推定システムの使用例と危険度推定の概念を示した図である。It is the figure which showed the usage example of the danger level estimation system of Embodiment 1, and the concept of risk level estimation. 実施形態2の危険度推定システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the risk estimation system of Embodiment 2. FIG. (A)は実施形態2の危険度推定システムの使用例と危険度推定の概念を示した図であり、(B)は危険度推定において用いる記号を使用例にあわせて概念的に示した図である。(A) is the figure which showed the usage example of the danger level estimation system of Embodiment 2, and the concept of risk level estimation, (B) is the figure which showed the symbol used in risk level estimation according to the usage example conceptually. It is. 斜め方向の深度値画像を直上画像へ変換する座標変換のイメージ図である。It is an image figure of the coordinate conversion which converts the depth value image of a diagonal direction into an image directly above. 危険度推定においてZ軸の各層毎に最大データ数を持つ区画を抽出した具体例を示した図である。It is the figure which showed the specific example which extracted the division with the maximum data number for every layer of Z-axis in risk estimation. 危険度推定において中層MLと下層LLを着目層として着目した場合の中層MLと下層LLのデータを足し合わせた具体例を示した図である。It is the figure which showed the specific example which added together the data of the middle layer ML and lower layer LL when paying attention to the middle layer ML and the lower layer LL as a focused layer in risk estimation. 危険度推定の検証における危険度の重みの設定例を示した図である。It is the figure which showed the example of a setting of the weight of risk in verification of risk estimation. 危険度推定の検証における時系列データを示した図である。It is the figure which showed the time series data in verification of risk estimation. 危険度推定の検証における深度値画像を危険度が高い順に並べた図である。It is the figure which arranged the depth value image in verification of risk estimation in order of high risk.

以下、本発明の具体例について図面を用いて詳細に説明する。但し、以下に示す実施形態は、本発明の技術的思想を具体化するための例示であって、本発明をこの実施形態に特定することを意図するものではなく、本発明は、特許請求の範囲に含まれるその他の実施形態にも等しく適応し得るものである。   Hereinafter, specific examples of the present invention will be described in detail with reference to the drawings. However, the embodiment shown below is an example for embodying the technical idea of the present invention, and is not intended to specify the present invention to this embodiment. Other embodiments within the scope are equally applicable.

[実施形態1]
まず、図1、図2、図3を参照して、本実施形態の危険度推定システム1の基本的な構成を説明する。図1は、危険度推定システム1のハードウェア構成を示すブロック図である。図2は、危険度推定システム1の機能構成を示すブロック図である。図3は、危険度推定システム1の使用例と危険度推定の概念を示した図である。
危険度推定ステム1は、図1に示すように、入力部2、制御部3、記憶部4、出力部5、通信部6を備えている。
[Embodiment 1]
First, the basic configuration of the risk level estimation system 1 of the present embodiment will be described with reference to FIG. 1, FIG. 2, and FIG. FIG. 1 is a block diagram showing a hardware configuration of the risk level estimation system 1. FIG. 2 is a block diagram showing a functional configuration of the risk level estimation system 1. FIG. 3 is a diagram illustrating a usage example of the risk level estimation system 1 and a concept of risk level estimation.
As shown in FIG. 1, the risk estimation stem 1 includes an input unit 2, a control unit 3, a storage unit 4, an output unit 5, and a communication unit 6.

入力部2は、危険度推定システム1を用いて危険度推定を行う対象者Sが含まれる範囲について、深度値の情報により形成される深度値画像を取得するものであり、いわゆる距離画像センサと呼ばれるものである。本実施形態においては、具体的には、入力部2は、ベッドB上の対象者Sを含む画像を取得するためのカメラ2aと、カメラ2aで撮影する画像内の被写体までの深度に関する深度情報を取得する深度センサ2bと、を備えて構成されている。このような構成の距離画像センサとして、Microsoft社製のKINECT(登録商標)が知られている。   The input unit 2 acquires a depth value image formed by depth value information for a range including the target person S who performs risk level estimation using the risk level estimation system 1. It is what is called. In the present embodiment, specifically, the input unit 2 has a camera 2a for acquiring an image including the target person S on the bed B, and depth information regarding the depth to the subject in the image captured by the camera 2a. And a depth sensor 2b for acquiring As a distance image sensor having such a configuration, KINET (registered trademark) manufactured by Microsoft Corporation is known.

なお、本実施形態において、このKINECTを用いて、深度値により形成さる画像を取得しているが、当然ながらこれ以外のものを用いても構わない。また、KINECTには音情報を取得するためのマイクロフォンが備わっている。したがって、このマイクロフォンを入力部2として用い、音情報を取得しても構わない。また、危険度推定に音情報も活用できる場合には、KINECTに限らず入力部2としてマイクロフォンを含むこともできる。また、入力部2は、図示していないが、カメラ2a、深度センサ2bの他に、例えば、危険度推定の対象者となる人の名前を入力する等、危険度推定システム1への情報を入力するためのキーボードやタッチパネル等の入力装置を含んでいても構わない。   In the present embodiment, the image formed by the depth value is acquired using this KINECT, but other than this, it is needless to say. In addition, KINECT is provided with a microphone for acquiring sound information. Therefore, this microphone may be used as the input unit 2 to acquire sound information. If sound information can also be used for risk estimation, the input unit 2 can include a microphone as well as KINECT. In addition to the camera 2a and the depth sensor 2b, the input unit 2 provides information to the risk estimation system 1 such as inputting the name of a person who is a target of risk estimation, for example. An input device such as a keyboard or a touch panel for inputting may be included.

制御部3は、CPU、RAM、ROM等からなり、記憶されているプログラムに基づいて各部の制御や、危険度の推定に伴う各種の処理を実行する。記憶部4は、DRAMやHDDのような記憶装置であり、入力部2で取得した画像データを一時的に記憶しておく等、各種のデータ等を記憶しておく。出力部5は、表示装置やスピーカ等からなり、危険度推定による推定結果等を映像や音を用い出力する。   The control unit 3 includes a CPU, a RAM, a ROM, and the like, and executes various processes associated with control of each unit and risk estimation based on a stored program. The storage unit 4 is a storage device such as a DRAM or HDD, and stores various data such as temporarily storing image data acquired by the input unit 2. The output unit 5 includes a display device, a speaker, and the like, and outputs an estimation result or the like based on risk estimation using video or sound.

通信部6は、インターネットやLAN等を介して携帯端末等の他の機器と通信を行うものである。この通信部6を介することで、危険度推定システム1は危険度推定の結果等を他の機器にも出力することができる。なお、危険度推定システム1は、この通信部6により、既存のナースコールシステムへ接続可能とする構成としてもよい。
このような危険度推定システム1は、図2に示すように、直上画像取得部10と、危険度推定部20と、推定結果出力部30を備えている。
The communication unit 6 communicates with other devices such as a mobile terminal via the Internet or a LAN. Through the communication unit 6, the risk level estimation system 1 can output the risk level estimation results to other devices. The risk estimation system 1 may be configured to be connectable to an existing nurse call system by the communication unit 6.
As shown in FIG. 2, the risk level estimation system 1 includes a top image acquisition unit 10, a risk level estimation unit 20, and an estimation result output unit 30.

直上画像取得部10は、主に入力部2によって構成されており、危険度推定を行う対象者Sを俯瞰するように上方から観察した直上画像を、入力部2を用いて深度値による深度値画像を基に取得する。このような直上画像を取得するために、本実施形態における直上画像取得部10は、入力部2からなる深度値画像取得手段11のみを備えた構成となっている。従って、直上画像取得部10は、対象者の上方に深度値画像取得手段11である入力部2を設置し、この上方の入力部2から得た深度値画像そのものを直上画像として取得している。   The overhead image acquisition unit 10 is mainly configured by the input unit 2, and uses the input unit 2 to obtain a depth value based on a depth value obtained by observing the overhead image observed from above so as to overlook the target person S who performs risk estimation. Acquire based on images. In order to acquire such a directly above image, the directly above image acquiring unit 10 in the present embodiment is configured to include only the depth value image acquiring unit 11 including the input unit 2. Accordingly, the upper image acquisition unit 10 installs the input unit 2 as the depth value image acquisition unit 11 above the subject, and acquires the depth value image itself obtained from the upper input unit 2 as the upper image. .

危険度推定部20は、主に制御部3や記憶部4によって構成されており、直上画像取得部10を介して取得した直上画像を基に、直上画像に含まれる深度値を用いて対象者の危険度を推定する。そして、本実施形態における危険度推定部20は、深度値を用いて直上画像を一定距離毎の画像に区分けし、この区分画像を用いて対象者の姿勢を判定することを特徴としている。このような危険度推定を実現するための一例として、危険度推定部20は、判定層分割手段21と、着目層決定手段22を備えている。   The risk level estimation unit 20 is mainly configured by the control unit 3 and the storage unit 4, and uses the depth value included in the upper image based on the upper image acquired via the upper image acquisition unit 10. Estimate the risk level. The risk estimation unit 20 according to the present embodiment is characterized in that the immediately above image is divided into images for every predetermined distance using the depth value, and the posture of the subject is determined using this divided image. As an example for realizing such risk level estimation, the risk level estimation unit 20 includes a determination layer dividing unit 21 and a target layer determination unit 22.

詳細は具体例とともに後述するが、判定層分割手段21は、直上画像から深度値を用いて、危険度推定を行うための判定層に分割する。着目層決定手段22は、分割された判定層の中から着目する層を決定する。そして、危険度推定部20は、着目層決定手段22により決定された着目層を基に危険度の推定を行う。   Although details will be described later together with a specific example, the determination layer dividing unit 21 divides the determination layer for determination of risk using the depth value from the immediately above image. The target layer determination unit 22 determines a target layer from among the divided determination layers. Then, the risk level estimation unit 20 estimates the risk level based on the target layer determined by the target layer determination unit 22.

つまり、本実施形態の危険度推定部20は、直上画像の深度値の情報を基に、直上画像を深度方向(Z軸方向)に沿って一定距離毎の画像に分割して、一定距離毎の各画像を判定層として形成する。そして、危険度推定部20は、各判定層の中に対象者Sの一部が出現しているか否かにより、対象者Sの出現が見られた判定層を着目層として決定し、その着目層を基に対象者Sが転倒の危険にあるかどうかを推定する。   That is, the risk level estimation unit 20 according to the present embodiment divides the overhead image into images at a certain distance along the depth direction (Z-axis direction) based on the information on the depth value of the overhead image. Each image is formed as a determination layer. Then, the risk estimation unit 20 determines a determination layer in which the appearance of the subject S is seen as a target layer depending on whether or not a part of the subject S appears in each determination layer, and the focus Based on the stratum, it is estimated whether or not the subject person S is in danger of falling.

推定結果出力部30は、主に出力部5によって構成されており、危険度推定部20により推定された対象者Sの危険度についてモニタ等を用いて出力する。この推定結果の出力については、例えば、転倒の危険が高い場合に、危険度が高いことがわかるように、文字で表示したり、音声で出力したりする。   The estimation result output unit 30 is mainly configured by the output unit 5 and outputs the risk level of the subject S estimated by the risk level estimation unit 20 using a monitor or the like. As for the output of the estimation result, for example, when the risk of falling is high, it is displayed in characters or output by voice so that the risk is high.

このような構成の危険度推定システム1について、次に実際の使用例を基に説明を行う。図3は、危険度推定システム1の使用例と共に、危険度推定の概念を示した図である。危険度推定システム1は、ベッドBを使用する対象者SのベッドB上の様子を、直上画像取得部10により取得した直上画像を用いて危険度の推定を行う。   Next, the risk estimation system 1 having such a configuration will be described based on an actual usage example. FIG. 3 is a diagram showing a concept of risk estimation together with a usage example of the risk estimation system 1. The risk level estimation system 1 estimates the risk level of the subject S using the bed B on the bed B using the directly above image acquired by the directly above image acquiring unit 10.

直上画像取得部10を構成する入力部2の距離画像センサとして、先にも説明したようにMicrosoft社製のKINECT(登録商標)を用いた。このKINECTには、512×424[pixel]の平面内に奥行の距離を取得する機能がある。また、この入力部2は、直上画像を得るために対象者Sを上方から撮影する必要があり、ベッドBが置かれた部屋の天井Cに設置されている。   As described above, KINECT (registered trademark) manufactured by Microsoft Corporation was used as the distance image sensor of the input unit 2 constituting the image acquisition unit 10 directly above. This KINECT has a function of acquiring a depth distance in a 512 × 424 [pixel] plane. The input unit 2 needs to photograph the subject S from above in order to obtain an image directly above, and is installed on the ceiling C of the room where the bed B is placed.

また、本実施形態においては、危険度推定部20を構成するハードウェアについても、ベッドBが設置されている部屋Rに配置されており、推定結果出力部30を構成するハードウェアについては、部屋Rとは異なる部屋(例えば、ナースステーション)に配置されている。   Further, in the present embodiment, the hardware configuring the risk estimation unit 20 is also arranged in the room R where the bed B is installed, and the hardware configuring the estimation result output unit 30 is the room It is arranged in a room different from R (for example, a nurse station).

なお、危険度推定システム1は、推定結果出力部30を構成するハードウェアについても、ベッドBが設置されている部屋Rに配置することもできる。この場合、推定結果出力部30によって対象者Sが危険な状態であることを知らせる必要があるため、推定結果出力部30は、警報音等、音声による出力が好ましい。また、部屋Rに設置することで、対象者S本人に対しても、危険であることを自覚させることもできる。   In addition, the danger level estimation system 1 can also arrange | position the hardware which comprises the estimation result output part 30 in the room R in which the bed B is installed. In this case, since the estimation result output unit 30 needs to notify that the subject S is in a dangerous state, the estimation result output unit 30 is preferably output by sound such as an alarm sound. Moreover, by installing in the room R, the subject S himself / herself can be made aware that it is dangerous.

また、危険度推定システム1は、直上画像取得部10を構成するハードウェアを部屋Rに配置し、危険度推定部20や推定結果出力部30を構成するハードウェアを部屋Rとは異なる部屋に配置するという構成を採用することもできる。   In addition, the risk level estimation system 1 arranges the hardware configuring the overhead image acquisition unit 10 in the room R, and sets the hardware levels of the risk level estimation unit 20 and the estimation result output unit 30 in a room different from the room R. It is also possible to adopt a configuration of arranging.

直上画像取得部10で取得された直上画像のデータは、危険度推定システム1の危険度推定部20へと送られる。そして、直上画像取得部10で取得された直上画像を基に、危険度推定部20により対象者Sの危険度推定が行われることになる。ここで、本実施形態における危険度推定部20における危険度推定の具体例を説明する。   The data of the directly above image acquired by the directly above image acquiring unit 10 is sent to the risk level estimating unit 20 of the risk level estimating system 1. Then, the risk level estimation unit 20 estimates the risk level of the target person S based on the directly above image acquired by the top image acquisition unit 10. Here, a specific example of risk estimation in the risk estimation unit 20 in the present embodiment will be described.

まず、直上画像取得部10で取得された直上画像は、深度値による深度値画像で形成されたものである。このため直上画像には深度値の情報が含まれている。そこで、判定層分割手段21は、この深度値を用いて、判定層に分割する。具体的には、直上画像を深度方向(Z軸方向)において一定距離毎の画像に分割して、一定距離毎の各画像を判定層として形成する。   First, the directly above image acquired by the directly above image acquiring unit 10 is formed by a depth value image based on a depth value. For this reason, depth information is included in the image directly above. Therefore, the determination layer dividing unit 21 uses this depth value to divide into determination layers. Specifically, the image immediately above is divided into images at a certain distance in the depth direction (Z-axis direction), and each image at each certain distance is formed as a determination layer.

図3には、判定層として、下層LL、上層ULの二つの層に分割した例を示している。下層LLは、ベッドB表面を基準(0m)として、0.1〜0.9mの画像からなる判定層である。また、上層ULは、0.9〜1.4mの画像からなる判定層である。   FIG. 3 shows an example in which the determination layer is divided into two layers, a lower layer LL and an upper layer UL. The lower layer LL is a determination layer composed of an image of 0.1 to 0.9 m with the bed B surface as a reference (0 m). The upper layer UL is a determination layer made of an image of 0.9 to 1.4 m.

なお、下層LLの範囲について、ベッドB表面の基準0mからではなく0.1mからとした。この理由として、ベッドB表面(0m)からとすると、掛け布団や、シーツのシワ、マットレスの沈み等の影響を受けてしまうためである。そして、特に掛け布団の厚みの影響が大きく、掛け布団の厚みが概ね0.1m以下であったことから、下層LLを0.1mからとした。従って、使用する掛け布団がより厚い物であれば、例えば、0.2mからとすることも可能である。ただし、あまり大きな値にしてしまうと、後述する臥位の姿勢を検出できなくなるため、対象者Sである人体の厚みを考慮すると、0.1mからとするのが好ましい。   In addition, about the range of lower layer LL, it was set from 0.1 m instead of the standard 0 m of the bed B surface. The reason for this is that if it is from the surface of the bed B (0 m), it will be affected by the comforter, wrinkles of the sheets, sinking of the mattress, and the like. And since the influence of the thickness of the comforter was particularly large and the thickness of the comforter was approximately 0.1 m or less, the lower layer LL was set to 0.1 m. Therefore, if the comforter to be used is thicker, for example, it is possible to start from 0.2 m. However, if the value is too large, it will be impossible to detect the posture of the supine position described later. Therefore, in consideration of the thickness of the human body that is the subject S, it is preferable to set the value from 0.1 m.

そして、着目層決定手段22は、下層LL、上層ULに分割された判定層の中から着目層を決定する。この着目層の決定は、次のようにして決定することができる。まず、上層ULに直上画像を形成するデータ数が所定値(閾値)以上あるか否かで決定する。そして、上層ULに閾値以上のデータ数があれば、上層ULを着目層として決定する。   Then, the target layer determination unit 22 determines the target layer from the determination layers divided into the lower layer LL and the upper layer UL. The target layer can be determined as follows. First, it is determined by whether or not the number of data for forming an image directly above the upper layer UL is greater than or equal to a predetermined value (threshold value). If the upper layer UL has a number of data equal to or greater than the threshold, the upper layer UL is determined as the target layer.

上層ULに閾値以上のデータ数がなければ、次に下層LLに着目し、下層LLに直上画像を形成するデータ数が閾値以上あるか否かで決定する。そして、下層LLに閾値以上のデータ数があれば、下層LLを着目層として決定する。   If the upper layer UL does not have the number of data equal to or greater than the threshold value, the lower layer LL is focused next, and the determination is made based on whether or not the number of data for forming the image directly above the lower layer LL is equal to or greater than the threshold value. If the lower layer LL has a data number equal to or greater than the threshold, the lower layer LL is determined as the target layer.

この点について、図3を用いて説明する。図3には、ベッドBにて対象者Sにより想定される3つの代表的な姿勢を示している。この3つの姿勢は、P1と記した姿勢:ベッドB上での臥位、P2と記した姿勢:ベッドB上での座位、P3と記した姿勢:ベッドBからの立位、である。なお、部屋Rの床からベッドB表面までの高さは、0.47mとなっている。   This point will be described with reference to FIG. FIG. 3 shows three typical postures assumed by the subject S in the bed B. These three postures are the posture indicated as P1: the supine position on the bed B, the posture indicated as P2, the sitting position on the bed B, and the posture indicated as P3: standing from the bed B. Note that the height from the floor of the room R to the surface of the bed B is 0.47 m.

例えば、対象者Sの姿勢が、姿勢P1やP2であれば、上層ULにおける直上画像に対象者Sの画像データはないので、上層ULには閾値以上のデータ数はない。一方、対象Sの姿勢が、姿勢P3であれば、上層ULにおける直上画像に、対象者Sの頭や肩の画像が存在する。従って、上層ULには閾値以上のデータ数があることになり、着目層決定手段22は、上層ULを着目層として決定する。   For example, if the posture of the subject S is the posture P1 or P2, there is no image data of the subject S in the image directly above the upper layer UL, and therefore the upper layer UL does not have the number of data equal to or greater than the threshold value. On the other hand, if the posture of the subject S is the posture P3, the image of the head and shoulders of the subject S exists in the image directly above the upper layer UL. Accordingly, the upper layer UL has a number of data equal to or greater than the threshold value, and the target layer determination unit 22 determines the upper layer UL as the target layer.

また、対象者Sの姿勢が、姿勢P1やP2であれば、上層ULにおける直上画像に対象者Sの画像データはないが、下層LLには、対象者Sの画像が存在するため、閾値以上のデータ数があることになる。従って、着目層決定手段22は、下層LLを着目層として決定する。   Further, if the posture of the subject person S is the posture P1 or P2, there is no image data of the subject person S in the image directly above the upper layer UL, but since the image of the subject person S exists in the lower layer LL, the threshold value or more is exceeded. There will be a number of data. Accordingly, the target layer determination unit 22 determines the lower layer LL as the target layer.

このように危険度推定部20は、着目層を決定して危険度の推定を行う。この危険度の推定は、例えば着目層が上層ULであれば対象者SがベッドBから立ち上がって、立位の姿勢になっていることが考えられるので転倒する危険性が非常に高いと言える。このため、危険度推定部20は、転倒する危険度が大と推定することができる。また、着目層が下層LLであれば、対象者SがベッドB上で臥位、或は座位の姿勢になっていることが考えられるので転倒する危険性は低いと言える。このため、危険度推定部20は、転倒する危険度が小と推定することができる。
そして、推定結果出力部30は、危険度推定部20により推定された対象者Sの危険度推定の結果を、推定結果出力部30によってモニタ等を介して出力する。
Thus, the risk level estimation unit 20 determines the target layer and estimates the risk level. For example, if the target layer is the upper layer UL, it can be considered that the subject S stands up from the bed B and is in a standing posture. Therefore, it can be said that the risk of falling is very high. For this reason, the risk level estimation unit 20 can estimate that the risk level of falling is large. Further, if the target layer is the lower layer LL, it can be said that the risk of falling is low because the subject S is in a supine or sitting position on the bed B. Therefore, the risk level estimation unit 20 can estimate that the risk level of falling is small.
Then, the estimation result output unit 30 outputs the result of the risk level estimation of the subject S estimated by the risk level estimation unit 20 by the estimation result output unit 30 via a monitor or the like.

以上のように、危険度推定システム1は、深度値により形成された深度値画像を基に形成される、危険度推定対象物であるベッド上の対象者Sの直上画像を取得する直上画像取得部10と、この直上画像を基に危険度を推定する危険度推定部20と、この推定結果を出力する推定結果出力部30と、を備えた構成となっている。   As described above, the risk level estimation system 1 acquires an image directly above the target person S on the bed, which is a risk level estimation object, formed based on the depth value image formed by the depth value. The configuration includes a unit 10, a risk level estimation unit 20 that estimates the level of risk based on the image directly above, and an estimation result output unit 30 that outputs the estimation result.

このため、従来知られている特許文献2のように、ベッドBの横方向(Y軸方向)から撮影した深度値画像を用いる場合に比べ、より精度の高い危険度推定を行うことが可能となる。つまり、横方向からの深度値画像の場合、対象者Sの延長線上にあるものは深度値画像を得ることができない。例えば、看護師がベッドB周辺に居た場合には、通常危険度が非常に低いか、或は危険度の推定をする必要はない。しかしながら、横方向からの画像では、対象者Sの延長線上に居る看護師を認識できないため、危険度の推定が難しい。また、横方向からでは、ベッドB周辺の情報を知る際にも視野角の問題で完全には捉えることができない。また、並べて置いてある物体(例えば、棚と冷蔵庫)がある場合に、両方の情報や、その高さの情報を得ることが難しい。このように、横方向からの深度値画像だけでの危険度推定では、得られる情報が限られてしまうことから、精度の高い危険度推定を行うことが難しい。   For this reason, it is possible to perform risk estimation with higher accuracy than in the case of using a depth value image photographed from the lateral direction (Y-axis direction) of the bed B as in the conventionally known Patent Document 2. Become. That is, in the case of a depth value image from the horizontal direction, a depth value image cannot be obtained if it is on the extension line of the subject S. For example, when the nurse is in the vicinity of the bed B, the risk is usually very low, or it is not necessary to estimate the risk. However, in the image from the horizontal direction, it is difficult to estimate the degree of risk because the nurse who is on the extension line of the subject S cannot be recognized. Also, from the lateral direction, when the information around the bed B is known, it cannot be completely captured due to the problem of viewing angle. Moreover, when there are objects (for example, a shelf and a refrigerator) placed side by side, it is difficult to obtain both information and information about the height thereof. As described above, in the risk level estimation using only the depth value image from the horizontal direction, information to be obtained is limited. Therefore, it is difficult to estimate the risk level with high accuracy.

そして更に、危険度推定システム1は、危険度推定部20が直上画像から深度値を用いて、危険度推定を行うための下層LLと上層ULからなる判定層に分割する判定層分割手段21と、判定層の中から着目する層を決定する着目層決定手段22と、からなり、着目層決定手段22により決定された着目層を基に危険度の推定を行う構成となっている。このため、危険度推定システム1は、ベッドBでの対象者Sの事故のリスクを、非接触、非拘束で取得することができる。   Further, the risk level estimation system 1 includes a determination layer dividing unit 21 that divides the risk level estimation unit 20 into determination layers including a lower layer LL and an upper layer UL for risk level estimation using a depth value from an immediately above image. The target layer determining means 22 for determining the target layer from the judgment layers, and the risk level is estimated based on the target layer determined by the target layer determining means 22. For this reason, the danger level estimation system 1 can acquire the risk of the accident of the subject S in the bed B without contact and without restraint.

なお、本実施形態の危険度推定システム1は、危険度推定部20が判定層分割手段21と、着目層決定手段22と、からなる構成であるが、このような構成を備えていない場合には、例えば、直上画像から所定の距離における形状やベッドB上の位置を特定し、その情報から対象者Sの姿勢をパターンマッチング等で特定し、危険度推定を行うことが考えられる。   The risk level estimation system 1 according to the present embodiment has a configuration in which the risk level estimation unit 20 includes the determination layer division unit 21 and the target layer determination unit 22, but when such a configuration is not provided. For example, it is conceivable to specify the shape at a predetermined distance or the position on the bed B from the image directly above, specify the posture of the subject S by pattern matching or the like from the information, and perform the risk estimation.

また、着目層決定手段22において、下層LLに直上画像を形成するデータ数が閾値以上ない場合には、対象者Sが不在状態であるとして危険度の推定(例えば、不在のため転倒する危険はなしと推定)を行うことができる。また、着目層決定手段22において、判定層に直上画像を形成するデータ数が閾値以上あるか否かで決定しているのは、ベッドBの布団やベッドB周りに設置された柵等、対象者S以外に様々な物が存在しているため、対象者S以外の物が直上画像に含まれる場合の影響を防ぐためである。例えば、入力部2で、512×424[pixel]のデータを取得するKINECT(登録商標)を用いる場合に、データ数の閾値の一例として、1500程度とすることができる。   In addition, in the target layer determination unit 22, when the number of data for forming an image directly above the lower layer LL is not greater than or equal to the threshold value, the risk level is estimated as the subject S is absent (for example, there is no risk of falling because of the absence) Can be estimated). In addition, the target layer determination means 22 determines whether the number of data for forming an image directly above the determination layer is greater than or equal to a threshold value, such as a bed B, a fence installed around the bed B, and the like. This is because various objects other than the person S exist to prevent an influence when an object other than the object person S is included in the image directly above. For example, when KINECT (registered trademark) that acquires 512 × 424 [pixel] data is used in the input unit 2, it may be about 1500 as an example of the threshold value of the number of data.

[実施形態2]
次に他の実施形態である危険度推定システム1Aについて説明する。図4は、危険度推定ステム1Aの機能構成を示すブロック図である。図5は、危険度推定システム1Aの使用例と危険度推定の概念を示した図である。
[Embodiment 2]
Next, a risk estimation system 1A that is another embodiment will be described. FIG. 4 is a block diagram showing a functional configuration of the risk estimation stem 1A. FIG. 5 is a diagram showing a usage example of the risk level estimation system 1A and the concept of risk level estimation.

なお、本実施形態の危険度推定システム1Aは、図1に示す実施形態1の危険度推定システム1と同様のハードウェア構成となっており、入力部2、制御部3、記憶部4、出力部5、通信部6を備えている。そして、危険度推定システム1Aは、図4に示すように直上画像取得部10Aと、危険度推定部20Aと、推定結果出力部30Aを備えている。   The risk level estimation system 1A of the present embodiment has the same hardware configuration as the risk level estimation system 1 of the first embodiment shown in FIG. 1, and includes an input unit 2, a control unit 3, a storage unit 4, and an output. Unit 5 and communication unit 6. As shown in FIG. 4, the risk level estimation system 1 </ b> A includes a top image acquisition unit 10 </ b> A, a risk level estimation unit 20 </ b> A, and an estimation result output unit 30 </ b> A.

直上画像取得部10Aは、主に入力部2によって構成されており、危険度推定を行う対象者Sを上方から観察したような直上画像を、入力部2を用いて深度値による深度値画像を基に取得する。   The overhead image acquisition unit 10 </ b> A is mainly configured by the input unit 2. The overhead image obtained by observing the target person S who performs risk estimation from above is displayed as a depth value image based on the depth value using the input unit 2. Get based on.

ここで、実施形態1の危険度推定システム1では、直上画像取得部10は、深度値画像取得手段11のみで構成し、対象者Sの上方である部屋Rの天井Cに設置した入力部2から得た深度値画像そのものを直上画像として取得していた。   Here, in the risk level estimation system 1 of the first embodiment, the overhead image acquisition unit 10 includes only the depth value image acquisition unit 11 and is installed on the ceiling C of the room R above the subject S. The depth value image itself obtained from the above was acquired as a directly above image.

ところで、直上画像を取得するには、入力部2の設置場所として、実施形態1のように、部屋Rの天井Cで、特にベッドBの中心の直上が理想的である。しかしながら、部屋Rの天井Cに入力部2を設置することは、入力部2が対象者Sへ落下する危険性があること、入力部2が視界に入り対象者Sに不快感を与える可能性があること等からあまり好ましくはない。   By the way, in order to acquire an image directly above, the ideal location for the input unit 2 is the ceiling C of the room R, particularly the center of the bed B, as in the first embodiment. However, installing the input unit 2 on the ceiling C of the room R may cause the input unit 2 to fall onto the subject S, and may cause the subject S to feel uncomfortable when the input unit 2 enters the field of view. It is not so preferable because there is.

そこで、本実施形態では、図5に示すように入力部2の設置場所として、対象者Sの視界に入り難いベッドBの頭部側としている。このため、本実施形態危険度推定システム1Aでは、直上画像取得部10Aの構成として、深度値画像取得手段11Aと、直上画像変換手段12Aを備えたものとなっている。   Therefore, in the present embodiment, as shown in FIG. 5, the input unit 2 is installed on the head side of the bed B that is difficult to enter the field of view of the subject S. For this reason, in this embodiment risk level estimation system 1A, as a configuration of the overhead image acquisition unit 10A, a depth value image acquisition means 11A and an overhead image conversion means 12A are provided.

深度値画像取得手段11Aは、実施形態1の深度値画像取得手段11と同様に、深度値による深度値画像を取得する。このとき、本実施形態では、深度値画像は、ベッドBを斜め方向から撮影した画像となる。そこで、危険度を推定する直上画像を得るために、この斜め方向から撮影した深度値画像を用いて、対象者Sの真上から撮影したような画像に変換する必要がある。   The depth value image acquisition unit 11A acquires a depth value image based on the depth value, similarly to the depth value image acquisition unit 11 of the first embodiment. At this time, in this embodiment, the depth value image is an image obtained by photographing the bed B from an oblique direction. Therefore, in order to obtain an image directly above the risk level, it is necessary to convert the image into an image taken from directly above the subject S using the depth value image taken from the oblique direction.

そこで、直上画像変換手段12Aは、深度値画像取得手段11Aにより取得した深度値画像を直上画像へ変換する。深度値画像を直上画像に変換する具体的な方法については、具体例ともに後述する。   Therefore, the upper image conversion unit 12A converts the depth value image acquired by the depth value image acquisition unit 11A into an upper image. A specific method for converting the depth value image into the image directly above will be described later together with a specific example.

危険度推定部20Aは、主に制御部3や記憶部4によって構成されており、直上画像取得部10Aを介して取得した直上画像を基に、直上画像に含まれる深度値を用いて対象者Sの危険度を推定する。このような危険度推定を実現するための一例として、本実施形態においては、立方体分割手段21Aと、着目層決定手段22Aと、位置特定手段23Aと、危険度算出手段24Aを備えている。   The risk level estimation unit 20A is mainly configured by the control unit 3 and the storage unit 4, and based on the directly above image acquired via the directly above image acquiring unit 10A, the risk level estimation unit 20A uses the depth value included in the directly above image. Estimate the risk of S. As an example for realizing such risk level estimation, the present embodiment includes a cube division unit 21A, a target layer determination unit 22A, a position specifying unit 23A, and a risk level calculation unit 24A.

立方体分割手段21Aは、直上画像から深度値を用いて、危険度推定を行うための格子状の領域に分割する。ここで、実施形態1の判定層分割手段21は、深度の方向(Z軸方向)に下層LL、上層ULのように分割するのみであった。一方、本実施形態の立方体分割手段21Aは、Z軸方向に分割するだけでなく、図5に示すようにベッドBの横方向(X軸方向)、縦方向(Y軸方向)にも分割することで、複数の立方体領域に分割を行う構成となっている。   The cube dividing means 21A uses the depth value from the immediately above image to divide into grid-like areas for estimating the degree of risk. Here, the determination layer dividing unit 21 according to the first embodiment only divides in the depth direction (Z-axis direction) like the lower layer LL and the upper layer UL. On the other hand, the cube dividing means 21A of this embodiment not only divides in the Z-axis direction, but also divides in the horizontal direction (X-axis direction) and vertical direction (Y-axis direction) of the bed B as shown in FIG. Thus, the configuration is such that a plurality of cubic regions are divided.

このように、Z軸方向だけでなくて、X軸方向とY軸方向についても分割を行うことで、対象者SがベッドB上のどこにいるのかを含めて危険度の推定を行うことができるので、危険度推定システム1Aは、より精度の高い危険度推定を行うことが可能となる。
着目層決定手段22Aは、分割された立方体領域から、危険度推定を行うためのZ軸方向における着目層を決定する。
In this way, by dividing not only in the Z-axis direction but also in the X-axis direction and the Y-axis direction, it is possible to estimate the degree of danger including where the subject S is on the bed B. Therefore, the risk level estimation system 1A can perform risk level estimation with higher accuracy.
The target layer determination means 22A determines the target layer in the Z-axis direction for estimating the risk level from the divided cubic region.

位置特定手段23Aは、対象者Sが存在する位置を特定する。本実施形態においては、着目層決定手段22Aにより決定する着目層を基に、重心位置を利用して、対象者Sが存在する立方体領域の区画を推定することで対象者Sの位置を特定する。   The position specifying unit 23A specifies the position where the target person S exists. In the present embodiment, based on the target layer determined by the target layer determination unit 22A, the position of the target person S is specified by estimating the section of the cubic region where the target person S exists using the position of the center of gravity. .

危険度算出手段24Aは、対象者Sの危険度を算出する。本実施形態においては、位置特定手段23Aによる重心位置を利用して、危険度を算出する。このような危険度を算出することにより、実施形態1の危険度推定部20に比べ、より精度の高い危険度推定を行うことが可能となる。   The risk level calculation means 24A calculates the risk level of the subject S. In the present embodiment, the degree of risk is calculated using the position of the center of gravity by the position specifying means 23A. By calculating such a risk level, it is possible to perform a risk level estimation with higher accuracy than the risk level estimation unit 20 of the first embodiment.

また、位置特定手段23Aによる重心位置を利用することで、ベッドBの位置による危険度の違いを反映させた危険度推定を行うことができる。つまり、ベッドB上でも、ベッドB端は転倒の可能性が高く、また枕元では転倒の可能性が低い等、ベッドB上の位置によっても転倒の危険が異なっている。従って、各区画に危険性の重み付けを行うことで、対象者Sの位置と重みを基に危険度の算出を行うことが可能となる。
推定結果出力部30Aは、主に出力部5によって構成されており、危険度推定部20Aにより推定された対象者の危険度についてモニタ等を用いて出力する。
Further, by using the position of the center of gravity by the position specifying means 23A, it is possible to estimate the degree of risk reflecting the difference in the degree of danger depending on the position of the bed B. That is, even on the bed B, the risk of falling differs depending on the position on the bed B, such as the possibility of the bed B falling over and the possibility of falling down at the bedside. Therefore, it is possible to calculate the degree of risk based on the position and weight of the target person S by weighting the risk to each section.
The estimation result output unit 30A is mainly configured by the output unit 5, and outputs the risk level of the subject estimated by the risk level estimation unit 20A using a monitor or the like.

このように、本実施形態の危険度推定システム1Aは、直上画像取得部10Aで、まず深度値画像取得手段11Aにより、ベッドBを斜め方向から撮影した深度値画像を取得し、次に直上画像変換手段12Aにより直上画像に変換する。そして、危険度推定システム1Aは、危険度推定部20Aで、立方体分割手段21Aにより深度値の情報を基にX、Y、Z軸方向に複数の区画に分割し、着目層決定手段22AによりZ軸方向における着目層を決定し、位置特定手段23Aにより対象者Sの位置を特定し、危険度算出手段24Aにより危険度の算出を行って、危険度推定を行い、推定結果の出力を推定結果出力部30Aで行う。   As described above, in the risk level estimation system 1A of the present embodiment, the upper image acquisition unit 10A first acquires the depth value image obtained by photographing the bed B from the oblique direction by the depth value image acquisition unit 11A, and then the upper image. The image is converted into the image immediately above by the conversion means 12A. Then, the risk estimation system 1A is divided into a plurality of sections in the X, Y, and Z-axis directions based on the depth value information by the cube dividing means 21A by the risk estimating section 20A, and the target layer determining means 22A performs Z The target layer in the axial direction is determined, the position of the target person S is specified by the position specifying means 23A, the risk is calculated by the risk calculating means 24A, the risk is estimated, and the output of the estimation result is estimated. This is performed by the output unit 30A.

このような構成の危険度推定システム1Aについて、次に図5の実際の使用例を基に説明を行う。なお、図5(B)には、以下で用いる記号を使用例にあわせて概念的に示している。上層ULはZ=2、中層MLはZ=1、下層LLはZ=0であり、図5(B)は下層LL(Z=0)の例を示している。また、dは各画素の境界線、nは区画内のデータ数、wは転倒リスクの重みである。
危険度推定システム1Aは、ベッドBを使用する対象者SのベッドB上の様子を、直上画像取得部10Aにより取得した直上画像を用いて危険度の推定を行う。
Next, the risk estimation system 1A having such a configuration will be described based on an actual use example of FIG. In FIG. 5B, symbols used below are conceptually shown according to usage examples. The upper layer UL is Z = 2, the middle layer ML is Z = 1, the lower layer LL is Z = 0, and FIG. 5B shows an example of the lower layer LL (Z = 0). Further, d is the boundary line of each pixel, n is the number of data in the section, and w is the weight of the fall risk.
The risk level estimation system 1A estimates the risk level of the subject S using the bed B on the bed B using the directly above image acquired by the directly above image acquiring unit 10A.

直上画像取得部10Aを構成する入力部2の距離画像センサとして、実施形態1と同様に、Microsoft社製のKINECT(登録商標)を用いた。また、この入力部2は、対象者Sの視界に入り難いよう、ベッド頭部側に設置されている。
なお、本実施形態における条件について、以下のようになっている。
ベッドBのサイズ(W×D×H) 0.9×2.1×0.5[m]
入力部2の傾き角度θ 32.4[°]
地面から入力部2までの高さ 1.95[m]
ベッドBから入力部2までの高さ 1.45[m]
As the distance image sensor of the input unit 2 constituting the immediately above image acquisition unit 10A, as in the first embodiment, KINET (registered trademark) manufactured by Microsoft Corporation was used. Moreover, this input part 2 is installed in the bed head side so that it may become difficult to enter into the view field of the subject S.
The conditions in this embodiment are as follows.
Bed B size (W x D x H) 0.9 x 2.1 x 0.5 [m]
Inclination angle θ 32.4 [°] of the input unit 2
Height from the ground to the input unit 2 1.95 [m]
Height from bed B to input 2 1.45 [m]

直上画像取得部10Aの深度値画像取得手段11Aで取得された深度値画像は、斜め方向から撮影されたデータであるため、ベッドBの中心の直上から見た直上画像への変換が必要となる。そこで、本実施形態においては、直上画像変換手段12Aによって、斜め方向から得た深度値画像が直上画像へと変換されることになる。直上画像への変換については、取得したデータを、式(1)を使い射影する。   Since the depth value image acquired by the depth value image acquiring unit 11A of the directly above image acquiring unit 10A is data captured from an oblique direction, it is necessary to convert the depth value image into an image directly above the center of the bed B. . Therefore, in the present embodiment, the depth value image obtained from the oblique direction is converted into the directly above image by the directly above image converting means 12A. For conversion to an image directly above, the acquired data is projected using equation (1).

ここで、θは地面に対する入力部2の傾きであり、本実施形態では32.4°となっている。式(1)の変換は、深度値画像を構成する512×424[pixel]の距離情報全てに対して行う。この変換結果から直上画像を得る。   Here, θ is the inclination of the input unit 2 with respect to the ground, and is 32.4 ° in this embodiment. The conversion of Expression (1) is performed on all the 512 × 424 [pixel] distance information constituting the depth value image. A top image is obtained from this conversion result.

なお、直上画像への変換について補足する。図6に式(1)による座標変換のイメージ図を示す。入力部2から得られた深度情報を、真上から撮影した情報へ変換するためには、ZY座標系をZ´Y´座標系に変換すればよい。Z´Y´座標はZY座標から角度90−θ[°]だけ傾いているため、座標データPに対し回転行列を乗算すれば、Z´Y´座標軸データP´に変換できる。このことから、式(1)により直上画像への変換が可能となる。   In addition, it supplements about the conversion to a direct image. FIG. 6 shows an image diagram of coordinate conversion by equation (1). In order to convert the depth information obtained from the input unit 2 into information photographed from directly above, the ZY coordinate system may be converted to the Z′Y ′ coordinate system. Since the Z′Y ′ coordinate is inclined by an angle 90−θ [°] from the ZY coordinate, if the coordinate data P is multiplied by a rotation matrix, it can be converted to Z′Y ′ coordinate axis data P ′. From this, it is possible to convert the image directly above according to the equation (1).

直上画像取得部10Aによる直上画像のデータは、危険度推定部20Aへと送られる。そして、まず立方体分割手段21Aにより、深度値の情報を基にX、Y、Z軸方向に複数の立方体領域の区画に分割される。ところで、この直上画像のデータは、変換前の深度値画像と同様、512×424個という多くの距離情報を持つ。そのため全ての距離情報をそのまま使用すると危険度推定をリアルタイムに行うことが難しい。このため、直上画像のデータを立方体領域の区画に分割することは、データの低次元化にもなり、リアルタイムでの危険度推定の容易化にもつながる。
このようなデータの低次元化となる立方体分割手段21Aにおける立方体領域の区画に分割する具体的な方法について以下に説明する。
[1]直上画像のデータにおいて、ベッドBの範囲を選択する。なお、ベッドBの周りの人物の様子等も捉えたいときは、ベッドB外の範囲も設定する。
The data of the directly above image by the directly above image acquiring unit 10A is sent to the risk degree estimating unit 20A. First, the cube dividing unit 21A divides the cube into a plurality of cubic regions in the X, Y, and Z axis directions based on the depth value information. By the way, the data of the image immediately above has a lot of distance information of 512 × 424 pieces as in the depth value image before conversion. Therefore, if all the distance information is used as it is, it is difficult to estimate the risk level in real time. For this reason, dividing the data of the immediately above image into cubic area sections also leads to a reduction in dimension of the data and also facilitates risk level estimation in real time.
A specific method for dividing the data into cube sections in the cube dividing means 21A for reducing the data dimension will be described below.
[1] The range of the bed B is selected in the data of the immediately above image. In addition, when the state of the person around the bed B is to be captured, a range outside the bed B is also set.

[2]選択した範囲内でデータを格子状に分割する。分割はX軸、Y軸、Z軸の全てに対して行う。なお、図5に示すように、Z軸を下層LL、中層ML、上層ULの3層としたのは、臥位P1、座位P2、立位P3の判定を可能にするためである。座位P2は、立位P3に遷移する前の姿勢であり、対象者Sの転倒時を未然に防ぐためには、臥位P1、立位P3以外に座位P2の姿勢も判定できる方がよいためである。 [2] Data is divided into a grid within the selected range. The division is performed for all of the X axis, the Y axis, and the Z axis. As shown in FIG. 5, the reason why the Z-axis is made up of the lower layer LL, the middle layer ML, and the upper layer UL is to enable the determination of the supine position P1, the sitting position P2, and the standing position P3. The sitting position P2 is the posture before the transition to the standing position P3, and in order to prevent the subject S from falling, it is better to be able to determine the posture of the sitting position P2 in addition to the standing position P1 and the standing position P3. is there.

[3]各区画を分割する際の閾値をdX x,dY y,dZ z、として、立方体領域の複数の区画に分割する。なお、本実施形態においては、3×3×3の27区画に分割している。
[4]また、本実施形態においては、
[3] Divide each section into a plurality of sections in the cubic region, with threshold values for dividing each section being d X x , d Y y , and d Z z . In this embodiment, the image is divided into 3 × 3 × 3 27 sections.
[4] In the present embodiment,

の範囲内に存在しているデータ数をn(x,y,z)とする。そして、全ての区画のデータ数n(x,y,z)を求める。 Let n (x, y, z) be the number of data existing in the range. Then, the number of data n (x, y, z) of all sections is obtained.

[5]Z軸(上層UL、中層ML、下層LL)の各層毎に最大データ数を持つ区画を抽出する。図7には、Z軸の各層毎に最大データ数を持つ区画を抽出した具体例を示している。なお、各層毎の最大データ数を持つ区画を、各層で灰色の区画で示している。
そして、
上層ULの最大データ数をnmax(2)
中層MLの最大データ数をnmax(1)
下層LLの最大データ数をnmax(0)
とする。
[5] A partition having the maximum number of data is extracted for each layer of the Z axis (upper layer UL, middle layer ML, lower layer LL). FIG. 7 shows a specific example in which a section having the maximum number of data is extracted for each layer of the Z axis. A section having the maximum number of data for each layer is indicated by a gray section in each layer.
And
Maximum number of upper layer UL data is n max (2)
The maximum number of data in the middle layer ML is n max (1)
The maximum number of data in the lower layer LL is n max (0)
And

次に、着目層決定手段22Aにより着目層の決定を行う。ここで、本実施形態においては、着目層決定手段22Aと、次の位置特定手段23Aによって、対象者Sが存在する立方体領域の区画を特定している。以下に、対象者Sの存在する区画の決定する方法について説明する。   Next, the target layer is determined by the target layer determination means 22A. Here, in the present embodiment, the section of the cubic region where the target person S exists is specified by the target layer determination unit 22A and the next position specifying unit 23A. Below, the method to determine the division where the subject S exists is demonstrated.

[1]まず、対象者Sがどの層にいるかを判定するため、各層の最大データ数があらかじめ定義した閾値を上回っているか比較する。この時、下層LLの閾値をnth(0)、中層MLの閾値をnth(1)、上層ULの閾値nth(2)とする。本実施例では、nth(0)=nth(1)=nth(2)=1500として設定する。この時、図7に示した具体例では中層MLと下層LLが、閾値を上回っている。
[2]この結果から、着目する層を以下にしたがって決定する。
[a]IF nmax(2)≧nth(2) THEN 上層ULに着目
ELSE b)へ
[b]IF nmax(1)≧nth(1) THEN 中層MLと下層LLに着目
ELSE c)へ
[c]IF nmax(0)≧nth(0) THEN 中層MLと下層LLに着目
ELSE 不在(どの層も見ない)
[1] First, in order to determine which layer the subject S is in, it is compared whether the maximum number of data in each layer exceeds a predefined threshold. At this time, the lower layer LL has a threshold value n th (0), the middle layer ML has a threshold value n th (1), and the upper layer UL has a threshold value n th (2). In this embodiment, n th (0) = n th (1) = n th (2) = 1500 is set. At this time, in the specific example shown in FIG. 7, the middle layer ML and the lower layer LL exceed the threshold.
[2] From this result, the target layer is determined according to the following.
[A] IF n max (2) ≧ n th (2) THEN Focus on the upper layer UL
To ELSE b) [b] IF n max (1) ≥ n th (1) THEN Pay attention to middle layer ML and lower layer LL
To ELSE c) [c] IF n max (0) ≥ n th (0) THEN Focus on middle layer ML and lower layer LL
Absence of ELSE (not seeing any layer)

ここで、図7の具体例では、[b]が選択されることになる。なお、中層MLと下層LLに関しては、上記のように中層MLと下層LLとを一緒に着目するのではなく、別々に着目することもできる。しかしながら、中層MLと下層LLを別々に着目すると、中層ML→下層LLまたは下層LL→中層MLへと着目する層を切り替える際にデータが不連続になるため、中層MLと下層LLとは合わせて着目するのが好ましい。ただし、中層MLと下層LLを合わせてから閾値の判定を行うと、ノイズが混じり正しい判定ができなくなる可能性が出てくるため、閾値の判定においては中層MLと下層LLの判定を上記のように分けて行うのが好ましい。   Here, in the specific example of FIG. 7, [b] is selected. In addition, regarding the middle layer ML and the lower layer LL, the middle layer ML and the lower layer LL may not be focused together as described above, but may be focused separately. However, if attention is paid separately to the middle layer ML and the lower layer LL, the data becomes discontinuous when the layer of interest is switched from the middle layer ML to the lower layer LL or the lower layer LL to the middle layer ML. It is preferable to pay attention. However, if the threshold value is determined after the middle layer ML and the lower layer LL are combined, there is a possibility that correct determination cannot be made due to noise, so the determination of the middle layer ML and the lower layer LL is performed as described above. It is preferable to divide into two.

[3][2]で中層MLと下層LLを着目層として着目する場合、図8に示すように、中層MLと下層LLのデータを足し合わせ、上層ULに着目する場合は、n(x,y,2)をそのまま使用する。これを式で表すと、式(3)のようになる。 [3] When focusing on the middle layer ML and the lower layer LL as the target layer in [2], as shown in FIG. 8, when adding the data of the middle layer ML and the lower layer LL and focusing on the upper layer UL, n (x, y, 2) is used as it is. When this is expressed by an equation, the equation (3) is obtained.

[4]着目層において、n´(x,y,z)が最大数となる区画のx,y,zをそれぞれxmax,ymax,zmaxとおく。
[5]そして、最大数の区画を基準として、X軸の重心座標gX、Y軸の重心座標gY、Z軸の重心座標gZを式(4)により求める。
[4] In the layer of interest, the x, y, and z of the section where n ′ (x, y, z) is the maximum are set to x max , y max , and z max , respectively.
[5] Based on the maximum number of sections, the center-of-gravity coordinates g X on the X-axis, the center-of-gravity coordinates g Y on the Y-axis, and the center-of-gravity coordinates g Z on the Z-axis are obtained by Expression (4).

そして、求めた重心座標を対象者Sの位置と定義する。 The obtained barycentric coordinates are defined as the position of the subject S.

次に、危険度算出手段24Aでは、特定した対象者Sの位置を基に、対象者Sの危険度の算出を行う。具体的には、算出した重心座標gX、gY、gZを用い、以下の手順で行う。
[1]まず、立方体領域の各区画に転倒リスクの重みを各々設定する。各軸の転倒リスクの重みをそれぞれwx、wy、wzとする。
[2]重心座標gXと以下の式(5)から、使用する危険度(以下、転倒リスクと適宜記す)の重みを決める。
Next, the risk level calculation means 24A calculates the risk level of the target person S based on the identified position of the target person S. Specifically, using the calculated center-of-gravity coordinates g X , g Y , and g Z , the following procedure is used.
[1] First, the weight of the fall risk is set for each section of the cubic region. Let w x , w y , and w z be the weights of the fall risk for each axis.
[2] From the barycentric coordinates g X and the following equation (5), the weight of the degree of risk to be used (hereinafter referred to as a fall risk as appropriate) is determined.

[3]そして、式(6)または式(7)により、X軸方向の転倒リスクrXを求める。またY軸、Z軸の転倒リスクrY、rZも同様に求める。 [3] Then, the fall risk r X in the X-axis direction is obtained by the equation (6) or the equation (7). In addition, the fall risks r Y and r Z of the Y axis and Z axis are obtained in the same manner.

[4]そして、X軸、Y軸、Z軸の転倒リスクの合計r(r=rX+rY+rZ)が本実施形態における最終的な転倒リスクとなる。 [4] The total fall risk r (r = r X + r Y + r Z ) of the X axis, the Y axis, and the Z axis is the final fall risk in this embodiment.

ここで、危険度推定部20Aにおける上記方法による危険度推定の有用性を検証した結果について説明する。有用性を検証するため本発明者は、実際の病院で実患者による検証を行った。検証時の被験者には、入院中の成人男性を選定した。実験条件は、
ベッドBのサイズ(W×D×H) 0.9×2.1×0.5[m]
入力部2の傾き角度θ 32.4[°]
地面から入力部2までの高さ 1.95[m]
ベッドBから入力部2までの高さ 1.45[m]
サンプリング間隔 1.0[s]
着目する層を決定する閾値 1500(上層UL〜下層LL全て)
である。また、各区画の重みを図9に示す。
Here, the result of verifying the usefulness of the risk estimation by the above method in the risk estimation unit 20A will be described. In order to verify the usefulness, the present inventor performed verification by an actual patient in an actual hospital. The test subjects were adult males in hospital. Experimental conditions are
Bed B size (W x D x H) 0.9 x 2.1 x 0.5 [m]
Inclination angle θ 32.4 [°] of the input unit 2
Height from the ground to the input unit 2 1.95 [m]
Height from bed B to input 2 1.45 [m]
Sampling interval 1.0 [s]
Threshold 1500 for determining the layer of interest (all upper layer UL to lower layer LL)
It is. Moreover, the weight of each division is shown in FIG.

今回は、ベッドB内に加え、ベッドB外の対象者Sの様子(立位の姿勢等)も捉えるため、上層ULのX軸の計測範囲をベッドB外まで拡張した。そしてベッド外の転倒リスクの重みは3として危険度推定システム1Aが算出したリスク値と、そのときの対象者Sの姿勢を比較して評価を行った。   This time, in addition to the bed B, the X-axis measurement range of the upper layer UL was extended to the outside of the bed B in order to capture the state of the subject S outside the bed B (standing posture, etc.). The evaluation was performed by comparing the risk value calculated by the risk estimation system 1A with the weight of the fall risk outside the bed being 3, and the posture of the subject S at that time.

そして、実験条件より導出された転倒リスクの時系列データを図10に示す。また、点(a)〜(l)の時の深度値画像(対象者Sの様子を示した画像)を危険度が高い順に並べた結果を図11に示す。なお、図11の(a)〜(l)の各画像において、左上の数値は算出された危険度であり、右上の数値は図10における各点での時間(s)である。   And the time series data of the fall risk derived | led-out from experimental conditions are shown in FIG. In addition, FIG. 11 shows a result of arranging the depth value images (images showing the state of the subject S) at the points (a) to (l) in descending order of the degree of risk. In each of the images (a) to (l) in FIG. 11, the upper left numerical value is the calculated degree of risk, and the upper right numerical value is the time (s) at each point in FIG. 10.

この結果を見ると、計測範囲内に対象者Sが一人だけのときの転倒危険度は、「立位(6.0〜6.3)」→「端座位(4.1〜4.3)」→「臥位(2.2〜2.6)」→「計測範囲外に存在(−2.0)」の順になっていることがわかる。この結果は「対象者Sが立ち上がっているときは転倒の危険性が高く、寝ているときや不在のときは転倒の危険性が低い」という性質を満たしているため妥当である。   Looking at this result, the fall risk when there is only one subject S within the measurement range is “standing position (6.0 to 6.3)” → “end sitting position (4.1 to 4.3)”. It can be seen that the order is “→ post position (2.2 to 2.6)” → “exists outside measurement range (−2.0)”. This result is appropriate because it satisfies the property of “the risk of falling is high when the subject S is standing up and the risk of falling is low when the subject S is sleeping or absent”.

なお、(f)の危険度が7.6と高くなった原因としては、危険度推定システム1Aが来訪者(Another Man)を患者と間違えたためである。このような現象については、計測範囲の調整や前後の時系列データを利用することで回避可能である。   The reason why the risk level of (f) has increased to 7.6 is that the risk level estimation system 1A mistaken the visitor (Another Man) for the patient. Such a phenomenon can be avoided by adjusting the measurement range and using time series data before and after.

また、(k)は立位の姿勢であるように思われるが、危険度は−2.0と人物が不在のときの値になってしまっている。今回の危険度推定システム1Aでは、危険度推定の際に、ベッドB外については上層ULの動きしか見ていない。(k)では対象者Sが机にもたれているため、対象者Sの背丈が実際よりも低く検出され、不在と判定されてしまったことによる。このような結果については、実際の立位の姿勢を不在と捉えたものではあるが、不在は立位の後の姿勢であることから、不在の前に立位が判定されることから、危険度を推定する上では実用上問題はないと考える。
そして、このように危険度推定部20Aの危険度算出手段24Aで算出された結果が、推定結果出力部30Aにより出力される。
Although (k) seems to be a standing posture, the risk is -2.0, which is the value when no person is present. In this risk level estimation system 1A, only the movement of the upper layer UL is seen outside the bed B when the risk level is estimated. In (k), since the subject person S leans against the desk, the height of the subject person S is detected lower than the actual height, and it is determined that the subject person S is absent. For these results, although the actual standing posture is regarded as absent, the absence is a posture after standing, so the standing posture is determined before the absence. There is no practical problem in estimating the degree.
Then, the result calculated by the risk level calculation means 24A of the risk level estimation unit 20A is output by the estimation result output unit 30A.

以上にように危険度推定システム1Aは、直上画像取得部10Aが深度値画像を直上画像に変換する直上画像変換手段12Aを備えた構成となっている。従って、対象者Sに不快感を与え難いベッドBの頭部側から深度値画像を取得することができる。また、直上画像を用いた危険度推定は、実施形態1の説明でも記載したように、精度の高い危険度推定を行うことが可能となる。従って、斜め方向から深度値画像を取得し、この斜め方向からの深度値画像を直上画像に変換できることで、危険度推定システム1Aは、斜め方向からの深度値画像を用いながら、より精度の高い危険度推定を行うことができる。なお、直上画像取得部10Aにより、斜め方向から深度値画像を取得する場合、直上画像に変換できる範囲であれば深度値画像取得手段11Aを構成する入力部2を設置できる。従って、入力部2の設置可能な範囲が非常に多くなる。   As described above, the risk level estimation system 1A has a configuration in which the directly-upward image acquisition unit 10A includes the directly-upward image conversion unit 12A that converts the depth value image into the directly-upward image. Therefore, it is possible to acquire a depth value image from the head side of the bed B that hardly gives the subject S an unpleasant feeling. Further, as described in the description of the first embodiment, the risk level estimation using the image directly above can be performed with high accuracy. Therefore, by acquiring a depth value image from an oblique direction and converting the depth value image from the oblique direction into an image directly above, the risk level estimation system 1A is more accurate while using the depth value image from the oblique direction. Risk estimation can be performed. In addition, when acquiring a depth value image from an oblique direction by the directly above image acquiring unit 10A, the input unit 2 constituting the depth value image acquiring unit 11A can be installed as long as it is within a range that can be converted to an immediately above image. Therefore, the range in which the input unit 2 can be installed is greatly increased.

また、危険度推定システム1Aは、危険度推定部20Aの判定層分割手段が複数の立方体領域に分割する立方体分割手段21Aからなる構成となっている。従って、深度方向(Z軸方向)だけでなく、平面領域(X軸方向、Y軸方向)においても領域を分割して、より精度良く危険度推定を行うことができる。   Further, the risk level estimation system 1A includes a cube dividing unit 21A in which the determination layer dividing unit of the risk level estimation unit 20A divides into a plurality of cube regions. Therefore, it is possible to divide the region not only in the depth direction (Z-axis direction) but also in the planar region (X-axis direction, Y-axis direction), and perform risk estimation more accurately.

なお、立方体分割手段21Aにより複数の立方体領域に分割することで、位置特定手段23Aを用いることなく危険度推定を行うこともできる。例えば、対象者Sと対応する区画を判定し、その対応する区画の形状から、対象者Sの姿勢を推定することができる。このような姿勢の推定により対象者Sの危険度推定を行うことも可能である。   In addition, by dividing into a plurality of cube regions by the cube dividing unit 21A, it is possible to estimate the risk level without using the position specifying unit 23A. For example, the section corresponding to the subject S can be determined, and the posture of the subject S can be estimated from the shape of the corresponding section. It is also possible to estimate the risk level of the subject person S by estimating the posture.

また、危険度推定システム1Aは、危険度推定部20Aが更に、対象物Sの位置を特定する位置特定手段23Aと、特定された位置を基に危険度を算出する危険度算出手段24Aを備えた構成となっている。従って、より精度良く危険度推定を行うことが可能である。また、本実施形態においては、位置特定手段23Aとして対象者Sの重心位置を利用している。この重心位置と対象者Sの姿勢とを直接関連付けることも可能であることから、重心位置から対象者Sの姿勢を推定し、危険度推定を行うことも可能である。   The risk level estimation system 1A further includes a position specifying unit 23A for specifying the position of the object S and a risk level calculating unit 24A for calculating the risk level based on the specified position. It becomes the composition. Therefore, it is possible to estimate the degree of risk with higher accuracy. In the present embodiment, the position of the center of gravity of the subject S is used as the position specifying means 23A. Since it is possible to directly associate the position of the center of gravity with the posture of the subject person S, it is possible to estimate the degree of risk by estimating the posture of the subject person S from the position of the center of gravity.

また、危険度算出手段24Aを備えているため、例えば、前述した危険度算出の方法であれば、対象者Sによって危険度の重みを変えて危険度算出を行うこともできる。特に、実際には対象者Sの症状やベッドBの形状、周辺環境等によっても、危険な体勢、危険な位置等を変わってくる。従って、危険度算出手段24Aにより危険度推定システム1Aは、環境等に適した危険度推定を行うことができる。   Further, since the risk level calculation means 24A is provided, for example, in the case of the risk level calculation method described above, the risk level can be calculated by changing the weight of the risk level by the subject S. In particular, the dangerous posture, the dangerous position, and the like vary depending on the symptom of the subject S, the shape of the bed B, the surrounding environment, and the like. Therefore, the risk level estimation unit 1A can perform risk level estimation suitable for the environment and the like.

また、本発明における危険度推定を行う危険度推定対象物とは、対象者Sのように人間に限られるということではなく、人以外の動物や物も広く含まれており、またベッド上に限られるということでもなく、本発明は適用範囲の非常に広いものである。   Further, the risk estimation target for performing the risk estimation in the present invention is not limited to a person like the target person S, but includes animals and objects other than humans, and is on the bed. Without being limited thereto, the present invention has a very wide range of application.

1、1A…危険度推定システム
10、10A…直上画像取得部
11、11A…深度値画像取得手段
12A…直上画像変換手段
20、20A…危険度推定部
21…判定層分割手段
21A…立方体分割手段
22、22A…着目層決定手段
23A…位置特定手段
24A…危険度算出手段
30、30A…推定結果出力部
DESCRIPTION OF SYMBOLS 1, 1A ... Risk level estimation system 10, 10A ... Above image acquisition part 11, 11A ... Depth value image acquisition means 12A ... Just above image conversion means 20, 20A ... Risk level estimation part 21 ... Judgment layer division means 21A ... Cube division means 22, 22A ... layer of interest determination means 23A ... position specifying means 24A ... risk level calculation means 30, 30A ... estimation result output section

Claims (5)

深度値により形成された深度値画像を基に形成される、危険度推定対象物の直上画像を取得する直上画像取得部と、
前記直上画像を基に危険度を推定する危険度推定部と、
前記危険度推定部による推定結果を出力する推定結果出力部と、
を備えることを特徴とする危険度推定システム。
An immediately-upward image acquisition unit configured to acquire an image directly above the risk estimation target formed based on the depth-value image formed by the depth value;
A risk estimation unit that estimates the risk based on the image directly above,
An estimation result output unit for outputting an estimation result by the risk estimation unit;
A risk estimation system comprising:
前記危険度推定部は、
前記直上画像から前記深度値を用いて、危険度推定を行うための判定層に分割する判定層分割手段と、
分割された前記判定層の中から着目する層を決定する着目層決定手段と、
からなり、前記着目層決定手段により決定された着目層を基に危険度の推定を行うことを特徴とする請求項1に記載の危険度推定システム。
The risk estimator is
A determination layer dividing means for dividing into determination layers for performing risk estimation using the depth value from the immediately above image;
Layer-of-interest determining means for determining a layer of interest from among the divided determination layers;
The risk level estimation system according to claim 1, wherein the risk level is estimated based on the target layer determined by the target layer determination means.
前記判定層分割手段は、複数の立方体領域に分割する立方体分割手段からなることを特徴とする請求項2に記載の危険度推定システム。   The risk estimation system according to claim 2, wherein the determination layer dividing unit includes a cube dividing unit that divides into a plurality of cube regions. 前記危険度推定部は、更に、
対象物の位置を特定するための位置特定手段と、
前記位置特定手段により特定された位置を基に危険度を算出する危険度算出手段と、
を備えていることを特徴とする請求項2又は3に記載の危険度推定システム。
The risk estimation unit further includes:
Position specifying means for specifying the position of the object;
A risk calculating means for calculating a risk based on the position specified by the position specifying means;
The risk level estimation system according to claim 2 or 3, characterized by comprising:
前記直上画像取得部は、前記深度値画像を前記直上画像に変換する直上画像変換手段を備えることを特徴とする請求項1から4の何れか1項に記載の危険度推定システム。   The risk level estimation system according to any one of claims 1 to 4, wherein the top image acquisition unit includes a top image conversion unit that converts the depth value image into the top image.
JP2018089722A 2018-05-08 2018-05-08 Risk estimation system Active JP7076281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018089722A JP7076281B2 (en) 2018-05-08 2018-05-08 Risk estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089722A JP7076281B2 (en) 2018-05-08 2018-05-08 Risk estimation system

Publications (2)

Publication Number Publication Date
JP2019195395A true JP2019195395A (en) 2019-11-14
JP7076281B2 JP7076281B2 (en) 2022-05-27

Family

ID=68538130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089722A Active JP7076281B2 (en) 2018-05-08 2018-05-08 Risk estimation system

Country Status (1)

Country Link
JP (1) JP7076281B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016104071A (en) * 2014-12-01 2016-06-09 清水建設株式会社 Bed observation system and bed observation method
JP2018067203A (en) * 2016-10-20 2018-04-26 学校法人 埼玉医科大学 Danger notification device, danger notification method, and calibration method for danger notification device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105960663A (en) 2014-02-18 2016-09-21 诺日士精密株式会社 Information processing device, information processing method, and program
JP2016212782A (en) 2015-05-13 2016-12-15 国立大学法人豊橋技術科学大学 Device and method for detecting supine head position

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016104071A (en) * 2014-12-01 2016-06-09 清水建設株式会社 Bed observation system and bed observation method
JP2018067203A (en) * 2016-10-20 2018-04-26 学校法人 埼玉医科大学 Danger notification device, danger notification method, and calibration method for danger notification device

Also Published As

Publication number Publication date
JP7076281B2 (en) 2022-05-27

Similar Documents

Publication Publication Date Title
US9974466B2 (en) Method and apparatus for detecting change in health status
US20020044682A1 (en) Method and apparatus for subject physical position and security determination
JP6720909B2 (en) Action detection device, method and program, and monitored person monitoring device
JP5760905B2 (en) Danger detection device and danger detection method
KR102052883B1 (en) Prediction system using a thermal imagery camera and fall prediction method using a thermal imagery camera
CN107925748A (en) Display control unit, display control program, display control method, display control program, recording medium
JP2008206868A (en) Bed apparatus
US11154252B2 (en) Early acute fall risk detection
JP2020014109A (en) Detection system and detection method
JP2013206069A (en) Object watch system
JP7403132B2 (en) Nursing care recording device, nursing care recording system, nursing care recording program, and nursing care recording method
KR101722131B1 (en) Posture and Space Recognition System of a Human Body Using Multimodal Sensors
Kido et al. Fall detection in toilet rooms using thermal imaging sensors
JP2007072964A (en) Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system
US11213444B2 (en) On-bed state monitoring system
JP6241820B2 (en) Fall risk calculation system and reporting system
JP2018082745A (en) Posture determination device and notification system
JP7076281B2 (en) Risk estimation system
WO2020008726A1 (en) Target object detection program and target object detection device
JP2011120667A (en) On-bed state detection device
JP7026740B2 (en) Systems and methods for monitoring position safety
WO2016189202A1 (en) Monitoring system and monitoring method
JP2009268854A (en) Fall detection system
JP2021033379A (en) Image processing system, image processing program, and image processing method
JP2019204366A (en) Action monitoring system and action monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150