JP2018067203A - Danger notification device, danger notification method, and calibration method for danger notification device - Google Patents

Danger notification device, danger notification method, and calibration method for danger notification device Download PDF

Info

Publication number
JP2018067203A
JP2018067203A JP2016206293A JP2016206293A JP2018067203A JP 2018067203 A JP2018067203 A JP 2018067203A JP 2016206293 A JP2016206293 A JP 2016206293A JP 2016206293 A JP2016206293 A JP 2016206293A JP 2018067203 A JP2018067203 A JP 2018067203A
Authority
JP
Japan
Prior art keywords
bed
region
distance image
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016206293A
Other languages
Japanese (ja)
Inventor
英樹 駒形
Hideki Komagata
英樹 駒形
小林 直樹
Naoki Kobayashi
小林  直樹
雅浩 石川
Masahiro Ishikawa
雅浩 石川
一馬 篠田
Kazuma Shinoda
一馬 篠田
正則 渡邉
Masanori Watanabe
正則 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saitama Medical University
Original Assignee
Saitama Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saitama Medical University filed Critical Saitama Medical University
Priority to JP2016206293A priority Critical patent/JP2018067203A/en
Publication of JP2018067203A publication Critical patent/JP2018067203A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a danger notification device capable of more reliably determining a risk of a subject's falling from a bed and performing notification of the risk.SOLUTION: The danger notification device includes: distance image acquiring means for imaging a bed and a periphery of the bed from above the bed and acquiring a distance image by using a value of a distance to an object to be imaged as a pixel value; area setting means for setting, as a bed area, a bed top area extracted from the acquired distance image, and a correction area for preventing erroneous detection of a long-sitting state of a subject when the subject is on the bed; determination means for determining whether or not the subject is likely to fall from the bed based on the number of pixels of the subject outside the bed area in the distance image containing the subject; and notifying means for notifying at least one of the subject and a third party of a result of the determination from the determination means.SELECTED DRAWING: Figure 12C

Description

本発明は、危険報知装置及び危険報知方法、並びに危険報知装置の校正方法に関する。   The present invention relates to a danger notification device, a danger notification method, and a calibration method for the danger notification device.

近年の高齢化社会の進展とともに、介護施設や病院等での転倒及び転落のいずれかの事故が非常に多く発生し、大きな問題となっている。例えば、介護施設においては、介助行為や見守りを行っていない状況下において、ベッドからの転落事故が多く発生しており、発見が遅れると生命に関わる危険を伴う場合もある。   With the progress of an aging society in recent years, an accident of either a fall or a fall at a nursing facility or a hospital has occurred so much that it has become a big problem. For example, in nursing care facilities, there are many accidents of falling from a bed under the situation where care is not taken or watched over, and there may be a life-threatening risk if discovery is delayed.

このため、転倒転落アセスメントスコアシートにより危険度が高いと評価された要介護者や患者などには離床動作を検知する離床検知装置を使用する場合がある。前記離床検知装置に用いるセンサとしては、例えば、衣服に取り付けるクリップタイプ、床やベッドに敷くマットタイプなどがあり、要介護者などの離床動作を検知する。
しかし、これらのセンサでは、誤検知が多く、また、前記マットタイプの場合には、マットを跨いで回避されてしまうという問題がある。
そこで、これらの問題を解決するために、最近では様々な離床検知装置が研究され始めており、複数の圧電素子を用いる装置、超音波センサを用いる装置、距離画像センサを用いる装置などが提案されている(例えば、非特許文献1参照)。
For this reason, a bed removal detection device that detects bed movement may be used for a care recipient or patient who has been evaluated as having a high degree of risk based on the fall and fall assessment score sheet. Sensors used in the bed leaving detection device include, for example, a clip type attached to clothes, a mat type laid on the floor or bed, and the like, and detects a bed leaving operation of a care recipient.
However, in these sensors, there are many false detections, and in the case of the mat type, there is a problem that it is avoided across the mat.
In order to solve these problems, various bed leaving detection devices have recently been studied, and a device using a plurality of piezoelectric elements, a device using an ultrasonic sensor, a device using a distance image sensor, and the like have been proposed. (For example, refer nonpatent literature 1).

しかし、これらの多くは、転落の危険性が低い起床状態や離床状態も検知してしまうことから報知の頻度が多くなりやすく、危険性が高いベッドからの転落のみを検知するものではない。また、危険性が高いベッドからのずり落ちなどの臥床状態からの転落は検知しにくいという問題がある。
このため、ベッドから転落する危険性をより確実に判定し、報知することができる危険報知装置が望まれている。
However, many of them detect a wake-up state or a leaving-bed state with a low risk of falling, so that the frequency of notifications is likely to increase, and it is not possible to detect only a fall from a bed with a high risk. In addition, there is a problem that it is difficult to detect a fall from a bedded state such as a slip-down from a bed with high risk.
For this reason, the danger alerting | reporting apparatus which can determine more reliably and can alert | report the danger of falling from a bed is desired.

また、前記非特許文献1に記載の前記距離画像センサを用いる装置では、前記距離画像センサを壁や天井などに固定せずに、前記距離画像センサをポールなどに設置して比較的移動しやすくしているが、移動させる度に、得られる距離画像においてベッドを識別するための校正が必要である。ベッドを識別するための校正方法として、一部手動で行うwatershed法を用いているため、移動させる度に校正を一部手動で行うのでは手間がかかり、更にはベッドを正確に識別できない場合があるという問題もある。
このため、手間をかけずにベッドを正確に識別できる校正方法が望まれている。
Further, in the apparatus using the distance image sensor described in Non-Patent Document 1, the distance image sensor is installed on a pole or the like without being fixed to a wall or a ceiling, and is relatively easy to move. However, every time it is moved, calibration is required to identify the bed in the obtained distance image. As a calibration method for identifying a bed, a partially manual watershed method is used. Therefore, it is troublesome to perform manual calibration partly every time it is moved, and it may not be possible to accurately identify the bed. There is also the problem of being.
For this reason, the calibration method which can identify a bed correctly without an effort is desired.

中田豊久、金井秀明、國藤進:"プライバシを考慮した距離情報を利用したベッド転落検知システム"、日本創造学会、第6回知識創造支援システムシンポジウム予稿集、北陸先端科学技術大学院大学知識科学研究科、2009年2月26日Nakata Toyohisa, Kanai Hideaki, Kunifuji Susumu: "Bed fall detection system using distance information considering privacy", Japan Creativity Society, Proceedings of the 6th Knowledge Creation Support System Symposium, Graduate School of Knowledge Science, Japan Advanced Institute of Science and Technology February 26, 2009

そこで、本発明は、従来における前記諸問題を解決し、以下の目的を達成することを課題とする。即ち、本発明は、対象者がベッドから転落する危険性をより確実に判定し、報知することができる危険報知装置及び危険報知方法、並びに危険報知装置の校正方法を提供することを目的とする。   Therefore, the present invention aims to solve the above-described problems and achieve the following object. That is, an object of the present invention is to provide a risk notification device, a risk notification method, and a calibration method for the risk notification device that can more reliably determine and notify the danger of the subject falling from the bed. .

前記課題を解決するための手段としては、以下のとおりである。即ち、
<1> ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する領域設定手段と、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する判定手段と、前記判定手段の判定結果を、前記対象者及び第三者の少なくともいずれかに報知する報知手段と、を有することを特徴とする危険報知装置である。
Means for solving the above-described problems are as follows. That is,
<1> Distance image acquisition means for capturing the image of the bed and the periphery of the bed from above and acquiring a distance image using the distance value to the object to be imaged as a pixel value; and the bed upper surface extracted from the acquired distance image An area setting means for setting, as a bed area, an area and a correction area for preventing erroneous detection of the long sitting position of the object person when the object person is on the bed; and the distance image including the object person Based on the number of pixels of the subject outside the bed area, a determination unit that determines whether or not there is a risk of the subject falling from the bed; A danger notification device comprising: notification means for notifying at least one of them.

前記<1>に記載の危険報知装置において、前記距離画像取得手段は、ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する。前記領域設定手段は、前記距離画像取得手段により取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する。前記判定手段は、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する。前記報知手段は、前記判定手段の判定結果を、前記対象者及び第三者の少なくともいずれかに報知する。
これにより、前記対象者が前記ベッドから転落する危険性があることを報知された前記対象者自身が前記ベッド領域からはみ出さないように動く、あるいは前記第三者により前記対象者を前記ベッド領域からはみ出さないようにさせるため、前記対象者がベッドから転落することをより確実に防止できる。
In the danger notification device according to <1>, the distance image acquisition unit images the bed and the periphery of the bed from above the bed, and acquires a distance image using a distance value to the object to be imaged as a pixel value. . The region setting means is a correction for not erroneously detecting the upper surface area of the bed extracted from the distance image acquired by the distance image acquisition means and the long sitting state of the target person when the target person is on the bed. Set the area as the bed area. The determination unit determines whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject. The notification means notifies the determination result of the determination means to at least one of the target person and a third party.
Accordingly, the subject who is informed that there is a risk of the subject falling from the bed moves so as not to protrude from the bed region, or the subject is moved by the third party to the bed region. In order not to protrude from the bed, the subject can be more reliably prevented from falling off the bed.

<2> 前記領域設定手段が、前記ベッド領域外において、前記対象者の前記ベッドからのはみ出しを検知するためのベッドサイド領域と、前記ベッド領域及び前記ベッドサイド領域の上方領域と、を更に設定し、前記判定手段が、前記ベッドサイド領域における前記対象者の画素数、及び前記上方領域における前記対象者の画素数の少なくともいずれかに基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する前記<1>に記載の危険報知装置である。   <2> The area setting means further sets a bedside area for detecting the protrusion of the subject from the bed outside the bed area, and an area above the bed area and the bedside area. And whether or not there is a risk that the subject falls from the bed based on at least one of the number of pixels of the subject in the bedside region and the number of pixels of the subject in the upper region. The danger notification device according to <1> described above.

前記<2>に記載の危険報知装置において、前記領域設定手段は、前記ベッド領域外において、前記対象者のベッドからのはみ出しを検知するためのベッドサイド領域と、前記ベッド領域及び前記ベッドサイド領域の上方領域と、を更に設定する。前記判定手段は、前記ベッドサイド領域における前記対象者の画素数、及び前記上方領域における前記対象者の画素数の少なくともいずれかに基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する。
これにより、前記対象者の一部が前記ベッド領域外に存在すると判定したときであっても、前記対象者が前記ベッドの上で起床状態にあるのか、前記対象者の身体の一部がベッドサイドからはみ出している状態にあるのかを判定することにより、前記対象者が前記ベッドから転落する危険性をより確実に判定し、報知することができる。
In the danger notification device according to <2>, the area setting unit includes a bedside area for detecting the protrusion of the subject from the bed outside the bed area, the bed area, and the bedside area. And an upper region of. The determination means determines whether or not there is a risk that the subject falls from the bed based on at least one of the number of pixels of the subject in the bedside region and the number of pixels of the subject in the upper region. To do.
Thereby, even when it is determined that a part of the subject exists outside the bed area, whether the subject is in the rising state on the bed or a part of the subject's body is the bed By determining whether it is in a state of protruding from the side, the risk of the subject falling from the bed can be more reliably determined and notified.

<3> 前記判定手段が、前記ベッドサイド領域における前記対象者の画素数が所定の画素数以上である場合、前記上方領域における前記対象者の画素数が所定の画素数以下であるとき、前記対象者が前記ベッドから転落する危険性があると判定する前記<2>に記載の危険報知装置である。   <3> In the case where the number of pixels of the subject in the bedside region is equal to or greater than a predetermined number of pixels, the determination unit, when the number of pixels of the subject in the upper region is equal to or less than a predetermined number of pixels, The danger notification device according to <2>, in which it is determined that there is a risk that the subject falls from the bed.

前記<3>に記載の危険報知装置において、前記判定手段は、前記ベッドサイド領域における前記対象者の画素数が所定の画素数以上である場合、前記上方領域における前記対象者の画素数が所定の画素数以下であるとき、前記対象者が前記ベッドから転落する危険性があると判定する。
これにより、前記対象者の身体の一部が前記ベッドサイド領域からはみ出し、かつ起床状態である可能性が低いと判定できるため、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができる。
In the danger notification device according to <3>, in the case where the number of pixels of the subject in the bedside region is equal to or greater than a predetermined number of pixels, the number of pixels of the subject in the upper region is predetermined. When the number of pixels is equal to or less than the number of pixels, it is determined that there is a risk that the subject falls from the bed.
Thereby, since it is possible to determine that a part of the subject's body protrudes from the bedside region and is unlikely to be in a wake-up state, the risk of the subject falling from the bed is more reliably determined, Can be notified.

<4> 前記領域設定手段が、前記上方領域における前記ベッド上面領域の上方の領域を前記修正領域に更に設定し、前記判定手段が、前記対象者の離床状態及び第三者を誤検知しないように判定する前記<2>から<3>のいずれかに記載の危険報知装置である。   <4> The region setting unit further sets a region above the bed upper surface region in the upper region as the correction region, so that the determination unit does not erroneously detect the leaving state of the target person and a third party. The danger notification device according to any one of <2> to <3>.

前記<4>に記載の危険報知装置において、前記領域設定手段が前記上方領域における前記ベッド上面領域の上方の領域を前記修正領域に更に設定することにより、前記対象者の画素が前記ベッド上面領域の上方の領域に存在しても、前記対象者がベッドから転落する危険性が少ない離床状態にあるとして、前記判定手段が誤検知しないように判定することができる。また、第三者の画素が前記ベッド上面領域の上方の領域に存在しても、前記対象者がベッドから転落する危険性が少ない状態にあるとして、前記判定手段が誤検知しないように判定することができる。このように前記判定手段が誤検知しないように判定することができると、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができる。   In the danger notification device according to <4>, the region setting unit further sets a region above the bed upper surface region in the upper region as the correction region, whereby the pixel of the subject is the bed upper surface region. Even if it exists in the area | region above the, it can determine that the said determination means does not misdetect as the said subject being in the state of getting out of bed with little risk of falling from a bed. In addition, even if a third-party pixel is present in the region above the bed upper surface region, the determination unit determines that the risk of the target person falling from the bed is low, so that the determination unit does not detect it erroneously. be able to. Thus, if it can determine so that the said determination means may not misdetect, it can determine more reliably and can alert | report the danger that the said subject will fall from a bed.

<5> ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得工程と、取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する領域設定工程と、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する判定工程と、前記判定工程による判定結果を、前記対象者及び第三者の少なくともいずれかに報知する報知工程と、を含むことを特徴とする危険報知方法である。   <5> A distance image obtaining step of photographing the bed and the periphery of the bed from above the bed, and obtaining a distance image using a distance value to the photographing object as a pixel value, and a bed upper surface extracted from the obtained distance image A region setting step for setting, as a bed region, a region and a correction region for preventing erroneous detection of the subject's long-sitting position when the subject is on the bed; and the distance image including the subject Based on the number of pixels of the subject outside the bed area, a determination step for determining whether or not there is a risk of the subject falling from the bed, and a determination result by the determination step are obtained by the subject and a third party. And a notification step of notifying at least one of them.

前記<5>に記載の危険報知方法において、前記距離画像取得工程では、ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する。前記領域設定工程では、取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する。前記判定工程では、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する。前記報知工程では、前記判定工程による判定結果を、前記対象者及び第三者の少なくともいずれかに報知する。
これにより、前記対象者が前記ベッドから転落する危険性があることを報知された前記対象者自身が前記ベッド領域からはみ出さないように動く、あるいは前記第三者により前記対象者を前記ベッド領域からはみ出さないようにさせるため、前記対象者がベッドから転落することをより確実に防止できる。
In the danger notification method according to <5>, in the distance image acquisition step, the bed and the periphery of the bed are photographed from above the bed, and a distance image is obtained using the distance value to the photographing object as a pixel value. . In the region setting step, a bed upper surface region extracted from the acquired distance image and a correction region for preventing erroneous detection of the long sitting state of the subject when the subject is on the bed are used as the bed region. Set. In the determination step, based on the number of pixels of the subject outside the bed area of the distance image including the subject, it is determined whether there is a risk that the subject falls from the bed. In the notification step, the determination result in the determination step is notified to at least one of the target person and a third party.
Accordingly, the subject who is informed that there is a risk of the subject falling from the bed moves so as not to protrude from the bed region, or the subject is moved by the third party to the bed region. In order not to protrude from the bed, the subject can be more reliably prevented from falling off the bed.

<6> ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、取得した前記距離画像から抽出したベッド上面領域を設定する領域設定手段と、を有する危険報知装置の校正方法であって、取得した前記距離画像を空間的な勾配が同様な領域に区割りした勾配画像を生成し、前記勾配画像に基づいて前記ベッド上面領域を抽出するベッド上面領域抽出工程を含むことを特徴とする危険報知装置の校正方法である。   <6> Distance image acquisition means for capturing the distance image from the upper side of the bed and the periphery of the bed and acquiring a distance image using the distance value to the object to be imaged as a pixel value; and the bed upper surface extracted from the acquired distance image A method for calibrating a danger notification device having a region setting unit, and generating a gradient image obtained by dividing the acquired distance image into regions having similar spatial gradients, and based on the gradient image A method for calibrating a danger notification device, comprising: a bed upper surface area extracting step for extracting the bed upper surface area.

前記<6>に記載の危険報知装置の校正方法において、前記ベッド上面領域抽出工程では、取得した前記距離画像を空間的な勾配が同様な領域に区割りすることにより、ベッドの上面、床、壁などの各領域をラベリングなどによりを識別できるため、識別した領域の中から前記ベッド上面領域を抽出することができる。   In the calibration method of the danger notification device according to <6>, in the bed upper surface region extraction step, the acquired distance image is divided into regions having similar spatial gradients, whereby the upper surface of the bed, the floor, and the wall Therefore, the bed upper surface area can be extracted from the identified area.

<7> 前記ベッド上面領域抽出工程が、前記距離画像の前記画素値の変化量が大きい箇所に沿って線引きしたエッジ画像を更に生成し、前記エッジ画像と前記勾配画像との合成画像に基づいて区割りした領域から前記ベッド上面領域を抽出する処理を含む前記<6>に記載の危険報知装置の校正方法である。   <7> The bed upper surface region extracting step further generates an edge image drawn along a portion where the change amount of the pixel value of the distance image is large, and based on a composite image of the edge image and the gradient image It is the calibration method for the danger notification device according to <6>, including a process of extracting the bed upper surface area from the divided area.

前記<7>に記載の危険報知装置の校正方法において、例えば、空間的な勾配がいずれも水平である前記ベッドの上面と前記床との区割りが、前記勾配画像に基づくだけでは困難な場合、前記距離画像から、前記ベッドの上面と前記床との高さが異なることにより生じる前記画素値の変化量が大きい箇所に沿って線引きした輪郭線を含む前記エッジ画像を生成し、前記床に対する前記ベッドの上面の前記輪郭線を含む前記エッジ画像を前記勾配画像と合成することにより、前記ベッド上面領域をより確実に抽出することができる。   In the calibration method of the danger notification device according to <7>, for example, when it is difficult to divide the upper surface of the bed and the floor where the spatial gradient is horizontal, based only on the gradient image, From the distance image, generate the edge image including a contour line drawn along a portion where the amount of change in the pixel value generated due to a difference in height between the upper surface of the bed and the floor is generated, and the floor image with respect to the floor By synthesizing the edge image including the contour line on the upper surface of the bed with the gradient image, the bed upper surface region can be more reliably extracted.

<8> 前記距離画像取得手段により取得される前記距離画像において、前記区割りした領域の画素数のうち、前記ベッドの上面に該当する領域の画素数が、所定の順位となるように前記距離画像取得手段を設置する設置工程を更に含み、前記ベッド上面領域抽出工程が、前記所定の順位の領域を前記ベッド上面領域として抽出する処理を含む前記<7>に記載の危険報知装置の校正方法である。   <8> In the distance image acquired by the distance image acquisition means, among the number of pixels in the divided area, the distance image so that the number of pixels in the area corresponding to the upper surface of the bed is in a predetermined order. The risk notification device calibration method according to <7>, further including an installation step of installing an acquisition unit, wherein the bed upper surface region extraction step includes a process of extracting the predetermined rank region as the bed upper surface region. is there.

前記<8>に記載の危険報知装置の校正方法において、例えば、取得する前記距離画像において前記ベッドの上面が最も広く抽出されるように前記距離画像取得手段を設置し、前記所定の順位を1位と設定すると、前記距離画像から自動的に前記ベッド上面領域を抽出することができるため、校正の手間をかけずにベッドを正確に識別できる。   In the method for calibrating a danger notification device according to <8>, for example, the distance image acquisition unit is installed so that the upper surface of the bed is extracted most widely in the distance image to be acquired, and the predetermined order is 1 When the position is set, the bed upper surface area can be automatically extracted from the distance image, so that the bed can be accurately identified without the need for calibration.

<9> 前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出する算出工程を更に含む前記<7>から<8>のいずれかに記載の危険報知装置の校正方法である。   <9> The danger notification device calibration method according to any one of <7> to <8>, further including a calculation step of calculating the position and orientation of the distance image acquisition unit based on the bed upper surface region.

前記<9>に記載の危険報知装置の校正方法において、前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出することにより、手動で設定せずに前記距離画像取得手段の位置及び姿勢を求めることができるため、手間をかけずに校正することができる。   In the method for calibrating a danger notification device according to <9>, the position and position of the distance image acquisition unit are not manually set by calculating the position and orientation of the distance image acquisition unit based on the bed upper surface region. And the posture can be obtained, so that calibration can be performed without taking time and effort.

<10> 前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定する領域設定工程を更に含む前記<9>に記載の危険報知装置の校正方法である。   <10> The danger notification device calibration method according to <9>, further including a region setting step of setting a region by dividing a space in the camera coordinate system based on the bed upper surface region.

前記<10>に記載の危険報知装置の校正方法において、ノイズの影響を受けやすい世界座標系における空間ではなく、カメラ座標系における空間を分割して領域を設定することから、前記ベッド上面領域をより確実に抽出することができる。   In the method for calibrating the danger notification device according to <10>, since the area is set by dividing the space in the camera coordinate system instead of the space in the world coordinate system that is susceptible to noise, Extraction can be made more reliably.

<11> 前記領域設定工程が、前記対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域を設定する前記<10>に記載の危険報知装置の校正方法である。   <11> The danger notification device according to <10>, wherein the region setting step sets a correction region for preventing erroneous detection of the subject's long sitting position when the subject is on the bed. Calibration method.

前記<11>に記載の危険報知装置の校正方法において、前記対象者の長座位状態を誤検知しないための修正領域を設定することにより、誤検知を少なくすることができるため、前記対象者がベッドから転落することをより確実に防止できる。   In the method for calibrating a danger notification device according to <11>, since the correction region for preventing erroneous detection of the subject's long-sitting state can be set, the erroneous detection can be reduced. It can prevent more reliably falling from the bed.

<12> 前記領域設定工程が、前記上方領域における前記ベッド上面領域の上方の領域を、前記対象者の離床状態及び第三者を誤検知しないための修正領域として更に設定する前記<11>に記載の危険報知装置の校正方法である。   <12> In the above <11>, in which the region setting step further sets a region above the bed upper surface region in the upper region as a correction region for preventing false detection of the subject's bed leaving state and a third party. It is a calibration method of the danger alarm device described.

前記<12>に記載の危険報知装置の校正方法において、前記上方領域における前記ベッド上面領域の上方の領域を、前記対象者の離床状態及び前記第三者を誤検知しないための修正領域として更に設定することにより、誤検知を少なくすることができるため、前記対象者がベッドから転落することをより確実に防止できる。   In the method for calibrating a danger notification device according to <12>, the region above the bed upper surface region in the upper region is further set as a correction region for preventing erroneous detection of the bed leaving state of the subject and the third party. By setting, false detection can be reduced, so that the subject can be more reliably prevented from falling from the bed.

<13> ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、取得した前記距離画像から抽出したベッド上面領域を設定する領域設定手段と、を有する危険報知装置の校正方法であって、前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定し、設定した前記領域のうち、前記対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域を設定する領域設定工程を含むことを特徴とする危険報知装置の校正方法である。   <13> Distance image acquisition means for capturing an image of the bed and the periphery of the bed from above and acquiring a distance image using the distance value to the object to be imaged as a pixel value; and the bed upper surface extracted from the acquired distance image An area setting means for setting an area, and a calibration method for a danger notification device, wherein the area is set by dividing a space in a camera coordinate system based on the bed upper surface area, and among the set areas, A danger notification device calibration method comprising: a region setting step for setting a correction region for preventing erroneous detection of the long sitting position of the subject when the subject is on the bed.

前記<13>に記載の危険報知装置の校正方法において、ノイズの影響を受けやすい世界座標系における空間ではなく、カメラ座標系における空間を分割して領域を設定することから、前記ベッド上面領域をより確実に抽出することができる。   In the method for calibrating a danger notification device according to <13>, since the area is set by dividing the space in the camera coordinate system instead of the space in the world coordinate system that is susceptible to noise, Extraction can be made more reliably.

<14> 前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出する算出工程を更に含む前記<13>に記載の危険報知装置の校正方法である。   <14> The danger notification device calibration method according to <13>, further including a calculation step of calculating the position and orientation of the distance image acquisition unit based on the bed upper surface region.

前記<14>に記載の危険報知装置の校正方法において、前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出することにより、手動で設定せずに前記距離画像取得手段の位置及び姿勢を求めることができるため、手間をかけずに校正することができる。   In the method for calibrating a danger notification device according to <14>, by calculating the position and orientation of the distance image acquisition unit based on the bed upper surface region, the position of the distance image acquisition unit is not manually set. And the posture can be obtained, so that calibration can be performed without taking time and effort.

本発明によると、従来における前記諸問題を解決することができ、対象者がベッドから転落する危険性をより確実に判定し、報知することができる危険報知装置及び危険報知方法、並びに危険報知装置の校正方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the said various problems in the past can be solved, the danger alerting | reporting apparatus, the danger alerting | reporting method, and the danger alerting | reporting apparatus which can determine more reliably and can alert | report the danger that a subject falls from a bed A calibration method can be provided.

図1Aは、本発明の危険報知装置の一例を示す概略図である。FIG. 1A is a schematic diagram showing an example of the danger notification device of the present invention. 図1Bは、本発明の危険報知装置の一例を示すブロック図である。FIG. 1B is a block diagram showing an example of the danger notification device of the present invention. 図2は、距離画像取得手段により取得される距離画像の一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of a distance image acquired by the distance image acquisition unit. 図3は、世界座標系における領域設定の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of region setting in the world coordinate system. 図4Aは、図2の距離画像から生成した勾配画像を示す説明図である。FIG. 4A is an explanatory diagram showing a gradient image generated from the distance image of FIG. 図4Bは、図4Aの勾配画像を色ムラ補正した画像を示す説明図である。FIG. 4B is an explanatory diagram illustrating an image obtained by correcting the color unevenness of the gradient image in FIG. 4A. 図4Cは、図4Bの色ムラ補正後の勾配画像からベッド上面領域及び床領域を抽出した画像を示す説明図である。FIG. 4C is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area and the floor area from the gradient image after the color unevenness correction in FIG. 4B. 図4Dは、図2の距離画像から生成したエッジ画像を示す説明図である。FIG. 4D is an explanatory diagram illustrating an edge image generated from the distance image of FIG. 図4Eは、図4Cのベッド上面領域及び床領域を抽出した画像に、図4Dの前記エッジ画像を合成した合成画像を示す説明図である。FIG. 4E is an explanatory diagram illustrating a composite image obtained by combining the edge image of FIG. 4D with the image obtained by extracting the bed upper surface region and the floor region of FIG. 4C. 図4Fは、図4Eの合成画像からベッド上面領域を抽出した画像を示す説明図である。FIG. 4F is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area from the composite image in FIG. 4E. 図5は、距離画像取得手段により取得される距離画像の他の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating another example of the distance image acquired by the distance image acquisition unit. 図6Aは、図5の距離画像から生成した勾配画像を示す説明図である。FIG. 6A is an explanatory diagram showing a gradient image generated from the distance image of FIG. 図6Bは、図6Aの勾配画像を色ムラ補正した画像を示す説明図である。FIG. 6B is an explanatory diagram illustrating an image obtained by correcting the color unevenness of the gradient image in FIG. 6A. 図6Cは、図6Bの色ムラ補正後の勾配画像からベッド上面領域及び床領域を抽出した画像を示す説明図である。6C is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area and the floor area from the gradient image after the color unevenness correction in FIG. 6B. 図6Dは、図5の距離画像から生成したエッジ画像を示す説明図である。FIG. 6D is an explanatory diagram illustrating an edge image generated from the distance image in FIG. 5. 図6Eは、図6Cのベッド上面領域及び床領域を抽出した画像に、図4Dの前記エッジ画像を合成した合成画像を示す説明図である。6E is an explanatory diagram illustrating a composite image obtained by combining the edge image of FIG. 4D with the image obtained by extracting the bed upper surface area and the floor area of FIG. 6C. 図6Fは、図6Eの合成画像からベッド上面領域を抽出した画像を示す説明図である。FIG. 6F is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area from the composite image in FIG. 6E. 図7は、世界座標系におけるカメラ位置の算出についての説明図である。FIG. 7 is an explanatory diagram for calculating the camera position in the world coordinate system. 図8は、カメラ座標系の高さに応じた輝度に変換した距離画像の一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of a distance image converted into luminance according to the height of the camera coordinate system. 図9は、長座位状態の対象者を含む距離画像の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a distance image including a subject in a long sitting position. 図10は、カメラ座標系における領域設定の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of region setting in the camera coordinate system. 図11Aは、修正領域を含むベッド領域の画像の一例を示す説明図である。FIG. 11A is an explanatory diagram illustrating an example of an image of a bed area including a correction area. 図11Bは、修正領域を含むベッド領域の画像の他の一例を示す説明図である。FIG. 11B is an explanatory diagram illustrating another example of an image of a bed area including a correction area. 図12Aは、本発明の危険報知装置を校正して動作させるフローの一例を示すフローチャートである。FIG. 12A is a flowchart showing an example of a flow for calibrating and operating the danger notification device of the present invention. 図12Bは、本発明の危険報知装置の校正方法のフローの一例を示すフローチャートである。FIG. 12B is a flowchart showing an example of the flow of the calibration method for the danger notification device of the present invention. 図12Cは、本発明の危険報知装置を動作させるフローの一例を示すフローチャートである。FIG. 12C is a flowchart showing an example of a flow for operating the danger notification device of the present invention. 図13は、実施例1における距離画像を示す説明図である。FIG. 13 is an explanatory diagram illustrating a distance image in the first embodiment. 図14は、実施例2における距離画像を示す説明図である。FIG. 14 is an explanatory diagram illustrating a distance image in the second embodiment. 図15は、実施例3における距離画像を示す説明図である。FIG. 15 is an explanatory diagram illustrating a distance image in the third embodiment. 図16は、実施例4における距離画像を示す説明図である。FIG. 16 is an explanatory diagram illustrating a distance image in the fourth embodiment. 図17Aは、実施例5における色ムラ補正後の勾配画像を示す説明図である。FIG. 17A is an explanatory diagram illustrating a gradient image after color unevenness correction in the fifth embodiment. 図17Bは、実施例5において抽出したベッド上面領域の画像を示す説明図である。FIG. 17B is an explanatory diagram illustrating an image of the bed upper surface area extracted in the fifth embodiment. 図18Aは、比較例1において取得した距離画像上で基準点を指定した画像を示す説明図である。FIG. 18A is an explanatory diagram illustrating an image in which a reference point is designated on the distance image acquired in Comparative Example 1. 図18Bは、比較例1において抽出したベッド上面領域の画像を示す説明図である。18B is an explanatory diagram showing an image of the bed upper surface area extracted in Comparative Example 1. FIG. 図19Aは、実施例6における色ムラ補正後の勾配画像を示す説明図である。FIG. 19A is an explanatory diagram illustrating a gradient image after color unevenness correction according to the sixth embodiment. 図19Bは、実施例6において抽出したベッド上面領域の画像を示す説明図である。FIG. 19B is an explanatory diagram illustrating an image of the bed upper surface area extracted in the sixth embodiment. 図20Aは、比較例2において取得した距離画像上で基準点を指定した画像を示す説明図である。FIG. 20A is an explanatory diagram showing an image in which a reference point is designated on the distance image acquired in Comparative Example 2. 図20Bは、比較例2において抽出したベッド上面領域の画像を示す説明図である。FIG. 20B is an explanatory diagram showing an image of the bed upper surface area extracted in Comparative Example 2. 図21Aは、実施例7における色ムラ補正後の勾配画像を示す説明図である。FIG. 21A is an explanatory diagram illustrating a gradient image after color unevenness correction in the seventh embodiment. 図21Bは、実施例7において抽出したベッド上面領域の画像を示す説明図である。FIG. 21B is an explanatory diagram illustrating an image of the bed upper surface area extracted in the seventh embodiment. 図22Aは、比較例3において取得した距離画像上で基準点を指定した画像を示す説明図である。FIG. 22A is an explanatory diagram showing an image in which a reference point is designated on the distance image acquired in Comparative Example 3. 図22Bは、比較例3において抽出したベッド上面領域の画像を示す説明図である。FIG. 22B is an explanatory diagram showing an image of the bed upper surface area extracted in Comparative Example 3.

(危険報知装置及び危険報知方法)
本発明の危険報知装置は、距離画像取得手段と、領域設定手段と、判定手段と、報知手段とを有し、更に必要に応じてその他の手段を有する。
本発明の危険報知方法は、距離画像取得工程と、領域設定工程と、判定工程と、報知工程とを含み、更に必要に応じてその他の工程を含む。
本発明の危険報知方法は、本発明の危険報知装置により好適に行うことができることから、本発明の危険報知装置の説明を通して本発明の危険報知方法の詳細についても明らかにする。
(Danger notification device and danger notification method)
The danger notification device of the present invention includes a distance image acquisition unit, a region setting unit, a determination unit, and a notification unit, and further includes other units as necessary.
The danger notification method of the present invention includes a distance image acquisition step, a region setting step, a determination step, and a notification step, and further includes other steps as necessary.
Since the danger notification method of the present invention can be suitably performed by the danger notification device of the present invention, the details of the danger notification method of the present invention will be clarified through the description of the danger notification device of the present invention.

<距離画像取得手段及び距離画像取得工程>
前記距離画像取得手段は、ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する手段である。
前記距離画像取得工程は、ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する工程である。
前記距離画像取得工程は、前記距離画像取得手段により好適に行うことができる。
<Distance image acquisition means and distance image acquisition step>
The distance image acquisition unit is a unit that captures an image of the bed and the periphery of the bed from above the bed, and acquires a distance image using a distance value to the object to be imaged as a pixel value.
The distance image obtaining step is a step of photographing the bed and the periphery of the bed from above the bed and obtaining a distance image using the distance value to the photographing object as a pixel value.
The distance image acquisition step can be suitably performed by the distance image acquisition means.

前記撮影対象物としては、後述する本発明の危険報知装置の校正方法により校正する際には前記ベッド及び前記ベッドの周辺のみとし、本発明の危険報知装置を動作させている際には前記ベッド及び前記ベッドの周辺の他に前記対象者が少なくとも含まれていれば特に制限はなく、目的に応じて適宜選択することができる。   The object to be photographed is only the bed and the periphery of the bed when calibrated by the calibration method of the danger notification device of the present invention described later, and the bed when the danger notification device of the present invention is operated. As long as the subject is included at least in addition to the periphery of the bed, there is no particular limitation, and it can be appropriately selected according to the purpose.

前記対象者としては、前記ベッドから転落しないように見守られる者であれば特に制限はなく、目的に応じて適宜選択することができ、例えば、介護施設における認知症の要介護者、病院における歩行障害の患者などが挙げられる。   The target person is not particularly limited as long as it is watched so as not to fall from the bed, and can be appropriately selected according to the purpose. For example, a person requiring dementia in a care facility, walking in a hospital Examples include patients with disabilities.

前記ベッドとしては、特に制限はなく、目的に応じて適宜選択することができるが、上面が平らであることが好ましい。前記ベッドの上面が平らであると、校正する際には前記ベッドの上面の領域を抽出しやすい点で有利である。
前記ベッドの上面の形状としては、特に制限はなく、目的に応じて適宜選択することができるが、長方形が好ましい。
前記ベッドの上面の傾斜としては、特に制限はなく、目的に応じて適宜選択することができるが、水平であることが好ましい。
There is no restriction | limiting in particular as said bed, Although it can select suitably according to the objective, It is preferable that an upper surface is flat. If the upper surface of the bed is flat, it is advantageous in that it is easy to extract the region of the upper surface of the bed when calibrating.
There is no restriction | limiting in particular as a shape of the upper surface of the said bed, Although it can select suitably according to the objective, A rectangle is preferable.
There is no restriction | limiting in particular as inclination of the upper surface of the said bed, Although it can select suitably according to the objective, It is preferable that it is horizontal.

前記ベッドの設置位置としては、特に制限はなく、目的に応じて適宜選択することができるが、前記距離画像取得手段を比較的低い位置に設置し、ベッドサイド方向から設置する場合、前記距離画像取得手段の設置位置から遠いほうのベッドサイド(ベッドの長辺側及び短辺側)を、前記対象者が転落しないように壁などに密着できる位置が好ましい。壁などに密着できないときは、ベッドに柵を設けることが好ましい。前記距離画像取得手段の設置位置から遠いほうのベッドサイドは死角となり、計測が困難であるが、これにより、前記対象者が前記ベッドから転落する危険性をより確実に判定しやすくなる点で有利である。   The bed installation position is not particularly limited and may be appropriately selected according to the purpose. However, when the distance image acquisition unit is installed at a relatively low position and installed from the bedside direction, the distance image A position where the bedside (long side and short side of the bed) far from the installation position of the acquisition means can be in close contact with a wall or the like so that the subject does not fall down is preferable. When it cannot adhere to a wall or the like, it is preferable to provide a fence on the bed. The bedside far from the installation position of the distance image acquisition means becomes a blind spot and is difficult to measure, but this is advantageous in that it makes it easier to more reliably determine the risk of the subject falling from the bed. It is.

前記距離画像取得手段は、「距離画像センサ」、「三次元距離センサ」、「深度センサ」、「距離画像カメラ」などと称され、例えば、赤外線などを用いて前記撮影対象物までの距離を非接触で測定して画像化する三次元測定器である。具体的には、前記距離画像取得手段(以下、「カメラ」と称することもある)は、赤外線を前記撮影対象物に照射し、前記撮影対象物から反射した赤外線を撮像素子が受けるまでの時間を計測する方法、もしくは、赤外線パターンを前記撮影対象物に照射し、前記撮影対象物から反射した前記赤外線パターンを前記撮像素子が受けたときの視差から三角測量の原理による方法で前記撮影対象物までの距離値を得て、得られた前記距離値を前記画素値として輝度に変換することにより、前記距離画像を取得することができる。
なお、前記撮影対象物が赤外線を反射しない箇所、赤外線を反射しても反射光が弱くなる箇所、前記赤外線パターンが届かない前記撮影対象物の影(オクルージョン)が発生する箇所などは、前記距離値を得られない欠損領域となる。
The distance image acquisition means is referred to as “distance image sensor”, “three-dimensional distance sensor”, “depth sensor”, “distance image camera”, and the like, for example, the distance to the subject to be photographed using infrared rays or the like. It is a three-dimensional measuring instrument that measures and images without contact. Specifically, the distance image acquisition means (hereinafter also referred to as “camera”) irradiates the imaging object with infrared rays, and takes time until the imaging element receives infrared rays reflected from the imaging object. Or a method based on the principle of triangulation from the parallax when the imaging device receives the infrared pattern reflected from the imaging object and irradiating the imaging object with an infrared pattern. The distance image can be acquired by obtaining the distance value up to and converting the obtained distance value into luminance as the pixel value.
In addition, the location where the imaging object does not reflect infrared rays, the location where reflected light is weakened even if infrared rays are reflected, the location where the shadow (occlusion) of the imaging object where the infrared pattern does not reach, etc. are the distance This is a missing area where no value can be obtained.

前記距離画像取得手段の設置高さとしては、特に制限はなく、目的に応じて適宜選択することができるが、天井近くの比較的高い位置に設置されることが好ましい。前記距離画像取得手段が天井近くの比較的高い位置に設置されると、死角が少なくなるため、誤検知しにくくなり、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができる。   There is no restriction | limiting in particular as installation height of the said distance image acquisition means, Although it can select suitably according to the objective, It is preferable to install in the comparatively high position near a ceiling. When the distance image acquisition means is installed at a relatively high position near the ceiling, the blind spots are reduced, so that it is difficult to detect falsely, and the risk of the subject falling from the bed is more reliably determined and notified. be able to.

前記距離画像取得手段の設置方向としては、特に制限はなく、目的に応じて適宜選択することができるが、ベッドの長軸上に設置することが好ましい。前記距離画像取得手段の設置方向がベッドの長軸上であると、ベッドから転落する可能性が高い両ベッドサイドの床を、死角が少なくなるように撮影できるため誤検知しにくくなり、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができる。   There is no restriction | limiting in particular as an installation direction of the said distance image acquisition means, Although it can select suitably according to the objective, It is preferable to install on the long axis of a bed. If the installation direction of the distance image acquisition means is on the long axis of the bed, it is less likely to be erroneously detected because both bedside floors that are likely to fall from the bed can be photographed with fewer blind spots, and the object The risk of the person falling from the bed can be more reliably determined and notified.

前記距離画像取得手段の設置箇所としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、三脚の上、天井、壁、床に安定して設置できるような重石を下部に有するポールの上部、前記ベッドに取り付けたアームスタンドの上部などが挙げられる。   The installation location of the distance image acquisition means is not particularly limited and can be appropriately selected depending on the purpose.For example, a weight that can be stably installed on a tripod, ceiling, wall, or floor is placed below. The upper part of the pole which has, the upper part of the arm stand attached to the said bed, etc. are mentioned.

前記距離画像取得手段は、二次元で画素が配列されている撮像素子を有することが好ましい。
前記距離画像取得手段の市販品としては、例えば、赤外線を用いたものでは、Xtion PRO、Xtion PRO Live(以上、ASUS社製)、Kinect(登録商標)(Microsoft社製)、Swiss Ranger SR3000、Swiss Ranger SR4000(以上、MESA社製)、DepthSense(SoftKinetic社製)、D−Imager(パナソニック株式会社製)などが挙げられる。また、2台のカメラを用いたステレオ方式のものでは、Bumblebee(Point Grey Research社製)などが挙げられる。
It is preferable that the distance image acquisition unit includes an image sensor in which pixels are arranged two-dimensionally.
Commercially available products of the distance image acquisition means include, for example, those using infrared rays, Xtion PRO, Xtion PRO Live (hereinafter, manufactured by ASUS), Kinect (registered trademark) (manufactured by Microsoft), Swiss Ranger SR3000, Swiss. Examples include Ranger SR4000 (manufactured by MESA), DepthSense (manufactured by SoftKinetic), D-Imager (manufactured by Panasonic Corporation), and the like. In addition, in a stereo system using two cameras, Bumblebee (manufactured by Point Gray Research) or the like can be given.

<領域設定手段及び領域設定工程>
前記領域設定手段は、取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する手段である。
前記領域設定工程は、取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する工程である。
前記領域設定工程は、前記領域設定手段により好適に行うことができる。
また、前記領域設定工程は、後述する本発明の危険報知装置の校正方法に含まれる。
<Area setting means and area setting process>
The region setting means uses a bed upper surface region extracted from the acquired distance image and a correction region for preventing erroneous detection of the long sitting state of the subject when the subject is on the bed. It is a means for setting.
In the region setting step, a bed upper surface region extracted from the acquired distance image and a correction region for not erroneously detecting the long sitting state of the subject when the subject is on the bed are used as a bed region. It is a process of setting.
The region setting step can be suitably performed by the region setting means.
The region setting step is included in a calibration method for the danger notification device of the present invention, which will be described later.

前記ベッド領域は、前記対象者が転落する危険性が少ない領域であり、前記ベッド上面領域と、前記修正領域とを含む。
前記ベッド上面領域は、前記距離画像から前記ベッドの上面を抽出した領域であり、平面として抽出される。これにより、前記対象者が転落する危険性が少ない長座位状態であっても前記ベッド上面領域から前記対象者の身体の一部がはみ出る場合がある。このため、前記領域設定手段は、前記対象者が転落する危険性が少ない前記ベッドの上での長座位状態を、前記判定手段により前記危険性が高いと誤判定しないように前記修正領域を設定する。 なお、前記長座位状態とは、足を長く伸ばして座っている姿勢のみならず、前記ベッドから転落する危険性が低い状態のことを意味する。
The bed area is an area where the risk of the subject falling is low, and includes the bed upper surface area and the correction area.
The bed upper surface area is an area obtained by extracting the upper surface of the bed from the distance image, and is extracted as a plane. Thereby, even if the subject is in a long sitting position with a low risk of falling, a part of the subject's body may protrude from the bed upper surface region. Therefore, the area setting means sets the correction area so that the determination means does not erroneously determine that the subject is in a long sitting position on the bed with a low risk of falling. To do. Note that the long sitting state means not only a posture in which a leg is extended long, but also a state in which the risk of falling from the bed is low.

前記領域設定手段は、前記ベッド領域外において、前記対象者の前記ベッドからのはみ出しを検知するためのベッドサイド領域と、前記ベッドサイド領域及び前記ベッド領域における上方領域とを更に設定することが好ましい。これにより、前記判定手段が、前記ベッドサイド領域における前記対象者の画素数、及び前記上方領域における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無をより確実に判定できる。即ち、前記対象者の一部が前記ベッド領域外に存在すると判定したときであっても、前記対象者が前記ベッドの上で安全な起床状態であるのか、前記対象者の身体の一部がベッドサイドからはみ出している危険な状態であるのかを判別して検知することにより、前記対象者が前記ベッドから転落する危険性をより確実に判定し、報知することができる。
なお、前記対象者の画素数とは、前記対象者と識別できる画素の数を意味する。
Preferably, the area setting means further sets a bedside area for detecting the protrusion of the subject from the bed and an upper area in the bedside area and the bed area outside the bed area. . Accordingly, the determination unit can more reliably determine whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject in the bedside region and the number of pixels of the subject in the upper region. Can be determined. That is, even when it is determined that a part of the subject exists outside the bed area, whether the subject is in a safe wake-up state on the bed or a part of the subject's body is By discriminating and detecting whether it is a dangerous state that protrudes from the bedside, the risk of the subject falling from the bed can be more reliably determined and notified.
Note that the number of pixels of the subject means the number of pixels that can be identified from the subject.

前記領域設定手段は、前記上方領域における前記ベッド上面領域の上方の領域を前記修正領域に更に設定することが好ましい。これにより、前記対象者が転落する危険性が少ない離床状態や、前記第三者の身体の一部が前記ベッド上面領域内に入り込んだ状態であっても、前記判定手段が、前記対象者の離床状態及び前記第三者を誤検知しないように判定できる。   It is preferable that the area setting means further sets an area above the bed upper surface area in the upper area as the correction area. Thereby, even if the subject is in a bed leaving state with a low risk of falling or a state in which a part of the third party's body enters the bed upper surface region, the determination means is It is possible to determine so as not to misdetect the bed leaving state and the third party.

したがって、前記対象者が前記ベッドから転落する危険性をより確実に判定し、報知するために、前記領域設定手段は、前記ベッド上面領域と、前記修正領域とをベッド領域として設定し、前記ベッド領域外においては、前記ベッドサイド領域と、前記上方領域とを設定することが好ましい。また、前記領域設定手段は、前記ベッドサイド領域の下方の領域に前記ベッドサイド下部領域を設定し、前記判定手段により前記対象者が前記ベッドサイドに腰を掛けて座る端座位状態であることを判定してもよく、前記報知手段により危険を報知した後に前記対象者が転落したか否かを判定してもよい。   Therefore, in order to more reliably determine and notify the danger of the subject falling from the bed, the area setting means sets the bed upper surface area and the correction area as bed areas, and the bed Outside the region, it is preferable to set the bedside region and the upper region. Further, the area setting means sets the bedside lower area in an area below the bedside area, and the determination means indicates that the subject is in an end sitting position where the subject sits on the bedside. It may be determined, and it may be determined whether or not the subject has fallen after the notification means notifies the danger.

前記上方領域は、前記ベッド上面領域の上方の領域(以下、「ベッド上方領域」と称することもある)と、前記ベッドサイド領域の上方の領域(以下、「ベッドサイド上方領域」と称することもある)に分割してもよい。これにより、他の領域における前記対象者又は前記第三者の画素数に基づき、前記ベッド上方領域では、ベッドサイド上方領域では、前記第三者を検知することができる。また、前記ベッド上方領域は前記対象者の起床状態を検知するために、前記ベッドサイド上方領域は前記対象者の離床状態や前記第三者の検知に使用してもよい。   The upper area is an area above the bed upper surface area (hereinafter also referred to as “bed upper area”) and an area above the bedside area (hereinafter referred to as “bedside upper area”). It may be divided into a certain). Thereby, based on the number of pixels of the target person or the third party in another area, the third party can be detected in the bed upper area and the bedside upper area. In addition, the bed upper area may be used to detect the subject's getting up state or the third party in order to detect the subject's rising state.

次に、前記対象者及び前記第三者を撮影しない状態で取得した前記距離画像に基づき、前記領域設定手段が、前記ベッド上面領域、前記上方領域、前記修正領域、及び前記ベッドサイド領域の順に、各領域を抽出又は設定する処理について説明する。   Next, based on the distance image acquired without photographing the target person and the third party, the area setting means, in the order of the bed upper surface area, the upper area, the correction area, and the bedside area. A process for extracting or setting each area will be described.

[ベッド上面領域の抽出処理]
前記ベッド上面領域は、以下のように、前記距離画像取得手段が取得した前記距離画像に基づいて抽出することができる。
[Bed upper surface area extraction processing]
The bed upper surface region can be extracted based on the distance image acquired by the distance image acquisition unit as follows.

−距離画像座標系からカメラ座標系への変換−
まず、前記距離画像における画素の座標である距離画像座標(u,v)を、下記式(1)によりカメラ座標Pu,vに変換する。
なお、前記距離画像取得手段の視点を原点とするカメラ座標系をそれぞれ直交するX軸、Y軸、及びZ軸で表す。また、三次元空間内における物体の位置を表す世界座標系をそれぞれ直交するX軸、Y軸、及びZ軸で表す。
-Conversion from distance image coordinate system to camera coordinate system-
First, the distance image coordinates (u, v), which are the coordinates of the pixels in the distance image , are converted into camera coordinates Pu, v by the following equation (1).
The camera coordinate system with the origin of the viewpoint of the distance image acquisition means is represented by the X 1 axis, the Y 1 axis, and the Z 1 axis that are orthogonal to each other. Further, X 0 axis orthogonal world coordinate system representing the position of an object in a three-dimensional space, respectively, Y 0 axis, and represented by Z 0 axis.

ただし、上記式(1)中、kは前記距離画像における1輝度あたりのZ軸方向の距離値、Iu,vは前記距離画像取得手段の前記撮影素子において距離画像座標(u,v)に対応する各画素の輝度、C及びCは距離画像座標系における光軸中心座標、aは焦点距離fと、前記距離画像取得手段の前記撮影素子における画素の物理的な距離sとの比(s/f)を表す。
なお、前記焦点距離とは、前記距離画像取得手段の光学中心(レンズの中心)と撮影投影面との距離を意味する。
However, in the above formula (1), k is the Z 1 axial distance value per luminance in the distance image, I u, v range image coordinates in the imaging elements of the distance image acquiring unit (u, v) The luminance of each pixel corresponding to, C u and C v are the optical axis center coordinates in the distance image coordinate system, a is the focal length f, and the physical distance s of the pixels in the imaging element of the distance image acquisition means It represents the ratio (s / f).
The focal length means the distance between the optical center (lens center) of the distance image acquisition means and the photographing projection plane.

1輝度あたりのZ軸方向の距離値kとしては、特に制限はなく、目的に応じて適宜選択することができ、例えば、前記距離画像の輝度値の階調数hと計測する最大距離Dより、k=D/hとしてもよい。具体的には、階調数hが256である前記距離画像取得手段を用いて、前記距離画像取得手段から最大3,200mm先までを撮影する場合、k=12.5mm/輝度とする。 Maximum distance D as the distance value k of Z 1 axial per brightness is not particularly limited and may be appropriately selected depending on the purpose, for example, to measure the number of gradations h of luminance values of said distance image Therefore, k = D / h may be set. Specifically, when the distance image acquiring unit having a gradation number h of 256 is used to photograph a maximum of 3,200 mm away from the distance image acquiring unit, k = 12.5 mm / luminance is set.

最大距離Dとしては、特に制限はなく、目的に応じて適宜選択することができるが、2,000mm以上10,000mm以下が好ましく、3,000mm以上5,000mm以下がより好ましい。   There is no restriction | limiting in particular as the maximum distance D, Although it can select suitably according to the objective, 2,000 mm or more and 10,000 mm or less are preferable, and 3,000 mm or more and 5,000 mm or less are more preferable.

光軸中心座標(C,C)としては、特に制限はなく、目的に応じて適宜選択することができるが、前記距離画像取得手段の仕様、もしくはカメラ校正手法などを用いて取得することが好ましく、前記仕様の明記がなく、かつ前記カメラ校正手法を用いない場合では、前記距離画像を構成する画素の中心が好ましい。具体的には、前記距離画像のサイズが320画素×240画素であれば、光軸中心座標(C,C)=(160,120)とすることが好ましい。 The optical axis center coordinates (C u , C v ) are not particularly limited and can be appropriately selected according to the purpose. However, the optical axis center coordinates (C u , C v ) can be selected appropriately according to the specification of the distance image acquisition unit or the camera calibration method. In the case where the specification is not specified and the camera calibration method is not used, the center of the pixel constituting the distance image is preferable. Specifically, when the size of the distance image is 320 pixels × 240 pixels, it is preferable to set the optical axis center coordinates (C u , C v ) = (160, 120).

比a(s/f)としては、特に制限はなく、目的に応じて適宜選択することができるが、前記距離画像取得手段の仕様(焦点距離fと画素の物理的な距離s)、もしくは、カメラ校正手法などを用いて取得することが好ましい。前記仕様における焦点距離fと画素の物理的な距離sの明記がない場合であっても、画角θと前記距離画像の画素数wが既知であれば、次式、a=(2/w)×tan(θ/2)よりaを算出することができる。具体的には、前記距離画像取得手段の垂直画角が45度、前記距離画像の垂直画素サイズが240画素であれば、a=0.003452となる。   The ratio a (s / f) is not particularly limited and may be appropriately selected according to the purpose. However, the specification of the distance image acquisition unit (focal length f and physical distance s of pixels), or It is preferable to obtain using a camera calibration method or the like. Even if the focal length f and the physical distance s of the pixels are not specified in the above specification, if the angle of view θ and the number of pixels w of the distance image are known, the following equation: a = (2 / w ) × tan (θ / 2), a can be calculated. Specifically, if the vertical image angle of the distance image acquisition unit is 45 degrees and the vertical pixel size of the distance image is 240 pixels, a = 0.34552.

−勾配画像の生成−
三次元空間上の面の傾きは、主成分分析(Principal Component Analysis、PCA)により求めることができる第三主成分で表すことができる。このことから、まず、距離画像座標(u,v)を中心とする小区画から前記欠損領域を除いてカメラ座標Pu,vの集合を生成し、生成した集合の第三主成分の単位ベクトルNu,vを求める。ただし、単位ベクトルNu,vは、点対象に2つ存在するため、カメラ座標Pu,vに近い方、すなわち、カメラ座標Pu,vと単位ベクトルNu,vの内積が正となる方とする。
前記小区画としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、前記距離画像のサイズが320画素×240画素であれば、11画素×11画素としてもよい。
-Generation of gradient images-
The inclination of the surface in the three-dimensional space can be represented by a third principal component that can be obtained by principal component analysis (PCA). From this, first, a set of camera coordinates P u, v is generated by removing the missing region from the small section centered on the distance image coordinates (u, v), and the unit vector of the third principal component of the generated set N u, v is obtained. However, the unit vector N u, v, since there are two point target, the camera coordinate P u, closer to v, i.e., the camera coordinate P u, v and the unit vector N u, v inner product is positive And
There is no restriction | limiting in particular as said small division, According to the objective, it can select suitably, For example, if the size of the said distance image is 320 pixels x 240 pixels, it is good also as 11 pixels x 11 pixels.

次に、求めた単位ベクトルNu,vのカメラ座標系におけるX軸方向、Y軸方向、及びZ軸方向の3つの成分を下記式(2)のようにRGB(Red,Green,Blue)の色の各要素に置き換えることにより、単位ベクトルNu,vの向きに応じて色分けした勾配画像を生成する。
前記勾配画像の色分け方法については、特に制限はなく、目的に応じて適宜選択することができ、例えば、Ru,v、Gu,v、Bu,vの要素を入れ替えてもよい。
Next, three components in the X 1 axis direction, the Y 1 axis direction, and the Z 1 axis direction in the camera coordinate system of the obtained unit vector Nu, v are converted into RGB (Red, Green, By substituting each element of the color of Blue), a gradient image color-coded according to the direction of the unit vector Nu, v is generated.
The method of color-grading the gradient image is not particularly limited and may be appropriately selected depending on the purpose. For example, the elements of R u, v , G u, v , B u, v may be interchanged.

−勾配画像の色ムラ低減補正−
生成した前記勾配画像は、ノイズ等の影響により色ムラが多いことがあるため、色ムラを低減する補正がなされることが好ましい。
前記勾配画像の色ムラを低減する補正は、特に制限はなく、目的に応じて適宜選択することができ、例えば、求めた各画素の単位ベクトルNu,vに対してクラスタリングを行う補正などが挙げられる。前記クラスタリングでは、単位ベクトルNu,vが近似している画素を同一とみなすようにして減色させることにより、色ムラを低減することができる。
-Color unevenness reduction correction for gradient images-
Since the generated gradient image may have a large amount of color unevenness due to the influence of noise or the like, it is preferable that correction for reducing the color unevenness is performed.
The correction for reducing the color unevenness of the gradient image is not particularly limited and can be appropriately selected according to the purpose. For example, correction for performing clustering on the obtained unit vectors Nu, v of each pixel is available. Can be mentioned. In the clustering, color unevenness can be reduced by reducing the color so that the pixels that the unit vectors Nu, v are approximated to be the same.

前記クラスタリングとしては、特に制限はなく、目的に応じて適宜選択することができるが、例えば、k−means法などが挙げられる。
前記k−means法で用いる分割数(クラスター数)T3としては、特に制限はなく、目的に応じて適宜選択することができるが、各領域の代表点からの標準偏差が所定のしきい値以下となるように徐々に増加させて決定することが好ましい。
There is no restriction | limiting in particular as said clustering, Although it can select suitably according to the objective, For example, the k-means method etc. are mentioned.
The number of divisions (number of clusters) T3 used in the k-means method is not particularly limited and may be appropriately selected according to the purpose. However, the standard deviation from the representative point of each region is a predetermined threshold value or less. It is preferable to gradually increase so as to be determined.

なお、前記色ムラ低減補正がなされた前記勾配画像において、前記ベッドの上面及び前記ベッドを設置している床面が水平である場合、空間的な勾配が同様であるため、前記ベッドの上面及び前記床面は同色になる場合が多い。これにより、前記ベッド上面領域と前記床領域とを確実に区割りができない可能性もある。このため、以下のように前記距離画像から前記ベッド上面領域及び前記床領域を抽出する前に、あるいは前記ベッド上面領域及び前記床領域を抽出した後に、前記距離画像の前記画素値の変化量が大きい箇所に沿って線引きしたエッジ画像を生成し、前記補正がなされた前記勾配画像と前記エッジ画像との合成画像を生成して、より確実に前記ベッド上面領域を抽出することが好ましい。   In the gradient image that has been subjected to the color unevenness reduction correction, when the upper surface of the bed and the floor surface on which the bed is installed are horizontal, the spatial gradient is the same. The floor is often the same color. Thereby, there is a possibility that the bed upper surface area and the floor area cannot be reliably divided. Therefore, before extracting the bed upper surface area and the floor area from the distance image as described below, or after extracting the bed upper surface area and the floor area, the amount of change in the pixel value of the distance image is as follows. It is preferable to generate an edge image drawn along a large portion, generate a composite image of the corrected gradient image and the edge image, and extract the bed upper surface region more reliably.

−ベッド上面領域及び床領域の抽出−
前記距離画像取得手段は、前記ベッド及び前記ベッドの周辺が大きく写るように設置されるため、前記クラスタリングにより区割りされた前記距離画像における各領域の面積(画素数)を比較すると、前記ベッド上面領域及び前記床領域の面積が大きくなる場合が多い。このため、前記距離画像において区割りされた領域のうち、面積が大きい領域を選択することにより、前記ベッド上面領域及び前記床領域を抽出する。
-Extraction of bed upper surface area and floor area-
Since the distance image acquisition means is installed so that the bed and the periphery of the bed are shown large, the area (number of pixels) of each region in the distance image divided by the clustering is compared. In many cases, the area of the floor region becomes large. For this reason, the bed upper surface region and the floor region are extracted by selecting a region having a large area among the regions divided in the distance image.

−エッジ画像の生成−
前記ベッド上面領域及び前記床領域を抽出した画像において、前記ベッド上面領域と床領域の区割りを確実なものとするため、前記距離画像の前記画素値の変化量が大きい箇所に沿って線引きしてエッジを抽出し、前記距離画像からエッジ画像を更に生成することが好ましい。
前記エッジ画像は、線引きして得た前記エッジを黒(例えば、輝度値0)、前記エッジ以外を白(例えば、輝度値255)とすることが好ましい。
-Generation of edge images-
In the image obtained by extracting the bed upper surface region and the floor region, in order to ensure the division between the bed upper surface region and the floor region, a line is drawn along a portion where the change amount of the pixel value of the distance image is large. It is preferable to extract an edge and further generate an edge image from the distance image.
In the edge image, it is preferable that the edge obtained by drawing a line is black (for example, luminance value 0), and other than the edge is white (for example, luminance value 255).

前記エッジの抽出法としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、cannyのエッジ検出アルゴリズムなどが挙げられ、前記ベッド上面領域と前記床領域の間に途切れなく線が引かれることが好ましい。   The edge extraction method is not particularly limited and may be appropriately selected depending on the purpose. For example, a canny edge detection algorithm may be used, and a line between the bed upper surface area and the floor area may be seamlessly displayed. Is preferably subtracted.

−合成画像の生成−
次に、前記距離画像の前記画素値の変化量が大きい箇所、即ち所定の大きさの段差に沿って線引きされたエッジにより表された前記エッジ画像及び前記勾配画像を合成して合成画像を生成する。これにより、前記ベッドの上面及び前記ベッドを設置している床面が水平であり、前記ベッド上面領域と前記床領域とを確実に区割りができない可能性があっても、前記勾配画像と、前記ベッド上面領域と前記床領域との段差を明確にできる前記エッジ画像とを合成することにより、より確実に前記ベッド上面領域を抽出することができる。
-Generation of composite image-
Next, a synthesized image is generated by synthesizing the edge image and the gradient image represented by the edge drawn along a step having a predetermined size, that is, a location where the change amount of the pixel value of the distance image is large. To do. Thereby, even if the upper surface of the bed and the floor surface on which the bed is installed are horizontal and the bed upper surface region and the floor region may not be reliably divided, the gradient image, and By synthesizing the edge image that can clarify the level difference between the bed upper surface area and the floor area, the bed upper surface area can be extracted more reliably.

前記合成画像の生成としては、特に制限はなく、目的に応じて適宜選択することができるが、前記エッジ画像の前記エッジが黒(例えば、輝度値0)、前記エッジ以外が白(例えば、輝度値255)であれば、前記勾配画像及び前記エッジ画像において対応する各画素の輝度値を乗算する方法が好ましい。これにより、段差がある領域と面の角度差がある領域とを重ね合わせ二値化された合成画像を生成することができる。   The generation of the composite image is not particularly limited and may be appropriately selected according to the purpose. However, the edge of the edge image is black (for example, luminance value 0), and other than the edge is white (for example, luminance). If the value is 255, it is preferable to multiply the luminance value of each corresponding pixel in the gradient image and the edge image. As a result, a binarized composite image can be generated by superimposing a region having a step and a region having a surface angle difference.

−ベッド上面領域の抽出−
前記区割りした領域の画素数のうち、前記ベッドの上面に該当する領域の画素数の多さが所定の順位となるように、予め前記距離画像取得手段を設置し、前記所定の順位の領域を前記ベッド上面領域として抽出する。
具体的には、前記ベッドの上面に該当する領域の画素数が最大となるように、予め前記距離画像取得手段を設置し、前記合成画像、又は、前記ベッド上面領域及び前記床領域を抽出した画像に、同領域の各画素に同じ識別番号を与えるラベリング処理を行い、最大画素数を有するラベル(領域)を前記ベッド上面領域として抽出する。なお、前記区割りした領域の画素数のうち、前記ベッドの上面に該当する領域の画素数が2番目になるように予め前記距離画像取得手段を設置し、2番目の領域を前記ベッド上面領域として抽出するようにしてもよい。
-Extraction of bed upper surface area-
The distance image acquisition means is installed in advance so that the number of pixels in the area corresponding to the upper surface of the bed has a predetermined order among the number of pixels in the divided area, Extracted as the bed upper surface area.
Specifically, the distance image acquisition unit is installed in advance so that the number of pixels in the area corresponding to the upper surface of the bed is maximized, and the composite image, or the bed upper surface area and the floor area are extracted. A labeling process for giving the same identification number to each pixel in the same region is performed on the image, and a label (region) having the maximum number of pixels is extracted as the bed upper surface region. In addition, among the number of pixels in the divided area, the distance image acquisition unit is installed in advance so that the number of pixels in the area corresponding to the upper surface of the bed is second, and the second area is set as the bed upper surface area. You may make it extract.

[上方領域の設定処理]
前記上方領域は、例えば、以下のようにカメラの姿勢及び位置を算出することにより設定することができる。
[Upper area setting process]
The upper region can be set, for example, by calculating the posture and position of the camera as follows.

−カメラ姿勢の算出−
前記カメラ姿勢は、世界座標系における前記距離画像取得手段の傾き、即ち、カメラ座標系におけるベッドや床の傾きNとして表す。
Nは、前記ベッド上面領域及び前記床領域の抽出時に実施したクラスタリングの最大クラスの代表ベクトル(k−means法を用いた場合は距離の二乗和が最小となる単位ベクトル)を用いることも可能であるが、前記ベッド上面領域及び前記床領域を抽出した画像は、机などの周辺物のノイズが含まれる可能性もある。
そこで、できるだけノイズの影響を軽減するため、前記ベッド上面領域上の画素(u,v)に対する前記距離画像の距離値Iu,vを再度取得し、上記式(1)によりカメラ座標Pu,vに変換し、小区画ごとに主成分分析を行う。次に、主成分分析の第3主成分の単位ベクトルNu,vを求める。ただし、前述と同様に、単位ベクトルNu,vは、点対象に2つ存在するため、カメラ座標Pu,vに近い方、即ち、カメラ座標Pu,vと単位ベクトルNu,vの内積が正となる方とする。
なお、単位ベクトルNu,vからの距離の二乗和が最小となる単位ベクトルを、前記距離画像取得手段の傾きNとする。
-Calculation of camera posture-
The camera posture is expressed as the inclination of the distance image acquisition means in the world coordinate system, that is, the inclination N of the bed or floor in the camera coordinate system.
N may be a representative vector of the maximum class of clustering performed when extracting the bed upper surface area and the floor area (a unit vector that minimizes the sum of squares of distances when the k-means method is used). However, an image obtained by extracting the bed upper surface area and the floor area may include noise of peripheral objects such as a desk.
Therefore, in order to reduce the influence of noise as much as possible, the distance value I u, v of the distance image with respect to the pixel (u, v) on the bed upper surface region is obtained again, and the camera coordinates P u, Convert to v and perform principal component analysis for each subdivision. Next, a unit vector N u, v of the third principal component of the principal component analysis is obtained. However, in the same manner as described above, the unit vector N u, v, since there are two point target, the camera coordinate P u, closer to v, i.e., the camera coordinate P u, v and the unit vector N u, v of The inner product is positive.
A unit vector that minimizes the sum of squares of the distances from the unit vectors N u, v is defined as the gradient N of the distance image acquisition means.

−カメラ位置の算出−
まず、前記距離画像取得手段から前記ベッドの上面までの世界座標系における高さlと、前記距離画像取得手段から前記床面までの世界座標系における高さmとを算出する。
前記距離画像取得手段から前記ベッドの上面の任意の点までのベクトルをPとすると、前記距離画像取得手段から前記ベッドの上面の任意の点までの世界座標系における高さl、即ちベクトルPのZ軸成分は下記式(3)により算出することができる。
-Calculation of camera position-
First, a height l in the world coordinate system from the distance image acquisition means to the upper surface of the bed and a height m in the world coordinate system from the distance image acquisition means to the floor surface are calculated.
Let P i be a vector from the distance image acquisition means to an arbitrary point on the upper surface of the bed, a height l i in the world coordinate system from the distance image acquisition means to an arbitrary point on the upper surface of the bed, that is, a vector Z 0 axis component of the P i can be calculated by the following equation (3).

また、前記距離画像取得手段から前記床面の任意の点までのベクトルをQとすると、前記距離画像取得手段から前記床面の任意の点までの世界座標系における高さm、即ちベクトルQのZ軸成分は下記式(4)により算出することができる。 Further, if a vector from the distance image acquisition unit to an arbitrary point on the floor surface is Q i , a height m i in the world coordinate system from the distance image acquisition unit to an arbitrary point on the floor surface, that is, a vector The Z 0 axis component of Q i can be calculated by the following equation (4).

ただし、上記式(5)中、Average()は平均値を表す。 However, in the above formula (5), Average () represents an average value.

ただし、上記式(6)中、Mode{}は最頻値を表す。 However, in Formula (6), Mode {} represents the mode value.

上記式(3)により高さlを算出し、下記式(5)により高さlの平均値lを算出する。
また、上記式(4)により高さmを算出し、下記式(6)により高さmの最頻値mを算出する。
なお、前記高さlにおいて算出するのが平均値であるのは、前記距離画像取得手段により精度良くベッドの上面までの距離を計測できると想定されるためである。また、前記高さmにおいて算出するのが最頻値であるのは、前記距離画像取得手段により床面までの距離を計測するとき、床面以外にも机などの周辺物がノイズとなる可能性があり、平均値を用いると影響を受けやすくなるためである。
The equation to calculate the height l i by (3), calculates the average value l of height l i by the following equation (5).
Moreover, to calculate the height m i by the formula (4), calculates the mode m height m i by the following equation (6).
The reason why the average value is calculated at the height l i is that it is assumed that the distance image acquisition unit can measure the distance to the upper surface of the bed with high accuracy. Further, the in the range of the mode to calculate the height m i, when measuring the distance to the floor, surrounding objects such as a desk in addition the floor is a noise by the distance image acquiring unit This is because there is a possibility, and the use of the average value makes it easy to be influenced.

−上方領域の設定−
前記距離画像には、前記距離画像取得手段により得た距離値に応じた輝度が各画素に設定されている。上記式(1)によりカメラ座標Pu,vを算出した後、下記式(7)のI1u,vを求めることにより、前記距離画像を世界座標系のZ軸成分に応じた輝度を画素に設定し直すことができる。
-Setting the upper area-
In the distance image, the luminance corresponding to the distance value obtained by the distance image acquisition unit is set for each pixel. After calculating the camera coordinates P u, v according to the above equation (1), I1 u, v in the following equation (7) is obtained, whereby the brightness corresponding to the Z 0- axis component of the world coordinate system is expressed as a pixel. Can be set again.

ただし、上記式(7)中、gは前記ベッド上面と前記床面との間の輝度差を表し、gは前記床面の輝度を表す。 However, in the above formula (7), g 1 represents a brightness difference between the bed upper surface and the floor surface, g 2 represents luminance of the floor surface.

としては、特に制限はなく、目的に応じて適宜選択することができるが、20以上100以下が好ましく、40以上70以下がより好ましい。
としては、特に制限はなく、目的に応じて適宜選択することができるが、200以上255以下が好ましく、240以上255以下がより好ましい。
The g 1, not particularly limited and may be appropriately selected depending on the intended purpose, but is preferably 20 or more and 100 or less, more preferably 40 or more 70 or less.
The g 2, not particularly limited and may be appropriately selected depending on the intended purpose, preferably 200 to 255, more preferably 240 or more 255 or less.

輝度I1u,vが下記式(8)のIよりも小さい場合は、距離画像座標(u,v)が前記上方領域内に存在していることになる。したがって、I1u,vがIよりも小さい場合、距離画像座標(u,v)は、前記距離画像における前記上方領域に含まれていると判定する。 If the luminance I1 u, v is less than I T of formula (8), the distance image coordinates (u, v) is that they are present in the upper region. Therefore, if I1 u, v is less than I T, the distance image coordinates (u, v), determines that contained in said upper region in the distance image.

ただし、上記式(8)中、dは世界座標系における前記ベッドの上面からの高さを表し、前記ベッド領域及び前記ベッドサイド領域と、前記上方領域とを区割りするための定数である。 However, in said Formula (8), d represents the height from the upper surface of the said bed in a world coordinate system, and is a constant for dividing the said bed area | region, the said bedside area | region, and the said upper area | region.

dとしては、特に制限はなく、目的に応じて適宜選択することができるが、300mm以上700mm以下が好ましく、400mm以上600mm以下がより好ましい。   There is no restriction | limiting in particular as d, Although it can select suitably according to the objective, 300 mm or more and 700 mm or less are preferable, and 400 mm or more and 600 mm or less are more preferable.

同様に,上記式(7)で求めた輝度値(I1u,v)が下記式(9)のIT2よりも大きい場合、距離画像座標座標(u,v)は、前記ベッドサイド下部領域に含まれていることとなる。 Similarly, the luminance value calculated by the above formula (7) (I1 u, v) is larger than I T2 of the formula (9), the distance image coordinate coordinates (u, v), the bedside lower region It will be included.

ただし、eは世界座標系における前記ベッドサイド下部領域の前記床面からの高さを表し、前記ベッドサイド領域と前記ベッドサイド下部領域とを区割りするための定数である。 However, e represents the height of the bedside lower region from the floor surface in the world coordinate system, and is a constant for dividing the bedside region and the bedside lower region.

eは、実際の空間上の床面からベッド上面までの高さ以下であれば、目的に応じて適宜選択することができるが、200mm以上500mm以下が好ましく、300mm以上400mm以下がより好ましい。   e can be appropriately selected according to the purpose as long as it is not more than the height from the floor surface to the bed upper surface in the actual space, but is preferably 200 mm or more and 500 mm or less, more preferably 300 mm or more and 400 mm or less.

[修正領域の設定処理]
前記修正領域は、例えば、以下のように前記ベッド上面領域の全画素に対し、前記ベッドの上面を仮想的にZ軸方向に移動させるようにすることにより設定することができる。
[Correction area setting process]
The modified region, for example, can be set by such relative to the total pixels of the bed top surface area as follows to move the upper surface of the bed virtually in Z 0 axis direction.

まず、前記修正領域における距離画像座標(u,v)のRGB成分のうちB成分の輝度値をIbu,vで表し、R成分の輝度値をIru,vで表す。 First, among the RGB components of the distance image coordinates (u, v) in the correction area, the luminance value of the B component is represented by Ib u, v , and the luminance value of the R component is represented by Ir u, v .

(i)距離画像座標(u,v)が前記ベッド上面領域内の場合、Iru,v及びIbu,vを、それぞれ255及びg−gとして初期化する。それ以外の場合、Iru,v及びIbu,vを、いずれも0として初期化する。 (I) When the distance image coordinates (u, v) are within the bed upper surface region, Iru , v and Ibu , v are initialized as 255 and g 2 -g 1 , respectively. Otherwise, Ir u, v and Ib u, v are initialized as 0.

(ii)前記ベッド領域内から1画素選択し(選択した座標を(u,v)とする)、距離画像のその座標における輝度値Iu,vを取得し、上記式(1)でカメラ座標値Pu,vを計算する。 (Ii) One pixel is selected from the bed area (the selected coordinates are (u, v)), the luminance values I u, v at the coordinates of the distance image are obtained, and the camera coordinates are obtained by the above equation (1). The values P u, v are calculated.

(iii)前記ベッドの上面を仮想的にZ軸方向にb(初めはb=1とする。)移動したときの距離画像座標(u2,v2)を求める。移動後のカメラ座標値P2u,v=(P2,P2,P2)は下記式(10)及び下記式(11)により算出することができる。なお、下記式(11)は、上記式(1)のu及びvについて解くことにより、求めることができる。 (Iii) b the upper surface of the bed in virtually Z 0 axis direction (initially and b = 1.) Determining the distance image coordinates when you move (u2, v2). The camera coordinate values P2 u, v = (P2 x , P2 y , P2 z ) after movement can be calculated by the following expressions (10) and (11). The following equation (11) can be obtained by solving for u and v in the above equation (1).

(iv)また、Z軸方向に仮想的にb移動したときの距離画像座標(u2,v2)におけるZ距離画像値をI2u,vとすると、I2u,vは下記式(12)から導出することができる。 (Iv) If the Z distance image value at the distance image coordinates (u2, v2) when moving virtually b in the Z 0 axis direction is I2 u, v , I2 u, v is obtained from the following equation (12). Can be derived.

(v)下記式(13)と下記式(14)により前記修正領域の画像における画素値を更新する。 (V) The pixel value in the image of the correction area is updated by the following formula (13) and the following formula (14).

(vi)bをカウントし,人の身長の高さ程度となるb=1,800mm程度になるまで(iii)〜(v)を繰り返す。 (Vi) Count b and repeat (iii) to (v) until b is about 1,800 mm, which is about the height of a person.

(vii)前記ベッド上面領域内の別の1画素を選択し,前記ベッド上面領域内の全画素について(ii)〜(vi)を行う。 (Vii) Another pixel in the bed upper surface area is selected, and (ii) to (vi) are performed on all the pixels in the bed upper surface area.

[各領域の設定処理]
前記距離画像上の座標(u,v)が前記ベッドサイド領域、前記ベッドサイド上方領域、前記ベッドサイド下部領域、前記ベッド上方領域、及び前記ベッド領域のいずれに含まれるかを以下の手順で判定する。
[Setting process for each area]
The following procedure determines whether the coordinates (u, v) on the distance image are included in the bedside region, the bedside upper region, the bedside lower region, the bed upper region, or the bed region. To do.

(i)上記式(7)を用いて前記距離画像をZ距離画像に変換する。なお、変換後の輝度値をI1u,vとする。 (I) The distance image is converted into a Z distance image using the above equation (7). The converted luminance value is I1 u, v .

(ii)上記式(8)と上記式(9)を用いて距離画像座標(u,v)の高さ方向の領域判定をする。具体的には、I1u,vが上記式(9)のIT2よりも大きい場合、座標(u,v)が前記ベッドサイド下部領域に存在すると判定する。それ以外の場合において、I1u,vが上記式(8)のIよりも小さい場合、(iii−a)に移行し、I1u,vが上記式(8)のI以上の場合、(iii−b)に移行する。 (Ii) The region in the height direction of the distance image coordinates (u, v) is determined using the above formula (8) and the above formula (9). Specifically, it is determined that I1 u, v is greater than I T2 of the formula (9), the coordinates (u, v) is present in the bedside lower region. In other cases, when I1 u, v is smaller than I T in the above formula (8), the process proceeds to (iii-a), and when I1 u, v is equal to or greater than I T in the above formula (8), Move to (iii-b).

(iii−a)I1u,vが前記修正領域画像のR2u,v以下、かつB2u,v以上の場合、距離画像座標(u,v)は、前記ベッド上方領域に含まれていると判定する。それ以外の場合、前記ベッドサイド上方領域に含まれていると判定する。 (Iii-a) When I1 u, v is equal to or less than R2 u, v and equal to or greater than B2 u, v of the correction area image, the distance image coordinates (u, v) are included in the bed upper area. judge. Otherwise, it is determined to be included in the bedside upper area.

(iii−b)I1u,vが前記修正領域画像のR2u,v以下、かつB2u,v以上の場合、距離画像座標(u,v)は、前記ベッド領域に含まれていると判定する。それ以外の場合、前記ベッドサイド領域に含まれていると判定する。 (Iii-b) When I1 u, v is equal to or less than R2 u, v and equal to or greater than B2 u, v of the correction area image, it is determined that the distance image coordinates (u, v) are included in the bed area. To do. In other cases, it is determined to be included in the bedside region.

[各領域面積のカウント]
距離画像上の全画素に対して、距離画像座標(u,v)がどの領域に含まれるかを上記の方法で判定した後、各領域に含まれる画素数(面積)をカウントする。ここで、前記ベッドサイド上方領域及び前記ベッド上方領域のいずれかに含まれる場合を上方領域と判定し、上方領域の画素数をAII−IIIとする。また、ベッドサイド領域の画素数をAIVとする。
[Counting the area of each area]
After determining which region the distance image coordinates (u, v) are included in all the pixels on the distance image by the above method, the number of pixels (area) included in each region is counted. Here, the case where it is included in either the bedside upper region or the bed upper region is determined as the upper region, and the number of pixels in the upper region is defined as AII -III . Further, the number of pixels of the bed-side region and A IV.

このように、得られた前記距離値についてカメラ座標系から世界座標系への変換をせずに、距離画像座標(u,v)のまま、各領域の設定を行うことが好ましい。これにより、世界座標系への変換に起因して、標本化による空白点が多く発生することによる描画性能の低下、計算量の増大、オクルージョンの発生などを抑制することができる。   Thus, it is preferable to set each area with the distance image coordinates (u, v) without converting the obtained distance value from the camera coordinate system to the world coordinate system. Accordingly, it is possible to suppress a decrease in drawing performance, an increase in calculation amount, and an occurrence of occlusion due to the generation of many blank points due to sampling due to the conversion to the world coordinate system.

また、上記のように求めた上方領域AII−III及びベッドサイド領域AIVの画素値を初期値とし、本発明の危険報知装置の動作中の各領域において前記画素値が所定の範囲以上に変動した画素数を前記対象者の画素数として、前記ベッドからの転落の危険性が高い状態を前記判定手段が判定する。 Further, the pixel values of the upper region A II-III and the bedside region A IV obtained as described above are set as initial values, and the pixel values are not less than a predetermined range in each region during operation of the danger notification device of the present invention. The determination means determines a state in which the risk of falling from the bed is high, with the changed number of pixels as the number of pixels of the subject.

<判定手段及び判定工程>
前記判定手段は、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する手段である。
前記判定工程は、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する工程である。
前記判定工程は、前記判定手段により好適に行うことができる。
<Determination means and determination process>
The determination unit is a unit that determines whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject.
The determination step is a step of determining whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject.
The determination step can be suitably performed by the determination unit.

前記判定手段は、前記ベッドサイド領域における前記対象者の画素数が所定の画素数以上である場合、前記上方領域における前記対象者の画素数が所定の画素数以下であるとき、前記対象者が前記ベッドから転落する危険性があると判定することが好ましい。これにより、前記対象者の身体の一部がベッドサイドからはみ出しており、かつ起床状態である可能性が低いと判定できるため、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができる。   When the number of pixels of the subject in the bedside area is equal to or greater than a predetermined number of pixels, the determination means, when the number of pixels of the subject in the upper area is equal to or less than a predetermined number of pixels, It is preferable to determine that there is a risk of falling from the bed. Thereby, since it is possible to determine that a part of the subject's body protrudes from the bedside and is less likely to be in a wake-up state, the risk of the subject falling from the bed is more reliably determined, Can be notified.

これは、前記対象者が起床するとき、前記ベッドサイド領域における前記対象者の画素数が増加するとともに、前記上方領域における前記対象者の画素数も増加する。また、訪問者が訪れたときも、前記ベッドサイド領域における前記対象者の画素数が増加するとともに、前記上方領域における前記対象者の画素数も増加する。これらの状態を前記対象者が前記ベッドからの転落の危険性があると判定しないようにすることにより、前記判定の精度を高めることができる。
なお、前記対象者が前記ベッドからの転落の危険性があるとの判定は、前記対象者の画素の変動速度に基づいてもよく、前記対象者の画素の一連の動きに基づいてもよい。
This is because when the subject gets up, the number of pixels of the subject in the bedside region increases and the number of pixels of the subject in the upper region also increases. Also, when a visitor visits, the number of pixels of the subject in the bedside region increases and the number of pixels of the subject in the upper region also increases. By preventing the subject from determining that there is a risk of falling from the bed in these states, the accuracy of the determination can be increased.
Note that the determination that the subject has a risk of falling from the bed may be based on the fluctuation speed of the subject's pixels or based on a series of movements of the subject's pixels.

前記ベッドから転落する危険性がある前記対象者の動作及び状態としては、例えば、臥床状態での拾得動作、臥床状態でのベッド柵の操作、病的原因などが挙げられる。   Examples of the operation and state of the subject who is at risk of falling from the bed include a pick-up operation in a bedded state, an operation of a bed rail in a bedded state, and a pathological cause.

<報知手段及び報知工程>
前記報知手段は、前記判定手段の判定結果を、前記対象者及び前記第三者の少なくともいずれかに報知する手段である。
前記報知工程は、前記判定工程による判定結果を、前記対象者及び前記第三者の少なくともいずれかに報知する工程である。
前記報知工程は、前記報知手段により好適に行うことができる。
<Notification means and notification process>
The notifying means is means for notifying the determination result of the determining means to at least one of the target person and the third party.
The notification step is a step of notifying the determination result of the determination step to at least one of the target person and the third party.
The notification step can be suitably performed by the notification unit.

前記報知手段としては、前記判定手段の判定結果を、前記対象者及び前記第三者の少なくともいずれかに報知できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ディスプレイなどの表示手段、警報音などの音響手段、照明を点灯させる手段、振動を付与する手段、又はこれらの手段の組み合わせなどが挙げられる。   The notification means is not particularly limited as long as the determination result of the determination means can be notified to at least one of the target person and the third party, and can be appropriately selected according to the purpose. Examples include display means, acoustic means such as an alarm sound, means for turning on illumination, means for imparting vibration, or a combination of these means.

前記第三者としては、例えば、前記対象者を訪ねてきた訪問者、介護施設における介護者、病院などにおける医療スタッフなどが挙げられる。   Examples of the third party include a visitor who has visited the subject, a caregiver at a care facility, a medical staff at a hospital, and the like.

<その他の手段及びその他の工程>
前記その他の手段としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、対象者保護手段、制御手段などが挙げられる。
前記その他の工程としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、対象者保護工程、制御工程などが挙げられる。
前記その他の工程は、前記その他の手段により好適に行うことができる。
<Other means and other processes>
There is no restriction | limiting in particular as said other means, According to the objective, it can select suitably, For example, a subject person protection means, a control means, etc. are mentioned.
There is no restriction | limiting in particular as said other process, According to the objective, it can select suitably, For example, a subject protection process, a control process, etc. are mentioned.
The other steps can be suitably performed by the other means.

前記対象者保護手段としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、前記判定手段により前記対象者が前記ベッドから転落する危険性があると判定したとき、前記対象者がベッドから転落しても保護できる手段であり、例えば、エアバッグなどが挙げられる。
前記対象者保護工程としては、特に制限はなく、目的に応じて適宜選択することができ、例えば、前記判定工程により前記対象者が前記ベッドから転落する危険性があると判定したとき、エアバッグなどを用いることにより前記対象者が転落しても保護できる工程などが挙げられる。
前記対象者保護工程は、前記対象者保護手段により好適に行うことができる。
The target person protection means is not particularly limited and may be appropriately selected according to the purpose. For example, when the determination means determines that the target person has a risk of falling from the bed, the target person It is a means that can be protected even if a person falls from the bed, such as an air bag.
There is no restriction | limiting in particular as said subject person protection process, According to the objective, it can select suitably, For example, when it determines with the said subject having the risk of falling from the said bed by the said determination process, an airbag The process etc. which can be protected even if the said subject falls by using etc. are mentioned.
The subject person protection step can be suitably performed by the subject person protection means.

前記制御手段は、本発明の危険報知装置の各動作を制御するCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有し、危険報知装置全体の動作を制御するための制御プログラムに基づいて各種処理を実行する。
前記制御工程は、危険報知装置全体の動作を制御するための制御プログラムに基づいて各種処理を実行する工程であり、前記制御手段により好適に行うことができる。
The control means includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like that control each operation of the danger notification device of the present invention, and controls the operation of the entire danger notification device. Various processes are executed on the basis of a control program.
The said control process is a process of performing various processes based on the control program for controlling the operation | movement of the whole danger notification apparatus, and can be suitably performed by the said control means.

(危険報知装置の校正方法)
本発明の危険報知装置の校正方法の第一の実施形態としては、ベッド上面領域抽出工程を含み、設置工程と、算出工程と、領域設定工程とを含むことが好ましく、更に必要に応じてその他の工程を含む。
(Calibration method of danger alarm device)
The first embodiment of the calibration method of the danger notification device of the present invention includes a bed upper surface region extraction step, preferably includes an installation step, a calculation step, and a region setting step, and other if necessary. These steps are included.

<ベッド上面領域抽出工程>
前記ベッド上面領域抽出工程は、取得した前記距離画像を空間的な勾配が同様な領域に区割りした勾配画像を生成し、前記勾配画像に基づいて区割りした領域から前記ベッド上面領域を抽出する工程である。前記ベッド上面領域抽出工程では、取得した前記距離画像を空間的な勾配が同様な領域に区割りすることにより、ベッドの上面、床、壁などの各領域をラベリングなどによりを識別できるため、識別した領域の中から前記ベッド上面領域を抽出することができる。
<Bed upper surface area extraction process>
The bed upper surface region extracting step is a step of generating a gradient image obtained by dividing the acquired distance image into regions having similar spatial gradients, and extracting the bed upper surface region from the region divided based on the gradient image. is there. In the bed upper surface region extraction step, the obtained distance image is divided into regions having similar spatial gradients, so that each region such as the bed upper surface, floor, and wall can be identified by labeling or the like. The bed upper surface area can be extracted from the area.

<設置工程>
前記設置工程は、前記距離画像取得手段により取得される前記距離画像において、前記区割りした領域の画素数のうち、前記ベッドの上面に該当する領域の画素数が、所定の順位となるように前記距離画像取得手段を設置する工程である。前述のとおり、前記ベッドの上面が最も広く抽出されるように前記距離画像取得手段を設置すると、前記領域設定工程において前記ベッド上面領域を自動的に抽出することができる。
<Installation process>
In the distance image acquired by the distance image acquisition unit, the installation step includes the number of pixels in the divided area, and the number of pixels in the area corresponding to the upper surface of the bed is in a predetermined order. This is a step of installing distance image acquisition means. As described above, when the distance image acquisition unit is installed so that the upper surface of the bed is extracted most widely, the bed upper surface region can be automatically extracted in the region setting step.

<算出工程>
前記算出工程は、前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出する工程である。
前記算出工程では、前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出することにより、手動で設定せずに前記距離画像取得手段の位置及び姿勢を求めることができるため、手間をかけずに校正することができる。
<Calculation process>
The calculation step is a step of calculating the position and orientation of the distance image acquisition unit based on the bed upper surface region.
In the calculation step, the position and orientation of the distance image acquisition unit can be obtained without manually setting by calculating the position and orientation of the distance image acquisition unit based on the bed upper surface area. It can be calibrated without applying.

<領域設定工程>
前記領域設定工程は、前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定する工程である。
前述のとおり、前記領域設定工程では、前記ベッド上面領域に加えて前記修正領域を転落の危険性が低い前記ベッド領域として設定することにより、前記対象者が前記ベッドから転落する危険性をより確実に判定し、報知することができる。また、ノイズの影響を受けやすい世界座標系における空間ではなく、カメラ座標系における空間を分割して領域を設定することから、前記ベッド上面領域をより確実に抽出することができる。
<Region setting process>
The region setting step is a step of setting a region by dividing a space in the camera coordinate system based on the bed upper surface region.
As described above, in the region setting step, in addition to the bed upper surface region, the correction region is set as the bed region having a low risk of falling, thereby further ensuring the risk of the subject falling from the bed. Can be determined and notified. Further, since the area is set by dividing the space in the camera coordinate system instead of the space in the world coordinate system which is easily affected by noise, the bed upper surface area can be extracted more reliably.

前記領域設定工程としては、前記対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を検知しないための修正領域を設定することが好ましく、前記上方領域における前記ベッド上面領域の上方の領域を、前記対象者の離床状態及び前記第三者を検知しないための修正領域として更に設定することがより好ましい。
前記対象者の長座位状態を検知しないための修正領域を設定することにより、誤検知を少なくすることができるため、前記対象者がベッドから転落することをより確実に防止できる。また、前記上方領域における前記ベッド上面領域の上方の領域を、前記対象者の離床状態及び前記第三者を検知しないための修正領域として更に設定することにより、誤検知を少なくすることができるため、前記対象者がベッドから転落することをより確実に防止できる。
As the region setting step, it is preferable to set a correction region for not detecting the long sitting state of the subject when the subject is on the bed, and above the bed upper surface region in the upper region. It is more preferable to further set this area as a correction area for not detecting the bed leaving state of the subject person and the third party.
By setting a correction region for not detecting the subject's long-sitting position, erroneous detection can be reduced, so that the subject can be more reliably prevented from falling from the bed. Moreover, since the area above the bed upper surface area in the upper area is further set as a correction area for not detecting the bed leaving state of the subject and the third party, false detection can be reduced. It is possible to more reliably prevent the subject from falling from the bed.

本発明の危険報知装置の校正方法の第二の実施形態は、領域設定工程を含み、算出工程を含むことが好ましく、更に必要に応じてその他の工程を含む。
本実施形態における領域設定工程は、前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定し、設定した前記領域のうち、前記対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域を設定する工程である。
The second embodiment of the calibration method of the danger notification device of the present invention includes an area setting step, preferably includes a calculation step, and further includes other steps as necessary.
The region setting step in the present embodiment sets the region by dividing the space in the camera coordinate system based on the bed upper surface region, and when the target person is on the bed among the set regions, This is a step of setting a correction region for preventing erroneous detection of the subject's long sitting position.

ここで、本発明における危険報知装置の一例について図面を参照して説明する。
なお、各図面において、同一構成部分には同一符号を付し、重複した説明を省略する場合がある。また、下記構成部材の数、位置、形状等は本実施の形態に限定されず、本発明を実施する上で好ましい数、位置、形状等にすることができる。
Here, an example of the danger notification device according to the present invention will be described with reference to the drawings.
In addition, in each drawing, the same code | symbol is attached | subjected to the same component and the overlapping description may be abbreviate | omitted. In addition, the number, position, shape, and the like of the following constituent members are not limited to the present embodiment, and can be set to a preferable number, position, shape, and the like in practicing the present invention.

図1Aは、本発明の危険報知装置の一例を示す概略図であり、世界座標系をそれぞれ直交するX軸、Y軸、及びZ軸で、カメラ座標系をそれぞれ直交するX軸、Y軸、及びZ軸でそれぞれ表す。図1Bは、本発明の危険報知装置の一例を示すブロック図である。
図1A及び図1Bに示すように、危険報知装置100は、ベッド30の上方からベッド30及びベッド30の周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段10と、取得した前記距離画像から抽出したベッド30のベッド上面領域と、対象者がベッド30上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する領域設定手段11と、前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する判定手段12と、前記判定手段の判定結果を、前記対象者及び第三者の少なくともいずれかに報知する報知手段13と、を有する。
なお、領域設定手段11、判定手段12、報知手段13、及び制御手段14は、図示しないパーソナルコンピュータなどの情報処理装置15の記憶手段にプログラムとして記憶されて動作する。
FIG. 1A is a schematic diagram illustrating an example of a danger notification device according to the present invention. The X 0 axis, the Y 0 axis, and the Z 0 axis are orthogonal to the world coordinate system, and the X 1 axis is orthogonal to the camera coordinate system. , Y 1 axis and Z 1 axis. FIG. 1B is a block diagram showing an example of the danger notification device of the present invention.
As shown in FIG. 1A and FIG. 1B, the danger notification device 100 captures a distance image by photographing the bed 30 and the periphery of the bed 30 from above the bed 30 and using the distance value to the photographing object as a pixel value. The bed area includes the acquisition means 10, the bed upper surface area of the bed 30 extracted from the acquired distance image, and the correction area for preventing erroneous detection of the long sitting position of the target person when the target person is on the bed 30. And setting means for determining whether there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject. 12 and a notifying means 13 for notifying the determination result of the determining means to at least one of the target person and a third party.
Note that the area setting unit 11, the determination unit 12, the notification unit 13, and the control unit 14 are stored and operated as programs in a storage unit of an information processing apparatus 15 such as a personal computer (not shown).

危険報知装置100は、自由に移動ができるように、三脚20に距離画像取得手段10(Xtion PRO、320画素×240画素、ASUS社製)を取り付けている。
距離画像取得手段10は、ベッド領域全体が写る向きに設置され、カメラ座標系におけるZ軸(光軸)方向の距離値を得ることができ、前記距離値に基づいて図2に示すような距離画像を取得することができる。
In the danger notification device 100, the distance image acquisition means 10 (Xtion PRO, 320 pixels × 240 pixels, manufactured by ASUS) is attached to the tripod 20 so that it can move freely.
Distance image acquiring unit 10 is installed in a direction across the bed area objects appear, Z 1 axis (optical axis) direction of the distance value in the camera coordinate system can be obtained, as shown in FIG. 2 on the basis of the distance value A distance image can be acquired.

図2は、距離画像取得手段により取得される距離画像の一例を示す説明図であり、横軸は前記距離画像におけるU軸であり、縦軸は前記距離画像におけるU軸に直交するV軸である。
図2に示すように、前記距離画像は、距離画像取得手段10により得られた前記距離値が小さいほど輝度が小さく、前記距離値が大きいほど輝度が大きくなるように表されている。なお、前記距離画像の一部黒くなっている領域は、前記距離値を得ることができなかった前記欠損領域である。
なお、上記式(6)より、前記距離画像取得手段を設置した床面からの高さを求めると2,460mmであり、上記式(5)より、前記距離画像取得手段から前記ベッドの上面までの高さを求めると1,718mmであった。また、図3中のdを500mmに設定し、上記式(8)からIを求めると149.6であった。
FIG. 2 is an explanatory diagram illustrating an example of the distance image acquired by the distance image acquisition unit, where the horizontal axis is the U axis in the distance image, and the vertical axis is the V axis orthogonal to the U axis in the distance image. is there.
As shown in FIG. 2, the distance image is represented such that the smaller the distance value obtained by the distance image acquisition means 10, the smaller the luminance, and the larger the distance value, the larger the luminance. Note that the area in which the distance image is partially black is the missing area where the distance value could not be obtained.
The height from the floor on which the distance image acquisition means is installed is 2,460 mm from the above formula (6), and from the distance image acquisition means to the upper surface of the bed from the above formula (5). When the height of was found, it was 1,718 mm. Further, setting the d in FIG. 3 to 500 mm, it was 149.6 When seeking I T from the above equation (8).

図3は、世界座標系における領域設定の一例を示す説明図であり、X平面において設定される各領域を示している。
図3に示すように、距離画像取得手段10は、床面40に設置されているベッド30及びベッド30の周辺を撮影できるように、天井50近傍に設置されている。図3において、領域Iは前記ベッド領域、領域II及び領域IIIは前記ベッド上方領域、領域IVは前記ベッドサイド領域、領域Vは前記ベッドサイド下部領域を示している。また、領域IIはベッド上方領域、領域IIIはベッドサイド上方領域を示している。
FIG. 3 is an explanatory diagram showing an example of area setting in the world coordinate system, and shows each area set in the X 0 Z 0 plane.
As shown in FIG. 3, the distance image acquisition unit 10 is installed in the vicinity of the ceiling 50 so that the bed 30 installed on the floor surface 40 and the periphery of the bed 30 can be photographed. In FIG. 3, a region I indicates the bed region, a region II and a region III indicate the bed upper region, a region IV indicates the bedside region, and a region V indicates the bedside lower region. Further, the region II indicates the bed upper region, and the region III indicates the bedside upper region.

図4Aは、図2の距離画像から生成した勾配画像を示す説明図である。
図4Aに示すように、前記勾配画像は、各画素において求めた単位ベクトルNu,vのX軸、Y軸、及びZ軸の3つの方向の成分をRGBの色の各要素に置き換えることにより、単位ベクトルNu,vの向きに応じて色分けして生成される。
FIG. 4A is an explanatory diagram showing a gradient image generated from the distance image of FIG.
As shown in FIG. 4A, the gradient image includes components in three directions of the X 1 axis, the Y 1 axis, and the Z 1 axis of the unit vector Nu, v obtained in each pixel as elements of RGB colors. By replacing, the color is generated according to the direction of the unit vector Nu, v .

図4Bは、図4Aの勾配画像を色ムラ補正した画像を示す説明図である。
図4Aの勾配画像では色ムラが多いため、各画素の単位ベクトルNu,vをk−means法によりクラスタリングすることにより、図4Bに示すように、空間的な勾配が同様な領域、即ちほぼ平らな面ごとの領域に色ムラなく区割りされた前記勾配画像を得ることができる。なお、前記色ムラ低減補正がなされた前記勾配画像において、前記ベッドの上面及び前記床面は水平であり、空間的な勾配が同様であるため、同色となる。
FIG. 4B is an explanatory diagram illustrating an image obtained by correcting the color unevenness of the gradient image in FIG. 4A.
Since the gradient image in FIG. 4A has a large amount of color unevenness , by clustering the unit vectors Nu, v of each pixel by the k-means method, as shown in FIG. It is possible to obtain the gradient image divided into flat areas without color unevenness. In the gradient image subjected to the color unevenness reduction correction, the upper surface of the bed and the floor surface are horizontal, and the spatial gradient is the same, so the same color is obtained.

図4Cは、図4Bの色ムラ補正後の勾配画像からベッド上面領域及び床領域を抽出した画像を示す説明図である。
図4Bの色ムラ補正の勾配画像を、同領域の各画素に同じ識別番号を与えるラベリング処理して所定の画素数以上の領域を抽出すると、図4Cに示すように、前記ベッド上面領域及び前記床領域が抽出される。
FIG. 4C is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area and the floor area from the gradient image after the color unevenness correction in FIG. 4B.
When the gradient image of the color unevenness correction in FIG. 4B is subjected to a labeling process for giving the same identification number to each pixel in the same region and an area having a predetermined number of pixels or more is extracted, as shown in FIG. The floor area is extracted.

図4Dは、図2の距離画像から生成したエッジ画像を示す説明図である。
図4Dに示すように、図2の距離画像にCannyのエッジ検出アルゴリズムを用いることにより、前記距離画像のエッジ画像を求めることができる。
FIG. 4D is an explanatory diagram illustrating an edge image generated from the distance image of FIG.
As shown in FIG. 4D, the edge image of the distance image can be obtained by using Canny's edge detection algorithm for the distance image of FIG.

図4Eは、図4Cのベッド上面領域及び床領域を抽出した画像に、図4Dの前記エッジ画像を合成した合成画像を示す説明図である。
図4Eに示すように、前記ベッド上面領域及び前記床領域を抽出した画像に、前記エッジ画像を合成することにより、前記ベッド上面領域と前記床領域とをより確実に区割りすることができる。
FIG. 4E is an explanatory diagram illustrating a composite image obtained by combining the edge image of FIG. 4D with the image obtained by extracting the bed upper surface region and the floor region of FIG. 4C.
As shown in FIG. 4E, the bed upper surface region and the floor region can be more reliably divided by synthesizing the edge image with the image obtained by extracting the bed upper surface region and the floor region.

図4Fは、図4Eの合成画像からベッド上面領域を抽出した画像を示す説明図である。
図4Eの合成画像をラベリングし、最大画素数を有するラベルを、図4Fに示すように、前記ベッド上面領域として抽出する。
FIG. 4F is an explanatory diagram illustrating an image obtained by extracting the bed upper surface area from the composite image in FIG. 4E.
The composite image in FIG. 4E is labeled, and a label having the maximum number of pixels is extracted as the bed upper surface area as shown in FIG. 4F.

図5は、距離画像取得手段により取得される距離画像の他の一例を示す説明図である。
図5において、上記式(6)より、前記距離画像取得手段を設置した床面からの高さを求めると1,680mmであり、上記式(5)より、前記距離画像取得手段から前記ベッドの上面までの高さを求めると1,108mmであった。また、図3中のdを500mmに設定し、上記式(8)からIを求めると149.6であった。
FIG. 5 is an explanatory diagram illustrating another example of the distance image acquired by the distance image acquisition unit.
In FIG. 5, the height from the floor on which the distance image acquisition unit is installed is calculated as 1,680 mm from the above formula (6), and from the distance image acquisition unit, the height of the bed is calculated from the above formula (5). The height up to the upper surface was 1,108 mm. Further, setting the d in FIG. 3 to 500 mm, it was 149.6 When seeking I T from the above equation (8).

図6A〜図6Fは、図2の前記距離画像及び図2の前記距離画像から生成される図4A〜図4Fの各画像と同様に、図5の前記距離画像から前記ベッド上面領域を抽出するまでの過程を表した説明図であり、それぞれ、勾配画像、色ムラ補正した画像、ベッド上面領域及び床領域を抽出した画像、エッジ画像、合成画像、前記ベッド上面領域を示している。
図6Cのように、ベッド上面領域及び床領域を抽出した画像ではベッド上面領域と床領域が繋がる可能性もある。しかし、図6Dのエッジ画像を用いることにより、図6Eではベッド上面領域と床領域が分離され、図6Fのようにベッド上面領域が精度よく抽出される。
6A to 6F extract the bed upper surface region from the distance image of FIG. 5 in the same manner as the images of FIGS. 4A to 4F generated from the distance image of FIG. 2 and the distance image of FIG. FIG. 6 is an explanatory diagram showing the processes up to and including a gradient image, a color unevenness corrected image, an image obtained by extracting a bed upper surface area and a floor area, an edge image, a composite image, and the bed upper surface area.
As shown in FIG. 6C, in the image obtained by extracting the bed upper surface area and the floor area, the bed upper surface area and the floor area may be connected. However, by using the edge image of FIG. 6D, the bed upper surface area and the floor area are separated in FIG. 6E, and the bed upper surface area is accurately extracted as shown in FIG. 6F.

図7は、世界座標系におけるカメラ位置の算出についての説明図である。
カメラ位置の算出することにより、前記ベッド領域外を自動的に設定するため、距離画像取得手段10からベッド30の上面までの世界座標系における高さlと、距離画像取得手段10から床面40までの世界座標系における高さmとを算出する。図7に示すように、距離画像取得手段10からベッド30の上面の任意の点までのベクトルをPとすると、距離画像取得手段10からベッド30の上面の任意の点までの世界座標系における高さl、即ちベクトルPのZ軸成分は上記式(3)により算出することができる。
FIG. 7 is an explanatory diagram for calculating the camera position in the world coordinate system.
In order to automatically set the outside of the bed region by calculating the camera position, the height l in the world coordinate system from the distance image acquisition means 10 to the upper surface of the bed 30, and the distance image acquisition means 10 to the floor surface 40 The height m in the world coordinate system is calculated. As shown in FIG. 7, the vector from the distance image acquiring unit 10 to any point of the upper surface of the bed 30 when the P i, distance world coordinate system from the image acquisition unit 10 to any point of the upper surface of the bed 30 The height l i , that is, the Z 0 axis component of the vector P i can be calculated by the above equation (3).

また、距離画像取得手段10から床面40の任意の点までのベクトルをQとすると、距離画像取得手段10から床面40の任意の点までの世界座標系における高さm、即ちベクトルQのZ軸成分は上記式(4)により算出することができる。
上記式(3)を用いて、上記式(5)により高さlの平均値lを算出する。また、上記式(4)を用いて、上記式(6)により高さmの最頻値mを算出する。
Furthermore, the vector from the distance image acquiring unit 10 to an arbitrary point on the floor 40 when the Q i, the height m i in the world coordinate system from the distance image acquiring unit 10 to any point of the floor 40, i.e. the vector The Z 0 axis component of Q i can be calculated by the above equation (4).
Using the above equation (3), the average value l of the height l i is calculated by the above equation (5). Further, by using the above equation (4), calculates the mode m height m i by the equation (6).

図8は、カメラ座標系の高さに応じた輝度に変換した距離画像の一例を示す説明図である。
例えば、図2に示すような前記距離値に応じた輝度とした前記距離画像を、図8に示すように、カメラ座標系の高さに応じた輝度に変換したZ距離画像にすることができる。
FIG. 8 is an explanatory diagram showing an example of a distance image converted into luminance according to the height of the camera coordinate system.
For example, the distance image with luminance corresponding to the distance values as shown in FIG. 2, as shown in FIG. 8, to be the Z 0 distance image converted to a luminance corresponding to the height of the camera coordinate system it can.

図9は、長座位状態の対象者を含む距離画像の一例を示す説明図である。
図9に示すように、長座位状態の前記対象者を含む距離画像では、前記対象者が転落の危険性が少ない状態であっても、前記対象者の身体の一部(囲んだ箇所)が前記ベッド上面領域外であるため危険性が高いと判定してしまう。このため、本発明の危険報知装置では、図10で示すようなカメラ座標系における領域設定の都合上、前記ベッド領域として撮影されるが、実際にはベッド領域外となる領域が存在する。
FIG. 9 is an explanatory diagram illustrating an example of a distance image including a subject in a long sitting position.
As shown in FIG. 9, in the distance image including the subject in the long sitting position, even if the subject is in a state where the risk of falling is small, a part (enclosed portion) of the subject's body is present. Since it is outside the bed upper surface area, it is determined that the danger is high. For this reason, in the danger notification device of the present invention, for the convenience of the area setting in the camera coordinate system as shown in FIG. 10, the image is taken as the bed area, but there is actually an area outside the bed area.

図10は、カメラ座標系における領域設定の一例を示す説明図である。
図10に示すように、前記修正領域として、領域Iに該当する領域を設ける必要がある。また、領域IVは、前記距離画像には前記ベッド領域として撮影されるが、実際にはベッド領域外である。このため、図11A及び図11Bで示すような前記修正領域を設けるようにした。
FIG. 10 is an explanatory diagram showing an example of region setting in the camera coordinate system.
As shown in FIG. 10, as the correction area, it is necessary to provide a region corresponding to the region I B. In addition, the area IV A is photographed as the bed area in the distance image, but is actually outside the bed area. Therefore, the correction area as shown in FIGS. 11A and 11B is provided.

図11Aは修正領域を含むベッド領域の画像の一例を示す説明図、図11Bは修正領域を含むベッド領域の画像の他の一例を示す説明図であり、それぞれ図4Fと図4Mで示した前記ベッド上面領域に前記修正領域を加えた前記ベッド領域の距離画像を示す。
図11A及び図11Bに示すように前記ベッド領域を設定すると、図9に示したような前記対象者が長座位状態になっても前記ベッド領域外と判定されず、前記対象者が前記ベッドから転落する危険性をより確実に判定し、報知することができる。
11A is an explanatory diagram illustrating an example of an image of a bed area including a correction area, and FIG. 11B is an explanatory diagram illustrating another example of an image of a bed area including a correction area, which is illustrated in FIGS. 4F and 4M, respectively. The distance image of the said bed area | region which added the said correction area | region to the bed upper surface area | region is shown.
When the bed area is set as shown in FIG. 11A and FIG. 11B, even if the subject person as shown in FIG. The risk of falling can be determined and notified more reliably.

次に、本発明の危険報知装置を校正して動作させるフローを、図12Aに示すフローチャートの図中Sで表すステップにしたがって図1A及び図1Bを参照しながら説明する。   Next, the flow of calibrating and operating the danger notification device of the present invention will be described with reference to FIGS. 1A and 1B according to the step represented by S in the flowchart of FIG. 12A.

S101では、前記対象者を監視する前記第三者は、前記距離画像においてベッド30の上面が最も広く抽出され、ベッド30の上方からベッド30及びベッド30の周辺を撮影できるように、ベッド30周辺に配置された三脚20の上に距離画像取得手段10を設置する。   In S <b> 101, the third party who monitors the subject can extract the bed 30 and the periphery of the bed 30 from above the bed 30 so that the upper surface of the bed 30 is extracted most widely in the distance image. The distance image acquisition means 10 is installed on the tripod 20 disposed in the position.

S102では、前記第三者により距離画像取得手段10が設置された危険報知装置100は、本発明の危険報知装置の校正方法により校正される。校正についての詳細は図12Bを参照しながら後述する。   In S102, the danger notification device 100 in which the distance image acquisition means 10 is installed by the third party is calibrated by the danger notification device calibration method of the present invention. Details of the calibration will be described later with reference to FIG. 12B.

S103では、危険報知装置100は、前記対象者がベッド30から転落することを防止するために動作し、本処理を終了する。   In S <b> 103, the danger notification device 100 operates to prevent the subject person from falling from the bed 30, and the process ends.

次に、本発明の危険報知装置の校正方法のフローを、図12Bに示すフローチャートの図中Sで表すステップにしたがって図1A及び図1Bを参照しながら説明する。   Next, the flow of the calibration method of the danger notification device of the present invention will be described with reference to FIGS. 1A and 1B according to the step represented by S in the flowchart of FIG. 12B.

S201では、領域設定手段11は、距離画像取得手段101により取得した距離画像を距離画像座標系からカメラ座標系に変換する。   In S201, the region setting unit 11 converts the distance image acquired by the distance image acquisition unit 101 from the distance image coordinate system to the camera coordinate system.

S202では、領域設定手段11は、前記距離画像に基づき、前記ベッド上面領域を抽出する。   In S202, the area setting unit 11 extracts the bed upper surface area based on the distance image.

S203では、領域設定手段11は、世界座標系におけるカメラ姿勢を算出し、処理をS204に移行する。   In S203, the area setting unit 11 calculates the camera posture in the world coordinate system, and the process proceeds to S204.

S204では、領域設定手段11は、世界座標系におけるカメラ位置を算出し、処理をS205に移行する。   In S204, the area setting unit 11 calculates the camera position in the world coordinate system, and the process proceeds to S205.

S205では、領域設定手段11は、各領域の設定を行い、本処理を終了する。   In S205, the area setting unit 11 sets each area, and ends this process.

次に、本発明の危険報知装置を動作させるフローを、図12Cに示すフローチャートの図中Sで表すステップにしたがって図1A及び図1Bを参照しながら説明する。   Next, a flow for operating the danger notification device of the present invention will be described with reference to FIG. 1A and FIG. 1B according to the step represented by S in the flowchart of FIG. 12C.

S301では、判定手段12は、前記ベッドサイド領域における前記対象者の画素数が予め設定したしきい値より小さいと判定すると、前記ベッドサイド領域における前記対象者の画素数の監視を継続する。また、判定手段12は、前記ベッドサイド領域における前記対象者の画素数がしきい値以上であると判定すると、処理をS302に移行する。前記ベッドサイド領域における前記対象者の画素数がしきい値以上であると、前記対象者の転落、前記対象者の離床、及び前記対象者以外の前記第三者(訪問者)の侵入のいずれかである可能性がある。   In S301, when the determination unit 12 determines that the number of pixels of the subject in the bedside region is smaller than a preset threshold value, the determination unit 12 continues to monitor the number of pixels of the subject in the bedside region. If the determination unit 12 determines that the number of pixels of the subject in the bedside region is equal to or greater than the threshold value, the process proceeds to S302. If the number of pixels of the target person in the bedside region is equal to or greater than a threshold value, any of the target person's fall, the target person's getting out of bed, and intrusion of the third party (visitor) other than the target person It may be.

S302では、前記ベッドサイド領域における前記対象者の画素数がしきい値以上であると判定した判定手段12は、前記上方領域における前記対象者の画素数がしきい値より大きいと判定すると、処理をS301に戻す。また、判定手段12は、前記上方領域における前記対象者の画素数がしきい値以下であると判定すると、処理をS303に移行する。   In S302, the determination unit 12 that has determined that the number of pixels of the subject in the bedside area is greater than or equal to a threshold value, determines that the number of pixels of the subject in the upper area is greater than the threshold value, To S301. If the determination unit 12 determines that the number of pixels of the subject in the upper region is equal to or less than the threshold value, the process proceeds to S303.

S303では、前記上方領域における前記対象者の画素数がしきい値以下であると判定した判定手段12は、前記対象者が前記ベッドから転落する危険性が高いと判定して、報知手段13を作動させて第三者に報知し、本処理を終了する。   In S303, the determination unit 12 that determines that the number of pixels of the subject in the upper region is equal to or less than the threshold value determines that the risk of the subject falling from the bed is high, and the notification unit 13 Operate it and notify a third party to finish this process.

以下、本発明の実施例を説明するが、本発明は、これらの実施例に何ら限定されるものではない。   Examples of the present invention will be described below, but the present invention is not limited to these examples.

(実施例1)
<危険報知装置の校正>
<<距離画像取得手段の設置>>
図1Aのように、距離画像取得手段10としての距離画像センサ(Xtion PRO、ASUS社製)を取り付けた三脚をベッドの長軸上に設置し、距離画像センサを床面から約240cmの高さから長方形のベッドの上面が最も広く抽出されるように向きを調整した。その後、領域設定手段、判定手段、及び報知手段を動作させるプログラムが記憶されている記憶手段を有するパーソナルコンピュータを起動させ、距離画像取得手段10により図2のような320画素×240画素の距離画像を取得した。
Example 1
<Calibration of danger alarm device>
<< Installation of distance image acquisition means >>
As shown in FIG. 1A, a tripod with a distance image sensor (Xtion PRO, manufactured by ASUS) as a distance image acquisition means 10 is installed on the long axis of the bed, and the distance image sensor is about 240 cm above the floor surface. The orientation was adjusted so that the upper surface of the rectangular bed was extracted most widely. Thereafter, a personal computer having a storage unit in which a program for operating the region setting unit, the determination unit, and the notification unit is stored is activated, and the distance image acquisition unit 10 performs a distance image of 320 pixels × 240 pixels as illustrated in FIG. Acquired.

<<各領域の設定>>
[ベッド上面領域の抽出処理]
取得した前記距離画像における距離画像座標(u,v)を、下記式(1)によりカメラ座標Pu,vに変換した。なお、下記式(1)において、前記距離画像における1輝度あたりのZ軸方向の距離値kを12.5mm/輝度、光軸中心座標(C,C)を(160,120)、前記焦点距離と前記画素サイズとの比aを0.003452とした。また、Iu,vは前記距離画像取得手段の前記撮影素子において距離画像座標(u,v)に対応する各画素の輝度を表す。
<< Setting of each area >>
[Bed upper surface area extraction processing]
The distance image coordinates (u, v) in the acquired distance image were converted into camera coordinates Pu, v by the following equation (1). In the following formula (1), the distance value k in the Z 1 axis direction per luminance in the distance image is 12.5 mm / luminance, and the optical axis center coordinates (C u , C v ) are (160, 120), The ratio a between the focal length and the pixel size was 0.003452. I u, v represents the luminance of each pixel corresponding to the distance image coordinates (u, v) in the imaging element of the distance image acquisition means.

−勾配画像の生成−
距離画像座標(u,v)を中心とする小区画(11画素×11画素)から前記欠損領域を除いてカメラ座標Pu,vの集合を作成し、作成した集合の第三主成分の単位ベクトルNu,vを求めた。ただし、Nu,vは点対象に2つ存在するため、Nu,vは前記カメラ座標Pu,vに近い方(Pu,vとNu,vの内積が正となる方)とした。
求めた単位ベクトルNu,vのカメラ座標系におけるX軸方向、Y軸方向、及びZ軸方向の3つの成分を下記式(2)のようにRGBの各要素に置き換えることにより、図4Aに示すような単位ベクトルNu,vの向きに応じて色分けした勾配画像を生成した。
-Generation of gradient images-
A set of camera coordinates P u, v is created by removing the missing area from a small section (11 pixels × 11 pixels) centered on the distance image coordinates (u, v), and a unit of the third principal component of the created set The vector N u, v was determined. However, since N u, v exists in the point object, N u, v is closer to the camera coordinates P u, v (the one in which the inner product of P u, v and N u, v is positive). did.
By replacing the three components in the X 1 axis direction, the Y 1 axis direction, and the Z 1 axis direction in the camera coordinate system of the obtained unit vector N u, v with each element of RGB as shown in the following formula (2), A gradient image color-coded according to the direction of the unit vector Nu, v as shown in FIG. 4A was generated.

−勾配画像の色ムラ低減補正−
得られた勾配画像に色ムラが発生したため、求めた各画素の単位ベクトルNu,vをk−means法により分割数T3を0.37としてクラスタリングして前記勾配画像の色ムラ低減補正を行い、図4Bに示すような画像を得た。
-Color unevenness reduction correction for gradient images-
Since color unevenness occurred in the obtained gradient image, the obtained unit vector Nu, v of each pixel was clustered by the k-means method with a division number T3 of 0.37 to correct the color unevenness of the gradient image. An image as shown in FIG. 4B was obtained.

−ベッド上面領域及び床領域の抽出−
前記k−means法で取得した各クラスの中で、最大面積のクラスを持つ画素を抽出し、図4Cに示すようなベッド上面領域及び床領域を抽出した画像を得た。
-Extraction of bed upper surface area and floor area-
Among the classes acquired by the k-means method, pixels having the maximum area class were extracted, and an image obtained by extracting the bed upper surface area and the floor area as shown in FIG. 4C was obtained.

−エッジの抽出−
前記ベッド上面領域及び床領域を抽出した画像において、前記ベッド上面領域と前記床領域の分離を確実なものとするため、図2の距離画像に対してcannyのエッジ検出アルゴリズムを適用し、図4Dに示すようなエッジが黒色、エッジ以外が白色としたエッジ画像を得た。
-Edge extraction-
In order to ensure separation of the bed upper surface area and the floor area in the image obtained by extracting the bed upper surface area and the floor area, a canny edge detection algorithm is applied to the distance image of FIG. An edge image in which the edge as shown in Fig. 1 was black and the other edges were white was obtained.

−合成画像の生成−
前記ベッド上面領域及び床領域距離を抽出した画像と前記エッジ画像との対応する各画素の輝度値を乗算させて合成させ、図4Eに示すような合成画像を生成した。
-Generation of composite image-
A composite image as shown in FIG. 4E is generated by multiplying the image obtained by extracting the bed upper surface area and floor area distance and the brightness value of each corresponding pixel of the edge image and multiplying them.

−ベッド上面領域の抽出−
次に、前記合成画像に、同領域の各画素に同じ識別番号を与えるラベリング処理を行い、最大画素数を有する領域を前記ベッド上面領域として抽出し、図4Fに示すような画像を得た。
-Extraction of bed upper surface area-
Next, a labeling process for giving the same identification number to each pixel in the same area was performed on the composite image, and an area having the maximum number of pixels was extracted as the bed upper surface area, and an image as shown in FIG. 4F was obtained.

[上方領域の設定処理]
−カメラ姿勢の算出−
前記ベッド上面領域上の画素(u,v)に対する距離画像の距離値Iu,vを再度取得し、式(1)でカメラ座標Pu,vに変換し、小区画(11画素×11画素)ごとに再度主成分分析を行い、主成分分析の第3主成分の単位ベクトルNu,vを求めた。ただし、ここではNu,vとPu,vの内積が正となる方のNu,vを選択した。次に,Nu,vからの距離の二乗和が最小となる単位ベクトルNu,vを、カメラの傾きNとして計算した。
[Upper area setting process]
-Calculation of camera posture-
The distance value I u, v of the distance image with respect to the pixel (u, v) on the bed upper surface area is acquired again , and converted into the camera coordinates P u, v by equation (1), and a small section (11 pixels × 11 pixels) ), The principal component analysis was performed again, and the unit vector Nu, v of the third principal component of the principal component analysis was obtained. However, you select the N u, v and P u, v inner product of those who made a positive N u, v here. Then, N u, the unit square sum of distances from v is the smallest vector N u, a v, was calculated as a camera tilt N.

−カメラ位置の算出−
図7に示すように、距離画像取得手段10からベッド30の上面の任意の点までのベクトルをPとすると、距離画像取得手段10からベッド30の上面の任意の点までの世界座標系における高さlを下記式(3)により算出し、高さlの平均値lを下記式(5)により算出した結果、l=1,718mmであった。
また、前記距離画像取得手段から床の面の任意の点までのベクトルをQとすると、距離画像取得手段10から床面40までの世界座標系における高さmを下記式(4)により算出し、高さmの最頻値mを下記式(6)により算出した結果、m=2,460mmであった。
-Calculation of camera position-
As shown in FIG. 7, the vector from the distance image acquiring unit 10 to any point of the upper surface of the bed 30 when the P i, distance world coordinate system from the image acquisition unit 10 to any point of the upper surface of the bed 30 The height l i was calculated by the following formula (3), and the average value l of the height l i was calculated by the following formula (5). As a result, l = 1,718 mm.
Also, when the vector to an arbitrary point of the floor surface and Q i from the distance image acquiring unit, the height m i in the world coordinate system from the distance image acquiring unit 10 to the floor 40 by the following equation (4) calculated, to calculate the mode m height m i by the following equation (6) results were m = 2,460mm.

ただし、上記式(5)中、Average( )は平均値を表す。 In the above formula (5), Average () represents an average value.

ただし、上記式(6)中、Mode( )は最頻値を表す。 However, Mode () in the above formula (6) represents the mode value.

−上方領域の設定−
前記距離画像は、上記式(1)によりカメラ座標Pu,vを算出した後、下記式(7)により、前記ベッドの上面と前記床面との間の輝度差gを60、前記床面の輝度gを250としてI1u,vを求め、前記距離画像を世界座標系のZ軸成分に応じた輝度としたZ距離画像を得た。
-Setting the upper area-
In the distance image, after calculating the camera coordinates P u, v according to the above equation (1) , a luminance difference g 1 between the upper surface of the bed and the floor surface is calculated as 60 according to the following equation (7). the brightness g 2 surface as 250 seeking I1 u, v, to give the Z 0 range image and brightness corresponding to the distance image to the Z 0 axis component in the world coordinate system.

[修正領域の設定] [Correction area settings]

(i)前記修正領域における距離画像座標(u,v)のRGB成分のうちB成分の輝度値をIbu,vで表し、R成分の輝度値をIru,vで表す。距離画像座標(u,v)が前記ベッド上面領域内の場合、Iru,v及びIbu,vを、それぞれ255及びg−gとして初期化する。それ以外の場合、Iru,v及びIbu,vを、いずれも0として初期化する。 (I) Among the RGB components of the distance image coordinates (u, v) in the correction area, the luminance value of the B component is represented by Ib u, v , and the luminance value of the R component is represented by Ir u, v . If the distance image coordinates (u, v) of the bed upper surface area, Ir u, v and Ib u, a v, is initialized as 255 and g 2 -g 1 respectively. Otherwise, Ir u, v and Ib u, v are initialized as 0.

(ii)前記ベッド領域内から座標(u,v)の1画素を選択し、前記距離画像の座標(u,v)における輝度値Iu,vを取得し、上記式(1)でカメラ座標値Pu,vを計算した。 (Ii) Select one pixel of coordinates (u, v) from within the bed area, obtain the luminance value I u, v at the coordinates (u, v) of the distance image, and use the camera coordinates in the above equation (1) The values P u, v were calculated.

(iii)前記ベッドの上面を仮想的にZ軸方向にb(初めはb=1とする。)移動したときの距離画像座標(u2,v2)を求めた。移動後のカメラ座標値P2u,v=(P2,P2,P2)は下記式(10)及び下記式(11)により算出した。なお、下記式(11)は、上記式(1)のu及びvについて解くことにより求めた。 (Iii) b the upper surface of the bed in virtually Z 0 axis direction was determined (initially and b = 1.) Range image coordinates when you move (u2, v2). The camera coordinate values P2 u, v = (P2 x , P2 y , P2 z ) after movement were calculated by the following formula (10) and the following formula (11). The following equation (11) was obtained by solving for u and v in the above equation (1).

(iv)また、Z軸方向に仮想的にb移動したときの距離画像座標(u2,v2)におけるZ距離画像値をI2u,vとし、I2u,vを下記式(12)から導出した。 (Iv) Further, the Z distance image value at the distance image coordinates (u2, v2) when moving virtually in the Z0 axis direction is I2u , v, and I2u , v is derived from the following equation (12). did.

(v)下記式(13)と下記式(14)により前記修正領域の画像における画素値を更新した。 (V) The pixel value in the image of the correction area was updated by the following formula (13) and the following formula (14).

(vi)bをカウントし,人の身長の高さ程度となるb=1,800mm程度になるまで(iii)〜(v)を繰り返した。 (Vi) b was counted and (iii) to (v) were repeated until b = 1,800 mm, which is about the height of a person.

(vii)前記ベッド上面領域内の別の1画素を選択し,前記ベッド上面領域内の全画素について(ii)〜(vi)を行った。 (Vii) Another pixel in the bed upper surface area was selected, and (ii) to (vi) were performed on all the pixels in the bed upper surface area.

[ベッドサイド領域の設定処理]
次に、下記式(14)により、距離しきい値定数eを300mmとして、前記対象者の身体の一部が前記ベッドサイド領域に存在するか前記ベッドサイド下部領域に存在するかを判定するためのZ軸方向の輝度しきい値IT2を求めると、225.7であった。以上のように、危険報知装置の校正を行った。
[Bedside area setting process]
Next, in order to determine whether a part of the subject's body exists in the bedside region or in the bedside lower region, with the distance threshold constant e being 300 mm, according to the following equation (14): When determination of the Z 0 axis direction brightness threshold I T2, was 225.7. As described above, the danger alarm device was calibrated.

<危険報知装置の評価>
上記のように校正を行った危険報知装置100を用いて、前記ベッドサイド領域における前記対象者の画素数のしきい値T1を2,000画素、前記上方領域における前記対象者の画素数のしきい値T2を1,000画素とし、しきい値T1以上であり、かつしきい値T2以下である場合、前記対象者が前記ベッドから転落する危険性が高いと判定して警告音を発するようにした。
前記危険報知装置が監視する動作を、図13に示すような前記対象者が臥床状態で拾得動作をした場合とし、前記対象者に転落する危険性が高いことを報知する警告音が発せられるか否か評価した。評価した結果、前記対象者に警告音が発せられ、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができた。
<Evaluation of danger alarm device>
Using the danger notification device 100 that has been calibrated as described above, the threshold T1 of the number of pixels of the subject in the bedside region is set to 2,000 pixels, and the number of pixels of the subject in the upper region is set. When the threshold value T2 is 1,000 pixels, the threshold value is equal to or greater than the threshold value T1, and the threshold value is equal to or less than the threshold value T2, it is determined that the subject has a high risk of falling from the bed, and a warning sound is generated. I made it.
The operation monitored by the danger notification device is a case where the target person performs a picking-up operation in the state of bed as shown in FIG. 13, and is a warning sound that notifies the target person that the risk of falling is high? I evaluated it. As a result of the evaluation, a warning sound was emitted to the subject, and the risk of the subject falling from the bed could be more reliably determined and notified.

(実施例2)
実施例1において、前記危険報知装置が監視する動作を、図13に示すような前記対象者が臥床状態で拾得動作をした場合から、図14に示すように前記対象者が臥床状態でのベッド柵の操作をした場合に変えた以外は、実施例1と同様に評価した。評価した結果、前記ベッド柵の操作後に前記対象者に警告音が発せられ、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができた。
(Example 2)
In Example 1, the operation monitored by the danger notification device is performed when the subject performs a pick-up operation in the bed state as shown in FIG. 13, and then the bed in the bed state as shown in FIG. Evaluation was performed in the same manner as in Example 1 except that the operation was changed when the fence was operated. As a result of the evaluation, a warning sound was emitted to the subject after the operation of the bed fence, and the risk of the subject falling from the bed could be more reliably determined and notified.

(実施例3)
実施例1において、図13に示すような前記対象者が臥床状態で拾得動作をした場合から、図15に示すような前記対象者が離床動作をした場合に変えた以外は、実施例1と同様に評価した。評価した結果、前記対象者に警告音が発せられることはなく、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができた。
(Example 3)
Example 1 is different from Example 1 except that the target person as shown in FIG. 13 performs the picking-up operation in the bedded state to the case where the target person performs the leaving action as shown in FIG. 15. Evaluation was performed in the same manner. As a result of the evaluation, no warning sound was emitted to the subject, and the risk of the subject falling from the bed could be more reliably determined and notified.

(実施例4)
実施例1において、図13に示すような前記対象者が臥床状態で拾得動作をした場合から、図16に示すような外部からの第三者の侵入に変えた以外は、実施例1と同様に評価した。評価した結果、前記対象者に警告音が発せられることはなく、前記対象者がベッドから転落する危険性をより確実に判定し、報知することができた。
Example 4
Example 1 is the same as Example 1 except that the target person as shown in FIG. 13 picked up in the bedside state and changed to the intrusion of a third party from the outside as shown in FIG. Evaluated. As a result of the evaluation, no warning sound was emitted to the subject, and the risk of the subject falling from the bed could be more reliably determined and notified.

(実施例5)
<危険報知装置の校正方法の評価>
図2に示すような距離画像を取得できる位置を、図17Aに示すような距離画像を取得できる位置に距離画像センサを設置した後、本発明の危険報知装置の校正方法により校正を行った結果を図17A及び図17Bに示した。図17A及び図17Bに示すように、ベッド上面とベッド柵との境界で領域が区割りされ、精度よくベッド上面領域を抽出できた。
(Example 5)
<Evaluation of calibration method for danger alarm device>
The result of having calibrated the position where the distance image can be obtained as shown in FIG. 2 by the calibration method of the danger notification device of the present invention after the distance image sensor is installed at the position where the distance image can be obtained as shown in FIG. 17A Is shown in FIGS. 17A and 17B. As shown in FIGS. 17A and 17B, the area was divided at the boundary between the bed upper surface and the bed rail, and the bed upper surface area could be extracted with high accuracy.

(比較例1)
実施例5において、本発明の危険報知装置の校正方法から、従来のwatershed法に変え、○印の箇所を基準点として指定し、隣接する画素の輝度値が所定の輝度値以上変化する箇所を境界と判定して領域を区割りしてベッド上面領域を抽出する以外は、実施例5と同様に評価し、結果を図18A及び図18Bに示した。図18A及び図18Bに示すように、ベッド上面とベッド柵との境界で区割りできず、ベッド上面領域を精度よく抽出できなかった。
(Comparative Example 1)
In Example 5, the method for calibrating the danger notification device according to the present invention is changed from the conventional watershed method, a point marked with ○ is designated as a reference point, and a point where the luminance value of an adjacent pixel changes by a predetermined luminance value or more is designated. Evaluation was performed in the same manner as in Example 5 except that the boundary was determined and the area was divided and the bed upper surface area was extracted, and the results are shown in FIGS. 18A and 18B. As shown in FIG. 18A and FIG. 18B, it was not possible to divide at the boundary between the bed upper surface and the bed rail, and the bed upper surface area could not be extracted accurately.

(実施例6)
実施例5において、図17Aに示すような距離画像を取得できる位置を、図19Aに示すような距離画像を取得できる位置に距離画像センサの設置位置を変えた以外は、実施例5と同様に評価し、結果を図19A及び図19Bに示した。図19A及び図19Bに示すように、ベッド上面とベッド柵との境界で区割りされ、精度よくベッド上面領域を抽出できた。
(Example 6)
In the fifth embodiment, the position where the distance image can be acquired as shown in FIG. 17A is changed to the position where the distance image can be acquired as shown in FIG. 19A. The results are shown in FIGS. 19A and 19B. As shown in FIGS. 19A and 19B, the upper surface area of the bed could be extracted with high accuracy by dividing the boundary between the upper surface of the bed and the bed rail.

(比較例2)
実施例6において、本発明の危険報知装置の校正方法から、従来のwatershed法に変えた以外は、実施例6と同様に評価し、結果を図20A及び図20Bに示した。図20A及び図20Bに示すように、ベッド上面とベッド柵との境界で区割りできず、ベッド上面領域を精度よく抽出できなかった。
(Comparative Example 2)
In Example 6, the evaluation was performed in the same manner as in Example 6 except that the method for calibrating the danger notification device of the present invention was changed to the conventional watershed method, and the results are shown in FIGS. 20A and 20B. As shown in FIG. 20A and FIG. 20B, it was not possible to divide at the boundary between the bed upper surface and the bed rail, and the bed upper surface area could not be extracted accurately.

(実施例7)
実施例5において、図17Aに示すような距離画像を取得できる位置を、図21Aに示すような距離画像を取得できる位置に距離画像センサの設置位置を変えた以外は、実施例5と同様に評価し、結果を図21A及び図21Bに示した。図21A及び図21Bに示すように、ベッド上面とベッド柵との境界で区割りされ、精度よくベッド上面領域を抽出できた。
(Example 7)
In the fifth embodiment, the position where the distance image can be acquired as shown in FIG. 17A is changed to the position where the distance image can be acquired as shown in FIG. 21A. The results are shown in FIG. 21A and FIG. 21B. As shown in FIG. 21A and FIG. 21B, the upper surface area of the bed was extracted with high accuracy by dividing the boundary between the upper surface of the bed and the bed rail.

(比較例3)
実施例7において、本発明の危険報知装置の校正方法から、従来のwatershed法に変えた以外は、実施例7と同様に評価し、結果を図22A及び図22Bに示した。図22A及び図22Bに示すように、ベッド上面とベッド柵との境界で区割りできず、ベッド上面領域を精度よく抽出できなかった。
(Comparative Example 3)
In Example 7, evaluation was made in the same manner as in Example 7 except that the method for calibrating the danger notification device of the present invention was changed to the conventional watershed method, and the results are shown in FIGS. 22A and 22B. As shown in FIG. 22A and FIG. 22B, it was not possible to divide at the boundary between the bed upper surface and the bed rail, and the bed upper surface area could not be extracted with high accuracy.

10 距離画像取得手段
11 領域設定手段
12 判定手段
13 報知手段
14 制御手段
15 情報処理装置
20 三脚
30 ベッド
40 床面
50 天井
100 危険報知装置
DESCRIPTION OF SYMBOLS 10 Distance image acquisition means 11 Area | region setting means 12 Determination means 13 Notification means 14 Control means 15 Information processing apparatus 20 Tripod 30 Bed 40 Floor 50 Ceiling 100 Danger notification apparatus

Claims (14)

ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、
取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する領域設定手段と、
前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する判定手段と、
前記判定手段の判定結果を、前記対象者及び第三者の少なくともいずれかに報知する報知手段と、
を有することを特徴とする危険報知装置。
Distance image acquisition means for capturing the bed and the periphery of the bed from above the bed, and acquiring a distance image using the distance value to the object to be imaged as a pixel value;
An area setting means for setting, as a bed area, a bed upper surface area extracted from the acquired distance image, and a correction area for preventing erroneous detection of the long sitting state of the object person when the object person is on the bed; ,
Determining means for determining whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject;
Informing means for informing the determination result of the determining means to at least one of the target person and a third party;
A danger notification device characterized by comprising:
前記領域設定手段が、前記ベッド領域外において、
前記対象者の前記ベッドからのはみ出しを検知するためのベッドサイド領域と、
前記ベッド領域及び前記ベッドサイド領域の上方領域と、
を更に設定し、
前記判定手段が、前記ベッドサイド領域における前記対象者の画素数、及び前記上方領域における前記対象者の画素数の少なくともいずれかに基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する請求項1に記載の危険報知装置。
The area setting means is outside the bed area,
A bedside area for detecting protrusion of the subject from the bed;
An upper region of the bed region and the bedside region;
Further set
The determination means determines whether or not there is a risk that the subject falls from the bed based on at least one of the number of pixels of the subject in the bedside region and the number of pixels of the subject in the upper region. The danger notification device according to claim 1.
前記判定手段が、前記ベッドサイド領域における前記対象者の画素数が所定の画素数以上である場合、前記上方領域における前記対象者の画素数が所定の画素数以下であるとき、前記対象者が前記ベッドから転落する危険性があると判定する請求項2に記載の危険報知装置。   In the case where the number of pixels of the subject in the bedside region is equal to or greater than a predetermined number of pixels, the subject is determined when the number of pixels of the subject in the upper region is equal to or less than a predetermined number of pixels. The danger notification device according to claim 2, wherein it is determined that there is a risk of falling from the bed. 前記領域設定手段が、前記上方領域における前記ベッド上面領域の上方の領域を前記修正領域に更に設定し、
前記判定手段が、前記対象者の離床状態及び前記第三者を誤検知しないように判定する請求項2から3のいずれかに記載の危険報知装置。
The region setting means further sets the region above the bed upper surface region in the upper region as the correction region;
The danger notification device according to any one of claims 2 to 3, wherein the determination unit determines not to erroneously detect the bed leaving state of the subject and the third party.
ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得工程と、
取得した前記距離画像から抽出したベッド上面領域と、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域とをベッド領域として設定する領域設定工程と、
前記対象者を含む前記距離画像の前記ベッド領域外における前記対象者の画素数に基づき、前記対象者が前記ベッドから転落する危険性の有無を判定する判定工程と、
前記判定工程による判定結果を、前記対象者及び第三者の少なくともいずれかに報知する報知工程と、
を含むことを特徴とする危険報知方法。
A distance image obtaining step of photographing the bed and the periphery of the bed from above the bed, and obtaining a distance image with a distance value to the photographing object as a pixel value;
An area setting step for setting, as a bed area, a bed upper surface area extracted from the acquired distance image and a correction area for preventing erroneous detection of the long sitting state of the object person when the object person is on the bed; ,
A determination step of determining whether or not there is a risk that the subject falls from the bed based on the number of pixels of the subject outside the bed region of the distance image including the subject;
A notification step of notifying the determination result of the determination step to at least one of the target person and a third party;
A danger notification method comprising:
ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、
取得した前記距離画像から抽出したベッド上面領域を設定する領域設定手段と、
を有する危険報知装置の校正方法であって、
取得した前記距離画像を空間的な勾配が同様な領域に区割りした勾配画像を生成し、前記勾配画像に基づいて前記ベッド上面領域を抽出するベッド上面領域抽出工程を含むことを特徴とする危険報知装置の校正方法。
Distance image acquisition means for capturing the bed and the periphery of the bed from above the bed, and acquiring a distance image using the distance value to the object to be imaged as a pixel value;
Area setting means for setting the bed upper surface area extracted from the acquired distance image;
A calibration method for a danger notification device having
A risk notification including a bed upper surface area extracting step of generating a gradient image obtained by dividing the acquired distance image into regions having similar spatial gradients and extracting the bed upper surface area based on the gradient image. Device calibration method.
前記ベッド上面領域抽出工程が、前記距離画像の前記画素値の変化量が大きい箇所を線で表したエッジ画像を更に生成し、前記エッジ画像と前記勾配画像との合成画像に基づいて前記ベッド上面領域を抽出する処理を含む請求項6に記載の危険報知装置の校正方法。   The bed upper surface region extraction step further generates an edge image representing a portion where the amount of change in the pixel value of the distance image is large, and the bed upper surface area based on a composite image of the edge image and the gradient image The method for calibrating a danger notification device according to claim 6, comprising a process of extracting a region. 前記距離画像取得手段により取得される前記距離画像において、前記ベッドの上面に該当する領域が、所定の画素数の順位で抽出されるように前記距離画像取得手段を設置する設置工程を更に含み、
前記ベッド上面領域抽出工程が、前記所定の画素数の順位の領域を前記ベッド上面領域として抽出する処理を含む請求項7に記載の危険報知装置の校正方法。
In the distance image acquired by the distance image acquisition means, further includes an installation step of installing the distance image acquisition means so that a region corresponding to the upper surface of the bed is extracted in a rank of a predetermined number of pixels,
The method for calibrating a danger notification device according to claim 7, wherein the bed upper surface area extraction step includes a process of extracting an area having the predetermined number of pixels as the bed upper surface area.
前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出する算出工程を更に含む請求項7から8のいずれかに記載の危険報知装置の校正方法。   The method for calibrating a danger notification device according to any one of claims 7 to 8, further comprising a calculation step of calculating the position and orientation of the distance image acquisition means based on the bed upper surface area. 前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定する領域設定工程を更に含む請求項9に記載の危険報知装置の校正方法。   The danger notification device calibration method according to claim 9, further comprising a region setting step of setting a region by dividing a space in the camera coordinate system based on the bed upper surface region. 前記領域設定工程が、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域を設定する請求項10に記載の危険報知装置の校正方法。   The method of calibrating a danger notification device according to claim 10, wherein the region setting step sets a correction region for preventing erroneous detection of the subject's long sitting position when the subject is on the bed. 前記領域設定工程が、前記上方領域における前記ベッド上面領域の上方の領域を、前記対象者の離床状態及び第三者を誤検知しないための修正領域として更に設定する請求項11に記載の危険報知装置の校正方法。   The danger notification according to claim 11, wherein the region setting step further sets a region above the bed upper surface region in the upper region as a correction region for preventing erroneous detection of the person's bed leaving state and a third party. Device calibration method. ベッドの上方から前記ベッド及び前記ベッドの周辺を撮影し、撮影対象物までの距離値を画素値として距離画像を取得する距離画像取得手段と、
取得した前記距離画像から抽出したベッド上面領域を設定する領域設定手段と、
を有する危険報知装置の校正方法であって、
前記ベッド上面領域に基づき、カメラ座標系における空間を分割して領域を設定し、設定した前記領域のうち、対象者が前記ベッドの上にいる場合において前記対象者の長座位状態を誤検知しないための修正領域を設定する領域設定工程を含むことを特徴とする危険報知装置の校正方法。
Distance image acquisition means for capturing the bed and the periphery of the bed from above the bed, and acquiring a distance image using the distance value to the object to be imaged as a pixel value;
Area setting means for setting the bed upper surface area extracted from the acquired distance image;
A calibration method for a danger notification device having
Based on the upper surface area of the bed, the space in the camera coordinate system is divided to set the area, and when the target person is on the bed among the set areas, the long sitting state of the target person is not erroneously detected. A method for calibrating a danger notification device, comprising an area setting step for setting a correction area for the purpose.
前記ベッド上面領域に基づき、前記距離画像取得手段の位置及び姿勢を算出する算出工程を更に含む請求項13に記載の危険報知装置の校正方法。   The method for calibrating a danger notification device according to claim 13, further comprising a calculation step of calculating a position and orientation of the distance image acquisition unit based on the bed upper surface area.
JP2016206293A 2016-10-20 2016-10-20 Danger notification device, danger notification method, and calibration method for danger notification device Pending JP2018067203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016206293A JP2018067203A (en) 2016-10-20 2016-10-20 Danger notification device, danger notification method, and calibration method for danger notification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206293A JP2018067203A (en) 2016-10-20 2016-10-20 Danger notification device, danger notification method, and calibration method for danger notification device

Publications (1)

Publication Number Publication Date
JP2018067203A true JP2018067203A (en) 2018-04-26

Family

ID=62087130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206293A Pending JP2018067203A (en) 2016-10-20 2016-10-20 Danger notification device, danger notification method, and calibration method for danger notification device

Country Status (1)

Country Link
JP (1) JP2018067203A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019195395A (en) * 2018-05-08 2019-11-14 国立大学法人鳥取大学 Risk degree estimation system
WO2019240197A1 (en) * 2018-06-15 2019-12-19 エイアイビューライフ株式会社 Information processing device
WO2020084824A1 (en) * 2018-10-22 2020-04-30 株式会社アルファブレイン・ワールド Hair iron cover member and hair iron
CN112634581A (en) * 2020-12-14 2021-04-09 珠海格力电器股份有限公司 Method and system for prompting falling object danger and storage medium
CN114360209A (en) * 2022-01-17 2022-04-15 常州信息职业技术学院 Video behavior identification security system based on deep learning
CN116092130A (en) * 2023-04-11 2023-05-09 东莞先知大数据有限公司 Method, device and storage medium for supervising safety of operators in oil tank
US11657615B2 (en) 2020-10-07 2023-05-23 Paramount Bed Co., Ltd. Bed system
WO2023195403A1 (en) * 2022-04-06 2023-10-12 株式会社Jvcケンウッド Image processing device and image processing method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076281B2 (en) 2018-05-08 2022-05-27 国立大学法人鳥取大学 Risk estimation system
JP2019195395A (en) * 2018-05-08 2019-11-14 国立大学法人鳥取大学 Risk degree estimation system
WO2019240197A1 (en) * 2018-06-15 2019-12-19 エイアイビューライフ株式会社 Information processing device
JP2019219171A (en) * 2018-06-15 2019-12-26 エイアイビューライフ株式会社 Information processor
JP7090328B2 (en) 2018-06-15 2022-06-24 エイアイビューライフ株式会社 Information processing equipment
WO2020084824A1 (en) * 2018-10-22 2020-04-30 株式会社アルファブレイン・ワールド Hair iron cover member and hair iron
US11657615B2 (en) 2020-10-07 2023-05-23 Paramount Bed Co., Ltd. Bed system
JP7457625B2 (en) 2020-10-07 2024-03-28 パラマウントベッド株式会社 bed system
CN112634581A (en) * 2020-12-14 2021-04-09 珠海格力电器股份有限公司 Method and system for prompting falling object danger and storage medium
CN114360209A (en) * 2022-01-17 2022-04-15 常州信息职业技术学院 Video behavior identification security system based on deep learning
CN114360209B (en) * 2022-01-17 2023-06-23 常州信息职业技术学院 Video behavior recognition security system based on deep learning
WO2023195403A1 (en) * 2022-04-06 2023-10-12 株式会社Jvcケンウッド Image processing device and image processing method
CN116092130A (en) * 2023-04-11 2023-05-09 东莞先知大数据有限公司 Method, device and storage medium for supervising safety of operators in oil tank
CN116092130B (en) * 2023-04-11 2023-06-30 东莞先知大数据有限公司 Method, device and storage medium for supervising safety of operators in oil tank

Similar Documents

Publication Publication Date Title
JP2018067203A (en) Danger notification device, danger notification method, and calibration method for danger notification device
WO2016143641A1 (en) Posture detection device and posture detection method
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP5771778B2 (en) Monitoring device, program
RU2676147C2 (en) Automatic continuous patient movement monitoring
JP6504156B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6297822B2 (en) Detection device, detection system, and detection method
JP6417670B2 (en) Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program
WO2018159036A1 (en) Monitoring assistance system, control method thereof, and program
US11272873B2 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and recording medium
WO2014024364A1 (en) Object detection device, object detection method, and program
JP2015132963A (en) Monitor system
US20170055888A1 (en) Information processing device, information processing method, and program
Yang et al. Fall detection for multiple pedestrians using depth image processing technique
TW201705095A (en) Apparatus to prevent falling and operation method thereof
US20170049366A1 (en) Information processing device, information processing method, and program
KR20140110484A (en) Risk behavior detection method using image information
JP2000253382A (en) Falling detector
JP2000285223A (en) Fall detector
Inoue et al. Vision-based bed detection for hospital patient monitoring system
JP2018533240A (en) Occupancy detection
JP2017228042A (en) Monitoring device, monitoring system, monitoring method and monitoring program
JP6179447B2 (en) Gaze detection device and gaze detection method
JP5870230B1 (en) Watch device, watch method and watch program
US20190318600A1 (en) Monitoring assistance system, control method thereof, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190220