JP2013078433A - Monitoring device, and program - Google Patents
Monitoring device, and program Download PDFInfo
- Publication number
- JP2013078433A JP2013078433A JP2011219397A JP2011219397A JP2013078433A JP 2013078433 A JP2013078433 A JP 2013078433A JP 2011219397 A JP2011219397 A JP 2011219397A JP 2011219397 A JP2011219397 A JP 2011219397A JP 2013078433 A JP2013078433 A JP 2013078433A
- Authority
- JP
- Japan
- Prior art keywords
- bed
- distance
- distance image
- value
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、ベッド上の人を監視する監視装置、監視装置に用いる機能をコンピュータで実現するプログラムに関するものである。 The present invention relates to a monitoring device for monitoring a person on a bed and a program for realizing a function used for the monitoring device by a computer.
この種の監視装置として、監視対象物までの距離に相当する距離関連値を求め、距離関連値を閾値と比較することにより、ベッド上の就寝者の動きや呼吸を検出する技術が提案されている(たとえば、特許文献1参照)。特許文献1には、所定時間内に就寝者の形状変化が検出されない場合には、監視対象物が監視対象領域の外に出たと判断することによって、離床を検出する技術が記載されている。
As this type of monitoring device, a technique has been proposed in which a distance-related value corresponding to the distance to the monitoring object is obtained, and the distance-related value is compared with a threshold value to detect a sleeper's movement and breathing on the bed. (For example, see Patent Document 1).
特許文献1では、ベッド上の就寝者の一部を含む複数の対象点を設定し、就寝者の情報から対象点までの距離を距離センサにより計測している。対象点は、ベッド上に就寝者が居る場合に就寝者の一部を含むように設定された監視領域内に複数配置される。特許文献1に記載の技術では、これらの対象点から得られた距離関連値の時間変化と対象点の位置とを用いることにより、就寝者の離床のほか、呼吸や起き上がりを検出している。
In
ところで、ベッド上の就寝者の状態を監視する技術では、3次元計測を行うために距離センサが必要であり、この種の距離センサの原理は種々知られている。ただし、時間経過に伴って変化するベッド上の就寝者の状態をリアルタイムで検出する距離センサは、ステレオ画像法による距離センサと飛行時間法による距離センサとが主として採用される。 By the way, in the technique for monitoring the state of a sleeping person on a bed, a distance sensor is necessary for performing three-dimensional measurement, and various principles of this type of distance sensor are known. However, as a distance sensor that detects a sleeping person's state on the bed that changes with time, a distance sensor based on a stereo image method and a distance sensor based on a time-of-flight method are mainly employed.
ステレオ画像法を用いた距離センサは、2台以上の撮像装置を必要とし、画像に対する処理も比較的複雑であるから、市場に低価格で供給することが困難である。一方、飛行時間法を用いた距離センサは、対象空間に放射したエネルギー(たとえば、光)が、周囲の物体で多重反射すると誤差が生じるという問題を有している。たとえば、病院、高齢者施設、介護施設などの多床室のように、ベッドの周囲にベッド周りカーテンが配置されている場合、ベッド周りカーテンの開閉により、反射波の飛行時間に変化が生じる可能性がある。 A distance sensor using the stereo imaging method requires two or more imaging devices, and the processing for images is relatively complicated, so that it is difficult to supply to the market at a low price. On the other hand, the distance sensor using the time-of-flight method has a problem that an error occurs when the energy (for example, light) radiated into the target space is reflected by multiple surrounding objects. For example, when a curtain around the bed is placed around the bed, such as a multi-bed room in a hospital, elderly facility, nursing facility, etc., the flight time of the reflected wave may change due to opening and closing of the curtain around the bed There is sex.
本発明は、ベッド上の対象者を監視するために飛行時間法を用いて3次元情報を計測する場合に、ベッドの周囲環境により生じる多重反射の影響を軽減することにより、3次元情報を再現性よく検出する監視装置、および監視装置の機能をコンピュータで実現するためのプログラムを提供することにある。 The present invention reproduces three-dimensional information by reducing the influence of multiple reflections caused by the surrounding environment of the bed when measuring three-dimensional information using the time-of-flight method to monitor a subject on the bed. An object of the present invention is to provide a monitoring device for detecting with good quality and a program for realizing the function of the monitoring device by a computer.
本発明に係る監視装置は、上記目的を達成するために、投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサと、距離画像を用いてベッドの位置を認識するベッド認識部を備えベッドに関連した人の特定の行動を監視する行動監視処理部と、距離画像センサにより事前に生成された背景距離画像と距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を行動監視処理部に与える距離変動補正部とを備え、行動監視処理部は、距離変動補正部により距離値が補正された距離画像を用いて人の特定の行動を監視することを特徴とする。 In order to achieve the above object, the monitoring device according to the present invention generates a distance image in which a pixel value is a distance value to an object using a time difference between light projection and reception, and includes a bed to be monitored in a visual field region. A distance image sensor placed in the bed, a bed recognition unit that recognizes the position of the bed using the distance image, a behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, and a distance image sensor generated in advance The variation rate of the distance value for the pixel at the same position of the background image obtained by the distance image sensor and the distance image generated by the range image sensor is calculated, and the representative value of the variation rate obtained from the pixel whose variation rate is within the reference range is used. A distance fluctuation correction unit that gives a distance image whose distance value is corrected to the behavior monitoring processing unit, and the behavior monitoring processing unit uses the distance image whose distance value is corrected by the distance fluctuation correction unit to perform a specific action of a person Characterized in that it monitors.
この監視装置において、ベッドはフットボードから上に配置された観測板を備え、距離変動補正部は、観測板に対応した領域の画素を用いて変動率を算出することが好ましい。 In this monitoring apparatus, it is preferable that the bed includes an observation board disposed above the footboard, and the distance fluctuation correction unit calculates the fluctuation rate using pixels in a region corresponding to the observation board.
この監視装置において、距離変動補正部は、ベッド認識部が抽出したベッドの範囲内の画素を用いて変動率を算出することが好ましい。 In this monitoring apparatus, it is preferable that the distance variation correction unit calculates the variation rate using the pixels within the bed range extracted by the bed recognition unit.
この監視装置において、ベッドは、フットボードにおける左右方向の中心位置およびフットボードにおける他の位置に配置される複数個のマーカを備え、ベッド認識部は、マーカの位置を基準に用いてベッドの位置を算出することが好ましい。 In this monitoring apparatus, the bed includes a plurality of markers arranged at the center position in the left-right direction on the footboard and at other positions on the footboard, and the bed recognition unit uses the position of the marker as a reference. Is preferably calculated.
この監視装置において、ベッドは、フットボードにおける左右方向の中心位置およびベッドの両側縁に配置される3個以上のマーカを備え、ベッド認識部は、マーカの位置を基準に用いてベッドの位置を算出することが好ましい。 In this monitoring device, the bed includes three or more markers arranged at the center position in the left-right direction on the footboard and both side edges of the bed, and the bed recognition unit determines the position of the bed using the marker position as a reference. It is preferable to calculate.
この監視装置において、行動監視処理部は、ベッドを使用する人に関して与えられる体格を示す指標を用いて特定の行動を監視するために、ベッドの上方に規定する高さに関する閾値を自動的に設定することが好ましい。 In this monitoring apparatus, the behavior monitoring processing unit automatically sets a threshold value related to the height defined above the bed in order to monitor a specific behavior using an index indicating a physique given to a person using the bed. It is preferable to do.
本発明に係るプログラムは、コンピュータを、投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサから得られた距離画像を用いてベッドの位置を抽出するベッド認識部を備えベッドに関連した人の特定の行動を監視する行動監視処理部と、距離画像センサにより事前に生成された背景距離画像と距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を行動監視処理部に与える距離変動補正部として機能させるためのものである。 The program according to the present invention generates a distance image in which a pixel value is a distance value to an object using a time difference between light transmission and reception, and a distance image arranged so that a bed to be monitored is included in a visual field region A behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, and a background distance generated in advance by the distance image sensor, including a bed recognition unit that extracts a bed position using a distance image obtained from the sensor Calculate the rate of change of the distance value for the pixel at the same position of the image and the range image generated by the range image sensor, and use the representative value of the rate of change obtained from the pixel whose rate of change is within the reference range. This is to make the corrected distance image function as a distance variation correction unit that gives the behavior monitoring processing unit.
本発明の構成によれば、ベッド上の対象者を監視するために飛行時間法を用いて3次元情報を計測する場合に、ベッドの周囲環境により生じる多重反射の影響を軽減することにより、3次元情報を再現性よく検出することが可能になるという利点がある。すなわち、飛行時間法の原理に起因して多重反射が生じる環境であっても3次元情報を精度よく計測し、結果的にベッドに関連した人の認識および人の行動の認識を正確に行うことが可能になるという効果を奏する。 According to the configuration of the present invention, when measuring three-dimensional information using the time-of-flight method to monitor the subject on the bed, the influence of multiple reflections caused by the surrounding environment of the bed is reduced. There is an advantage that the dimensional information can be detected with good reproducibility. In other words, even in an environment where multiple reflections occur due to the principle of time-of-flight method, three-dimensional information is accurately measured, and as a result, human recognition and human behavior related to the bed are accurately performed. There is an effect that becomes possible.
以下に説明する実施形態では、病院、高齢者施設、介護施設などの多床室に配置されたベッドのようにベッド周りカーテン(いわゆる、キュービクルカーテン)を備える場所でベッド上の人の行動を監視するために監視装置を用いる例を示す。ただし、窓やドアを備える通常の部屋でも同様の技術を採用可能である。 In the embodiments described below, a person's behavior on a bed is monitored in a place equipped with a curtain around the bed (so-called cubicle curtain) such as a bed placed in a multi-bed room such as a hospital, an elderly facility, or a care facility. An example of using a monitoring device to do this will be shown. However, the same technology can be used in a normal room with windows and doors.
本実施形態の監視装置は、図2に示すように、ベッド30の全体を視野に含んだ距離画像を出力する距離画像センサ10を備える。距離画像は画素値を距離値とした画像であって、距離画像を生成する技術には、対象空間からの受光のみを行うパッシブ型と、対象空間に投光した光を受光するアクティブ型とが知られている。以下に説明する距離画像センサは、対象空間に投光し対象空間に存在する物体での反射光を受光するまでの時間を計測する飛行時間法(Time Of Flight)の原理を採用したアクティブ型を用いる。以下では、飛行時間法を「TOF法」と略称する。
As shown in FIG. 2, the monitoring device of the present embodiment includes a
本実施形態は、TOF法を用いる距離画像センサであれば、どのように構成されていてもよい。ただし、本実施形態では、光の強度を一定周期の変調信号で変調した強度変調光を対象空間に投光し、対象空間に存在する物体での反射光が受光されるまでの時間を、強度変調光の投受光の位相差として検出する構成を採用する。この距離画像センサは、強度変調光の投受光の位相差を物体までの距離に換算する機能を備える。 The present embodiment may be configured in any manner as long as it is a distance image sensor using the TOF method. However, in the present embodiment, the intensity modulation light obtained by modulating the light intensity with a modulation signal having a constant period is projected onto the target space, and the time until the reflected light from the object existing in the target space is received is expressed as the intensity. A configuration for detecting the phase difference between light projection and reception of modulated light is adopted. This distance image sensor has a function of converting a phase difference between light projection and reception of intensity-modulated light into a distance to an object.
対象空間に投光する光は、多くの物体を透過することなく物体の表面で反射され、かつ人に知覚されない光が望ましい。そのため、投光する光には近赤外線を用いるのが望ましい。ただし、撮像領域を調節する場合のように、人に知覚されるほうが望ましい場合には可視光を用いることも可能である。 The light projected into the target space is preferably light that is reflected by the surface of the object without passing through many objects and is not perceived by humans. For this reason, it is desirable to use near infrared rays as the light to be projected. However, visible light can be used when it is desirable to be perceived by a person, such as when adjusting the imaging region.
強度変調光の波形は、正弦波を想定しているが、三角波、鋸歯状波、方形波などを用いることができる。正弦波、三角波、鋸歯状波を用いる場合には強度変調光の周期を一定周期とする。なお、方形波を用いる場合に、強度変調光の周期を一定周期とするほか、オン期間(発光源の投光期間)とオフ期間(発光源の非投光期間)との比率を乱数的に変化させる技術を採用することも可能である。すなわち、オン期間とオフ期間とに対して十分に長い時間において、オン期間の生じる確率が50%になるようにオン期間とオフ期間とを不規則に変化させ、前記十分に長い時間において累積した受光量を用いてもよい。 The waveform of the intensity-modulated light is assumed to be a sine wave, but a triangular wave, a sawtooth wave, a square wave, or the like can be used. When a sine wave, a triangular wave, or a sawtooth wave is used, the period of the intensity modulated light is set to a constant period. In addition, when using a square wave, in addition to making the period of intensity modulated light constant, the ratio of the on period (light emitting source light emitting period) to the off period (light emitting source non-light emitting period) is randomized. It is also possible to adopt changing technology. That is, the on period and the off period are irregularly changed so that the probability of the on period occurring is 50% in a sufficiently long time with respect to the on period and the off period, and accumulated in the sufficiently long time. The amount of received light may be used.
また、強度変調光を一定周期とする場合、たとえば、投光する光を20MHzの変調信号により変調し、10000周期程度の受光量を累積することによりショットノイズの影響を軽減させることが好ましい。オン期間とオフ期間とを乱数的に変化させる場合にも、たとえば、単位期間を20MHzの1周期に相当する期間とし、単位期間の数倍程度の範囲でオン期間とオフ期間とを変化させ、単位期間の10000倍程度の期間の受光量を累積することが好ましい。この動作により、累積後の受光量は、一定周期の強度変調光を用いて受光量を累積した場合と同様に扱うことができる。 In addition, when the intensity-modulated light has a constant period, for example, it is preferable to reduce the influence of shot noise by modulating the light to be projected with a modulation signal of 20 MHz and accumulating the received light amount of about 10,000 periods. Even when the on period and the off period are changed randomly, for example, the unit period is a period corresponding to one cycle of 20 MHz, and the on period and the off period are changed within a range of several times the unit period. It is preferable to accumulate the amount of light received for a period of about 10,000 times the unit period. With this operation, the amount of received light after accumulation can be handled in the same manner as when the amount of received light is accumulated using intensity-modulated light having a fixed period.
物体で反射された強度変調光は、撮像装置により受光する。撮像装置は、複数個の画素が2次元配列され濃淡画像を撮像するため撮像素子と、撮像素子の受光面に光が入射する範囲を制限する受光光学系とを備える。撮像素子は、CCDイメージセンサやCMOSイメージセンサとして提供されている濃淡画像を撮像する周知構成の撮像素子を用いることができるが、距離画像センサに適する構造を有するように専用に設計された撮像素子を用いることが望ましい。 The intensity-modulated light reflected by the object is received by the imaging device. The imaging device includes an imaging element for capturing a grayscale image in which a plurality of pixels are two-dimensionally arranged, and a light receiving optical system that limits a range in which light enters the light receiving surface of the imaging element. As the image pickup device, an image pickup device having a well-known configuration for picking up a gray image provided as a CCD image sensor or a CMOS image sensor can be used, but an image pickup device designed exclusively for having a structure suitable for a distance image sensor. It is desirable to use
以下では、距離画像センサの一例として下記構成を想定して説明するが、この構成は本発明を限定する趣旨ではなく、強度変調光の変調波形、撮像素子の構成、撮像素子の制御などに関して、TOF型の距離画像センサにおいて知られている種々の構成に置き換えることが可能である。 Hereinafter, the following configuration will be described as an example of the distance image sensor, but this configuration is not intended to limit the present invention, and the modulation waveform of the intensity-modulated light, the configuration of the imaging device, the control of the imaging device, etc. It is possible to replace various configurations known in the TOF type distance image sensor.
以下の説明で用いる距離画像センサ10は、図3に示すように、強度変調光を対象空間に投光する投光装置11と、対象空間からの光を受光する撮像装置12とを備える。投光装置11は、発光ダイオードやレーザダイオードのように入力の瞬時値に比例した光出力が得られる発光素子13と、発光素子13から出射した光を対象空間の範囲に投光させる投光光学系14とを備える。投光装置11は、光出力を確保するために適数個の発光素子13を備える。また、撮像装置12は、上述した撮像素子15と、撮像素子15の視野を決める受光光学系16とを備える。
As shown in FIG. 3, the
発光素子13から出射された強度変調光は投光光学系14を通して対象空間に投光される。撮像素子15は、受光光学系16を通して対象空間からの光を受光する。投光光学系14と受光光学系16とは、投受光の方向を平行にし互いに近接して配置してある。ここに、投光光学系14と受光光学系16との距離は視野領域に対して実質的に無視することができるものとする。
The intensity-modulated light emitted from the
距離画像センサ10は、発光素子13から強度変調光を出射させるために、発光素子13に与える変調信号を生成する変調信号生成部17を備える。また、距離画像センサ10は、撮像素子15が対象空間から受光するタイミングを制御するために、撮像素子15での受光タイミングを規定する受光タイミング信号を変調信号から生成するタイミング制御部18を備える。撮像素子15で得られた受光量に相当する電荷は撮像素子15から読み出されて演算処理部19に入力される。演算処理部19は、受光タイミングと受光量との関係から対象空間に存在する物体までの距離を求める。
The
変調信号生成部17は、出力電圧が一定周波数(たとえば、20MHz)の正弦波形で変化する変調信号を生成する。発光素子13はこの変調信号により駆動され、光出力が正弦波状に変化する強度変調光が発光素子13から出射される。
The
本実施形態において用いる撮像素子15は、電子シャッタの技術を用いることにより、受光タイミング信号に同期する期間にのみ受光強度に応じた電荷を生成する。また、生成された電荷は、遮光された蓄積領域に転送され、蓄積領域において変調信号の複数周期(たとえば、10000周期)に相当する蓄積期間に蓄積された後、撮像素子15の外部に受光出力として取り出される。
The
タイミング制御部18では、変調信号に同期する受光タイミング信号を生成する。ここでは、タイミング制御部18が、変調信号の異なる4位相ごとに一定時間幅の受光期間を有した4種類の受光タイミング信号を生成する。また、上述した蓄積期間ごとに4種類の受光タイミング信号から選択した1種類の受光タイミング信号を撮像素子15に与える。
The
すなわち、1回の蓄積期間に1種類の受光タイミング信号を撮像素子15に与えることにより、変調信号の特定の位相期間に対応する受光期間における電荷を撮像素子15の各画素で生成する。蓄積後の電荷は、受光出力として撮像素子15から取り出される。蓄積期間ごとに異なる各受光タイミング信号を撮像素子15に与え、撮像素子15で生成された電荷を受光出力として取り出す動作を繰り返すと、4回の蓄積期間で4種類の受光タイミング信号に対応する受光出力が撮像素子15から得られる。
That is, by supplying one type of light reception timing signal to the
いま、4種類の受光タイミング信号が、変調信号の1周期において90度ずつ異なる位相に設定され、各受光タイミング信号に対応して撮像素子15から出力された受光出力(電荷量)が、それぞれA0,A1,A2,A3であったとする。このとき、三角関数の関係を用いると、強度変調光の投光時と受光時との位相差ψ〔rad〕は、下式の形式で表すことができる。
ψ=tan−1{(A0−A2)/(A1−A3)}
変調信号の周波数は一定であるから、位相差ψを投光から受光までの時間差に換算することができ、光速は既知であるから、時間差が求まれば物体までの距離を求めることができる。
Now, four types of light reception timing signals are set to phases different by 90 degrees in one cycle of the modulation signal, and the light reception outputs (charge amounts) output from the
ψ = tan −1 {(A0−A2) / (A1−A3)}
Since the frequency of the modulation signal is constant, the phase difference ψ can be converted into a time difference from light projection to light reception, and since the speed of light is known, the distance to the object can be obtained if the time difference is obtained.
すなわち、4種類の受光出力(電荷量)A0〜A3により物体までの距離を求めることができる。なお、受光期間は、各画素において適正な受光量が得られるように、適宜に設定される。たとえば、変調信号の4分の1周期に相当する受光期間が用いられる。また、各受光期間の時間幅は互いに等しくすることが必要である。 That is, the distance to the object can be obtained from the four types of light reception outputs (charge amounts) A0 to A3. Note that the light receiving period is appropriately set so that an appropriate amount of received light can be obtained in each pixel. For example, a light receiving period corresponding to a quarter cycle of the modulation signal is used. Further, the time widths of the respective light receiving periods need to be equal to each other.
演算処理部19は、受光出力(電荷量)A0〜A3に基づいて位相差ψを求め、距離に換算することにより距離画像を姿勢する処理のほか、強度変調光の反射光成分のみを抽出した濃淡画像である反射強度画像を生成する処理も行う。
The
反射強度画像を生成する場合、変調信号生成部17は、投光装置11に変調信号を入力する投光期間と、投光装置11への変調信号を休止する非投光期間と設けるように動作する。すなわち、投光期間には投光装置11から対象空間に強度変調光が投光され、非投光期間には投光装置11から対象空間への投光が休止する。したがって、投光期間において撮像装置12が受光した受光量は強度変調光の反射光成分と環境光成分とを含み、非投光期間において撮像装置12が受光した受光量は環境光成分のみを含む。
When generating a reflection intensity image, the modulation
上述した関係を用いると、投光期間の受光量と非投光期間の受光量とから強度変調光の反射光成分を抽出できる。すなわち、演算処理部19は、受光出力A0〜A3を適宜に用いることによって、強度変調光の反射光成分を算出し、算出した反射光成分を画素値に持つ反射強度画像を生成する。このようにして生成された反射強度画像は、強度変調光の反射強度に相当する画素値を持つから、物体の反射率と物体までの距離との情報を含んでいる。なお、反射光成分は、4種類の受光出力A0〜A3のいずれかの受光量、4種類の受光出力A0〜A3の平均の受光量などを用いて求められる。
Using the above-described relationship, the reflected light component of the intensity-modulated light can be extracted from the amount of light received during the light projection period and the amount of light received during the non-light projection period. That is, the
演算処理部19が、距離画像を生成するか、反射強度画像を生成するかは、必要に応じて適宜に選択される。距離画像と反射強度画像とは、画素の位置が一致しているから、距離画像と反射強度画像とを用いることにより、対象空間の同位置について物体までの距離と物体の反射率との2種類の情報が得られる。
Whether the
演算処理部19はマイコン、DSP、FPGAなどから選択されるデジタル信号処理装置を用いて構成され、上述した処理はデジタル信号処理装置においてプログラムを実行することにより実現される。また、演算処理部19だけではなく、発光素子13および撮像素子15を除く構成は、上述したデジタル信号処理装置を用いて実現可能である。デジタル信号処理装置は、1個だけ用いることが可能であるが、少なくとも距離画像センサ10に用いる機能と、以下に説明する機能とは、異なるデジタル信号処理装置に処理を振り分けることが好ましい。また、さらに多くのデジタル信号処理装置を用いることも可能である。
The
上述の動作例では、4種類の受光タイミング信号を用いているが、3種類の受光タイミング信号でも位相差ψを求めることができ、環境光ないし周囲光が存在しない環境下であれば、2種類の受光タイミング信号でも位相差ψを求めることが可能である。 In the above-described operation example, four types of light reception timing signals are used. However, the phase difference ψ can be obtained using three types of light reception timing signals. It is possible to obtain the phase difference ψ even with the light reception timing signal.
さらに、上述した動作では、1画素について1種類の受光タイミング信号に対応する電荷を蓄積しているから、4種類の受光出力(電荷量)A0〜A3を撮像素子15から取り出すために4回の蓄積期間が必要である。これに対して、1画素について2種類の受光タイミング信号に対応する電荷を蓄積すれば、撮像素子15から2種類の受光タイミング信号に対応した受光出力を1回で読み出すことが可能になる。同様に、1画素について4種類の受光タイミング信号に対応する電荷を蓄積可能に構成すれば、4種類の受光タイミング信号に対応する受光出力を1回で読み出すことが可能になる。
Furthermore, in the above-described operation, charges corresponding to one type of light reception timing signal are accumulated for one pixel, so that four types of light reception outputs (charge amounts) A0 to A3 are extracted four times from the
上述した距離画像センサ10は、対象空間からの光を受光するための受光素子として複数個の画素が2次元配列された撮像素子を用いているから、各画素の画素値として距離値を求めることにより距離画像が生成されることになる。すなわち、撮像素子の受光面が距離画像センサ10の視野領域を投影する仮想の投影面になる。
Since the above-described
さらに、距離画像センサ10は、対象空間に発光素子13から投光し撮像素子15の視野領域を対象空間として撮像するから、対象空間の形状は、距離画像センサ10を頂点として距離画像センサ10から離れるほど広がる形になる。たとえば、投光光学系14および受光光学系16がそれぞれ光軸の周りに等方的に形成されている場合、対象空間の形状は、距離画像センサ10を頂点とする角錐状になる。
Furthermore, since the
したがって、上述した仮想の投影面に配列された画素の位置は、距離画像センサ10から対象空間を見込む方向に対応することになり、各画素の画素値は当該方向に存在する物体までの距離を表すことになる。言い換えると、距離画像センサ10(および画像生成手段)により生成された距離画像は、極座標系で物体の位置を表していることになる。このような距離画像を極座標系の距離画像と呼ぶことにする。
Therefore, the positions of the pixels arranged on the virtual projection plane described above correspond to the direction in which the target space is viewed from the
上述した極座標系の距離画像は、距離画像センサ10からの距離の情報が必要であるときには利便性が高いが、対象空間である実空間の各位置との対応関係がわかりにくく、実空間に存在する物体を基準にした領域を指定するには不便である。したがって、演算処理部19では、極座標系の距離画像から直交座標系の各座標値を有した画像を生成する座標変換を行う。以下では、座標変換を行った後の画像を座標軸別画像と呼ぶ。
The polar coordinate system distance image described above is highly convenient when information on the distance from the
極座標系の距離画像から座標軸別画像を生成する手順について、図4、図5を参照して説明する。極座標系の距離画像から座標軸別画像を生成するには、まず、撮像装置に設定した極座標系の距離画像を、撮像装置に設定した直交座標系であるカメラ座標系の3次元画像に変換する。さらに、この3次元画像を対象空間に規定した直交座標系であるグローバル座標系の3次元画像に変換する。グローバル座標系の3次元画像が得られると、各座標軸別画像に分解することができる。 A procedure for generating the coordinate axis-specific image from the polar coordinate system distance image will be described with reference to FIGS. To generate an image for each coordinate axis from a polar coordinate system distance image, first, a polar coordinate system distance image set in the imaging device is converted into a three-dimensional image in a camera coordinate system, which is an orthogonal coordinate system set in the imaging device. Furthermore, this three-dimensional image is converted into a three-dimensional image in a global coordinate system which is an orthogonal coordinate system defined in the target space. When a three-dimensional image of the global coordinate system is obtained, it can be decomposed into images for each coordinate axis.
極座標系の距離画像からカメラ座標系の3次元画像を生成するために、以下の演算を行う。ここに、図4に示すように、撮像素子15の受光面における水平方向と垂直方向とをu方向とv方向とする。撮像素子15と受光光学系16とは、受光光学系16の光軸16Aが撮像素子15の受光面の中心位置の画素を通るように配置する。また、撮像素子15の受光面を受光光学系16の焦点に位置させる。この位置関係において、撮像素子15の受光面の中心位置の画素の座標(単位は、ピクセル)を(uc,vc)、撮像素子15の画素のu方向とv方向とのピッチ(単位は、mm)を(su,sv)とする。さらに、受光光学系16の焦点距離をf[mm]とし、撮像素子15の受光面における各画素の座標(単位はピクセル)の位置(u,v)に対応する方向に存在する物体について受光光学系16の中心から物体までの距離をd[mm]とする。これらの値は、距離画像センサ10において物体までの距離dを各画素の位置に対応付けることにより既知の値になる。
In order to generate a three-dimensional image in the camera coordinate system from the distance image in the polar coordinate system, the following calculation is performed. Here, as shown in FIG. 4, the horizontal direction and the vertical direction on the light receiving surface of the
物体についてカメラ座標系での座標値(X1,Y1,Z1)を求めると以下のようになる。座標値(X1,Y1,Z1)の各成分の単位はmmである。撮像素子15の受光面に設定した座標系の原点は矩形状である撮像素子15の受光面の1つの角の位置とし、直交座標系の原点は受光光学系16の中心とする。
X1=u1・d/R
Y1=v1・d/R
Z1=f・d/R
ただし、
u1=su(u−uc)
v1=sv(v−vc)
R=(u12+v12+f2)1/2
なお、説明を簡単にするために、受光光学系16の光学歪みの影響は無視している。受光光学系16の光学歪みを補正するには、光学中心からの距離Rを補正する歪み補正式が用いられる。
The coordinate values (X1, Y1, Z1) in the camera coordinate system for the object are obtained as follows. The unit of each component of the coordinate values (X1, Y1, Z1) is mm. The origin of the coordinate system set on the light receiving surface of the
X1 = u1 · d / R
Y1 = v1 · d / R
Z1 = f · d / R
However,
u1 = su (u-uc)
v1 = sv (v−vc)
R = (u1 2 + v1 2 + f 2 ) 1/2
In order to simplify the explanation, the influence of the optical distortion of the light receiving
上述したように、極座標系の距離画像をカメラ座標系の3次元画像に変換した後に、グローバル座標系への座標変換を行う。距離画像センサ10は、撮像素子15の受光面における垂直方向(すなわち、v方向)が室内の壁面51および床面52に平行になるように配置される。
As described above, after the distance image in the polar coordinate system is converted into a three-dimensional image in the camera coordinate system, the coordinate conversion to the global coordinate system is performed. The
いま、図5(a)のように、距離画像センサ10において受光光学系16の光軸16Aの俯角をθとする。図5(a)において距離画像センサ10の視野角はφで表している。カメラ座標系からグローバル座標系への変換には、図5(b)に示すように、カメラ座標系での座標値(X1,Y1,Z1)に対して、Y軸周りで俯角θに相当する回転を行う。これにより、図5(c)のように、室内の壁面51および床面52に直交する座標軸を持つグローバル座標系の3次元画像が生成される。
Now, as shown in FIG. 5A, the depression angle of the
以下では、グローバル座標系での座標値を(X,Y,Z)とする。図示例では、壁51に直交する方向で壁51から離れる向きをX方向の正の向きとし、床52に直交する方向の下向きをZ方向の正の向きとする。また、座標系には右手系を用いる。俯角θに関する座標系の回転は、以下の計算により行う。
X=X1・cos(90°−θ)+Z1・sin(90°−θ)
Y=Y1
Z=−X1・sin(90°−θ)+Z1・cos(90°−θ)
座標軸別画像は、グローバル座標系にマッピングを行った画像そのものではなく、距離画像の各画素の座標位置(u,v)にX値とY値とZ値とをそれぞれ個別に対応付けた画像である。すなわち、各座標位置(u,v)に、X(u,v)、Y(u,v)、Z(u,v)をそれぞれ対応付けた画像であり、1枚の極座標系の距離画像に対して3枚の座標軸別画像が生成される。極座標系の距離画像から座標軸別画像を得るには、上述の計算を行ってもよいが、極座標系の距離画像から座標値(X,Y,Z)に変換するテーブルを用意しておけば、処理負荷を軽減することができる。
Hereinafter, the coordinate values in the global coordinate system are assumed to be (X, Y, Z). In the illustrated example, a direction away from the
X = X1 · cos (90 ° −θ) + Z1 · sin (90 ° −θ)
Y = Y1
Z = −X1 · sin (90 ° −θ) + Z1 · cos (90 ° −θ)
The image by coordinate axis is not the image itself mapped to the global coordinate system, but an image in which the X value, the Y value, and the Z value are individually associated with the coordinate position (u, v) of each pixel of the distance image. is there. In other words, each coordinate position (u, v) is an image in which X (u, v), Y (u, v), and Z (u, v) are associated with each other. On the other hand, three coordinate axis-specific images are generated. In order to obtain an image for each coordinate axis from a polar coordinate system distance image, the above calculation may be performed. However, if a table for converting a polar coordinate system distance image into a coordinate value (X, Y, Z) is prepared, Processing load can be reduced.
以下では、座標軸別画像のうちX値を画素値とする画像をX画像、Y値を画素値とする画像をY画像、Z値を画素値とする画像をZ画像と呼ぶ。したがって、座標変換を行うテーブルとしては、X画像に変換するX変換テーブルと、Y画像に変換するY変換テーブルと、Z画像に変換するZ変換テーブルとの3種類が必要になる。座標軸別画像を使用する技術は後述する。 Hereinafter, among the images by coordinate axes, an image having an X value as a pixel value is referred to as an X image, an image having a Y value as a pixel value is referred to as a Y image, and an image having a Z value as a pixel value is referred to as a Z image. Accordingly, three types of tables for performing coordinate conversion are required: an X conversion table for conversion to an X image, a Y conversion table for conversion to a Y image, and a Z conversion table for conversion to a Z image. The technique using the coordinate axis-specific image will be described later.
上述したX画像とY画像とZ画像とは、デジタル信号処理装置のメモリに格納され、実空間である対象空間に対応する3次元の仮想空間を表している。したがって、仮想空間における条件を設定すれば、対象空間において条件を設定したことと等価になる。 The X image, the Y image, and the Z image described above are stored in the memory of the digital signal processing device and represent a three-dimensional virtual space corresponding to the target space that is a real space. Therefore, setting the condition in the virtual space is equivalent to setting the condition in the target space.
距離画像センサ10において生成されたX画像とY画像とZ画像とは、行動監視処理部20に与えられる。行動監視処理部20は、監視する対象者40に関してベッド30に関連した行動を分類する。また、対象者40の行動を分類するには、ベッド30の上における対象者40の存否にかかわらず、ベッド30を抽出する必要がある。したがって、距離画像センサ10は、視野内にベッド30の上の対象者40が含まれるように、距離画像センサ10はベッド30を上方から見下ろす位置に配置される。この条件を満たすために、距離画像センサ10を天井に配置することが可能であるが、既存の室内において天井に距離画像センサ10を設置する工事は手間がかかる。
The X image, the Y image, and the Z image generated by the
したがって、図2(b)に示すように、床に自立するスタンド31の上端部に距離画像センサ10を取り付けた構成を採用するか、図6に示すように、一端部を壁51に取り付けたアーム32の他端部に距離画像センサ10を取り付けた構成が採用される。図2に示す構成では、キャスタ33を備える台板34の上に支柱板35を取り付けたスタンド31を備え、支柱板35の上端部に距離画像センサ10を取り付けてある。また、支柱板35の中間部に、行動監視処理部20を設けてある。
Therefore, as shown in FIG. 2B, a configuration in which the
行動監視処理部20は、報知部24(図1、図3参照)を通して室内または室外に監視の内容を報知する。監視の内容を室外に報知する場合には、構内ネットワーク(LAN)やナースコールシステム通信網を用いて通信を行う。たとえば、病院において病室にスタンド31を設置している場合、報知部24の通知を受ける受信装置をナースセンタに設けておくことにより、行動監視処理部20において分類した対象者の行動をナースセンタに設けた受信装置に通知することが可能になる。以下では、ナースセンタに設けた受信装置に通知する意味で、「ナースセンタに通知する」あるいは「ナースセンタに報知する」と言う。
The behavior
上述のようにキャスタ33を備えたスタンド31に、距離画像センサ10および行動監視処理部20を設けると可動式になるから、所要の場所に移動させることが可能になる。すなわち、対象者40の行動を監視する必要がない部屋にはスタンド31を持ち込む必要がない。また、対象者40の行動を監視する場合でも、図2(a)のように、ベッド30のヘッドボード36と壁面51との間にスタンド31を配置することができるから、配置場所が問題になることはない。
As described above, if the
上述の構成から明らかなように、距離画像センサ10はベッド30よりも高い位置に配置される。実際には、距離画像センサ10は、視野領域である対象空間内にベッド30の全体が含まれる程度の高さに配置される。このような高さ位置に配置することにより、人が距離画像センサ10に不用意に触れることを防止でき、距離画像センサ10を人の邪魔にならないように配置することができる。たとえば、病院において対象者(患者)に処置を施す際に、スタンド31が作業の邪魔にならない。しかも、距離画像センサ10は、対象空間に存在する物体までの距離を非接触で検出するから、対象者の行動を妨げることがなく、また、ベッド30の寝心地を妨げることもない。
As is clear from the above configuration, the
距離画像センサ10は、図2(a)のように、ベッド30を俯瞰することができるように、光軸16A(図5参照)を斜め下向きにして配置される。また、この状態において距離画像センサ10の視野領域にベッド30の上面の全体が含まれるように、光軸16Aの傾き角度(俯角θ)が設定される。ここで、光軸16Aが斜め下向きであることから、ベッド30のヘッドボード36側では、ベッド30の上面までの距離は相対的に小さくなり、ベッド30のフットボード37側では、ベッド30の上面までの距離が相対的に大きくなる。
As shown in FIG. 2A, the
上述したように、本実施形態は、ベッド30を囲むベッド周りカーテン(以下、単に「カーテン」という)が存在している場合を想定し、距離画像センサ10はTOF型を用いている。したがって、カーテンが閉じられた状態では、投光した強度変調光の多重反射により物体までの距離に誤差を生じる可能性がある。すなわち、多重反射が生じる閉塞空間では、開放空間で用いる場合に比較すると得られる距離値が大きくなる可能性がある。これは、対象物までの直線強度変調光に対して周囲で反射した多重反射強度変調光の影響が大きく重畳され、事実上、対象物までの強度変調光が長くなったように復調されるからである。そのため、カーテンの開閉に応じて距離画像センサ10で得られる距離値が変動する可能性がある。距離画像センサ10が生成する距離画像に含まれる距離値がカーテンの開閉に伴って変動すると、距離画像を用いて検知しようとする情報に誤りが生じ、結果的に、認識すべき情報が検出されない未検知や認識すべき情報を過って検知する誤検知につながる。
As described above, the present embodiment assumes a case in which there is a curtain around the bed (hereinafter simply referred to as “curtain”) surrounding the
本実施形態は、図1に示すように、距離画像センサ10の出力を監視する距離変動補正部60を備え、距離変動補正部60によりカーテンの開閉などに対応した距離の変動を監視することにより、未検知や誤検知を防止する構成を採用している。距離変動補正部60は、距離画像センサ10の演算処理部19と同様に、デジタル信号処理装置(マイコン、DSP、FPGAなど)を用いて構成される。すなわち、デジタル信号処理装置においてプログラムを実行することにより、以下に説明する距離変動補正部60の機能が実現される。なお、演算処理部19と距離変動補正部60とを構成するデジタル信号処理装置は、個別に設けるほか、共用してもよい。
As shown in FIG. 1, the present embodiment includes a distance
距離変動補正部60は、図7に示すように、システムの使用開始の時点において距離画像センサ10が出力する距離画像を背景距離画像として記憶する背景画像記憶部61を備える。後述するように、システムの使用開始時において、監視する対象者はベッド30の上で臥床した状態とする。
As shown in FIG. 7, the distance
距離変動補正部60は、距離画像センサ10が出力する距離画像を順に取り込む現画像取得部62を備える。背景画像記憶部61に記憶された背景距離画像と現画像取得部62が取得する距離画像とは、距離変動補正部60に設けられた変動率算出部63において比較され、背景距離画像と新たに取得した距離画像とから変動率が算出される。変動率の演算は後述する。
The distance
変動率算出部63は、求めた変動率を基準範囲と比較し、変動率が基準範囲内であるときに、対象者の動作により変動が生じたのではなく、カーテンの開閉によって(多重反射の影響によって)変動が生じたと判断する。変動率算出部63は、多重反射の影響により生じた変動率の変化を勘案して変動率の代表値を求め、この変動率の代表値を距離変動補正部60に設けられた距離補正部64に引き渡す。距離補正部64は、変動率の代表値に応じて距離画像の距離値を補正し、出力部65を通して補正後の距離画像を行動監視処理部20に引き渡す。
The fluctuation
ところで、多重反射による距離画像の距離値の変動に関するメカニズムは複雑であり、多重反射により生じる事象のシミュレーションを完全に行うことは困難である。つまり、多重反射に起因する距離画像の誤差の補正を完全に行うことは困難である。ただし、上述のような使用環境では、距離画像センサ10からの距離が大きいほど多重反射による距離の変動量が大きく、距離画像センサ10からの距離が小さいと多重反射による距離の変動量も小さくなる。そのため、各々の変動量をその距離で正規化するとその値がおおよそ一定となるという知見が実験から得られている。本実施形態は、この知見を利用し、変動率算出部63が距離画像の画素ごとに変動率を求めて多重反射の影響があるか否かを評価し、さらに、多重反射の影響による変動率の代表値を求め、距離補正部64が変動率の代表値と距離値とを用いて距離画像の補正を行っている。
By the way, the mechanism relating to the variation of the distance value of the distance image due to multiple reflection is complicated, and it is difficult to completely simulate an event caused by multiple reflection. That is, it is difficult to completely correct the error of the distance image due to multiple reflection. However, in the use environment as described above, the greater the distance from the
ここに、変動率算出部63は、距離画像の各画素に対応する変動率kを、k=(背景距離画像の画素値)/(取得した距離画像の画素値)として算出する。距離画像センサ10の視野内で変化が生じなければ変動率kはほぼ一定であり、多重反射の影響の程度や視野内の物体の変位により変動率kが変化する。すなわち、(変動率k)×(距離画像センサ10から取得した距離画像の画素値)を、(補正後の距離画像の画素値)とする補正を行えば、多重反射による距離値の変動に対しては大きな誤差を伴うことなく、画素値を補正することが可能である。
Here, the fluctuation
変動率算出部63は、距離画像から求めた変動率kを基準範囲と比較することにより多重反射の影響があるか否かを評価する。また、変動率算出部63は、多重反射の影響のみで変動率kが変化した画素について、変動率kの代表値を求める。変動率kの代表値は、画素ごとの変動率kの距離画像全体における平均値、画素ごとの変動率kの距離画像内での最大値、距離画像内において最大値から規定割合に属する変動率kの平均値、距離画像内に設定した領域内の平均値などから選択される。
The variation
ところで、変動率は、距離画像センサ10から得られた距離画像と背景距離画像との画素ごとの画素値の比として求めており、上述した例では、距離画像の全体で変動率を求めているから、背景距離画像に含まれる距離値が固定値であることが保証されていない。すなわち、背景距離画像の中に距離値が短時間で変動する領域、つまり物理的に物体が移動することによって生じる距離変動領域が含まれている場合に、当該領域の距離値は変化過程におけるある瞬間の距離値にすぎないから、変動率を求める際の基準として適切ではない。したがって、変動率を精度よく評価するには、距離画像の中で距離値の変化が生じない既知の領域を基準に用いることが好ましい。
By the way, the variation rate is obtained as a ratio of pixel values for each pixel of the distance image obtained from the
距離値が変化しない領域としては、たとえば、ベッド30のフットボード37に相当する領域が用いられる。距離画像センサ10からフットボード37までの距離は、ベッド30を移動させなければ変化しないと考えられる。ただし、ベッド30の上に対象者40が存在していると、距離画像センサ10の視野にフットボード37の全体を含めることが難しい場合がある。そこで、図8に示すように、フットボード37の上に距離値の基準を決めるための観測板45を配置している。
As the area where the distance value does not change, for example, an area corresponding to the
観測板45は、フットボード37の上端から上方に延長されるように配置される。距離画像から観測板45を抽出するには、距離画像を行動監視処理部20に与え、ベッド認識部21が後述する処理を行うことにより、ベッド30の範囲を検出する。ベッド認識部21は、距離画像からベッド30の範囲を検出すると、フットボード37に相当する領域を算出し、さらに、フットボード37に相当する領域を用いて観測板45に相当する領域S{i,j}を算出する。
The
いま、背景距離画像として、図9(a)に示すように、カーテンを開いた状態の距離画像が保存されているときに、図9(b)に示すように、カーテン46を閉じた状態の距離画像が得られたとする。ここで、背景距離画像と距離画像センサ10から取得した距離画像とについて、観測板45に相当する領域S{i,j}に含まれる画素ごとの距離値を、それぞれbg(i,j)、fg(i,j)とする。したがって、各画素の変動率k(i,j)は、k(i,j)=bg(i,j)/fg(i,j)と表される。
As shown in FIG. 9A, when the distance image with the curtain opened is stored as the background distance image, the
観測板45に相当する領域S{i,j}は、カーテン46の開閉にかかわらず距離の変動が生じないこと、すなわち、変動率k(i,j)がほぼ1になることが期待される。しかしながら、実際には、多重反射の有無あるいは対象者40の移動によって、変動率k(i,j)が変化する。
In the region S {i, j} corresponding to the
ベッド30の上の対象者40が移動した場合、距離画像センサ10の視野内において観測板45の一部が対象者40に遮蔽されるから、領域S{i,j}において変動率k(i,j)が比較的大きく変動する箇所が生じる。一方、ベッド30の周囲環境や距離画像センサ10の仕様にもよるが、カーテン46の開閉に伴う多重反射の影響では、変動率k(i,j)の限界値は、おおむね1.0±0.1になるという実験結果が得られた。
When the
この結果を踏まえて、変動率算出部63は、変動率k(i,j)が0.9〜1.1であれば、多重反射による距離変動と判定し、変動率k(i,j)が0.9未満または1.1超であれば、対象者40が移動したと判定するように構成される。距離が2m程度の範囲であれば、0.1(10%)の変動率k(i,j)は、20cmに相当する。対象者40の動作や対象者40のサイズを考慮すれば、対象者40が移動したときに、距離の変化が20cm以下になることはほとんどないと考えられる。したがって、変動率算出部63において、変動率k(i,j)を基準範囲(0.9〜1.1)と比較することにより、多重反射の影響による変化か、対象者40の移動による変化かを判別できる。
Based on this result, if the fluctuation rate k (i, j) is 0.9 to 1.1, the fluctuation
距離補正部64は、上述したように、変動率算出部63が算出した変動率k(i,j)を、距離画像センサ10から取得した距離画像の距離値に乗じることによって、距離値を補正し、この距離値を出力部65から出力する。
As described above, the distance correction unit 64 corrects the distance value by multiplying the distance value of the distance image acquired from the
変動率算出部63と距離補正部64との動作例を図10に示す。図10に示す動作例では、変動率の代表値として対象者40の存在範囲を除く変動率の平均値を用いている。
An example of the operation of the fluctuation
変動率算出部63は、背景画像記憶部61に記憶された背景距離画像と、現画像取得部62が距離画像センサ10から取得した距離画像とから観測板45に相当する領域S{i,j}を抽出する(S11)。
The fluctuation
その後、領域S{i,j}に含まれる画素{i,j}ごとに、変動率k(i,j)を算出し(S13)、変動率k(i,j)を基準範囲(0.9〜1.1)と比較する(S14)。変動率k(i,j)が基準範囲内である場合(S14:Yes)、変動率k(i,j)の合計と該当する画素の個数とを求める(S15)。変動率k(i,j)が基準範囲を超える場合は(S14:No)、該当する画素{i,j}を無視する。 Thereafter, for each pixel {i, j} included in the region S {i, j}, a variation rate k (i, j) is calculated (S13), and the variation rate k (i, j) is calculated as the reference range (0. 9-1.1) (S14). When the variation rate k (i, j) is within the reference range (S14: Yes), the total variation rate k (i, j) and the number of corresponding pixels are obtained (S15). When the variation rate k (i, j) exceeds the reference range (S14: No), the corresponding pixel {i, j} is ignored.
上述したステップS13〜S15の処理は、領域S{i,j}の中のすべての画素{i,j}について行われる(S12,S16)。さらに、ステップS15で求めた変動率k(i,j)の合計を、画素の個数で除算することにより、変動率k(i,j)が基準範囲内である画素{i,j}について、変動率k(i,j)の平均値を求める(S17)。図10に示す動作例では、この平均値を変動率k(i,j)の代表値に用いている。求められた変動率k(i,j)の代表値は、対象者40の移動により距離値が変化した画素を除いて求めた変動率k(i,j)の代表値になる。 The processes in steps S13 to S15 described above are performed for all the pixels {i, j} in the region S {i, j} (S12, S16). Further, by dividing the sum of the variation rates k (i, j) obtained in step S15 by the number of pixels, for the pixel {i, j} where the variation rate k (i, j) is within the reference range, An average value of the fluctuation rates k (i, j) is obtained (S17). In the operation example shown in FIG. 10, this average value is used as a representative value of the fluctuation rate k (i, j). The representative value of the obtained variation rate k (i, j) is the representative value of the variation rate k (i, j) obtained by excluding pixels whose distance value has changed due to the movement of the subject 40.
次に、距離補正部64は、現画像取得部62が取得した距離画像の全画素の距離値に対して、変動率算出部63が算出した変動率k(i,j)の代表値を乗じて距離値を補正する(S19)。距離値の補正は、距離画像の全画素について行う(S18,S20)。距離補正部64は、補正後の距離値を持つ距離画像を出力部65を通して出力する(S21)。このように、距離画像の全がその距離値に変動率k(i,j)の代表値を乗じて距離値を補正することにより、距離画像センサ10の視野内において対象者40を含むすべての画素から多重反射の影響を軽減することができる。
Next, the distance correction unit 64 multiplies the distance value of all the pixels of the distance image acquired by the current
上述のように補正後の距離値を持つ距離画像によって行動監視処理部20における処理を行うから、カーテン46の開閉などにより生じた多重反射の影響を抑制して、行動監視処理部20での判断を精度よく行うことが可能になり、しかも、対象者40の動作を多重反射と誤認することが防止される。なお、観測板45を設ける部位はフットボード37に制限されず、距離画像センサ10の視野内であれば適宜の部位に観測板45を配置することが可能である。
As described above, since the process in the behavior
ところで、観測板45をフットボード37に取り付けていると、変動率k(i,j)を求める領域S{i,j}が、臥床中の対象者40の動作によって遮られず、変動率k(i,j)の代表値を精度よく求めることができる。ただし、フットボード37に観測板45を取り付けるための手間がかかる。観測板45はフットボード37と一体化することが可能であるが、その場合、特別な形状のフットボード37が必要になる。
By the way, when the
以下では、観測板45を設けずに変動率k(i,j)によって多重反射の影響を評価する技術について説明する。変動率k(i,j)により多重反射の影響の有無を判断する際には、着目した領域S{i,j}の画素{i,j}ごとに対象者40の移動を伴うか否かを判別しているから、領域S{i,j}における距離値の若干の変化は許容される。そこで、ベッド30のフットボード37ではなく、変動率k(i,j)を求める領S{i,j}をベッド30の内側の領域としてもよい。たとえば、掛け布団の上面であれば、比較的広い範囲に亘って距離値の変動が少ない領域が生じる。
In the following, a technique for evaluating the influence of multiple reflections using the variation rate k (i, j) without providing the
ベッド30の上に領域S{i,j}が設定されると、多重反射の影響による距離値の変化だけではなく、対象者40の移動による距離値の変化も大きくなる。ただし、領域S{i,j}の画素{i,j}ごとに変動率k(i,j)を評価するから、対象者40の移動により距離値が変化している画素を除去して変動率k(i,j)を評価可能であり、変動率k(i,j)の代表値を比較的精度よく求めることが可能である。たとえば、2m程度の距離範囲であれば、多重反射による20cm(10%)程度の距離値の変化に対して、対象者40の移動による距離値の変化は40cm(20%)以上になると考えられ、適宜に閾値を設定すれば、両者を判別することが可能になる。
When the region S {i, j} is set on the
このように、掛け布団の上面の適宜の領域やベッド30の全面などを用いて変動率k(i,j)を評価することにより、観測板45を用いなくとも多重反射の影響による距離値の変化を検出し、距離値を補正することが可能になる。
As described above, the variation rate k (i, j) is evaluated using an appropriate region on the upper surface of the comforter, the entire surface of the
以下、行動監視処理部20について、さらに詳しく説明する。対象者40の行動を分類するには、上述したように、距離画像センサ10が出力した距離画像からベッド30を抽出する必要がある。したがって、行動監視処理部20は、距離画像に含まれる情報を用いてベッド30を認識するベッド認識部21を備える。また、ベッド認識部21によりベッド30が認識されるから、距離画像に含まれる情報とベッド30との相対関係を用いることによって、対象空間における人の存否を認識することが可能になる。
Hereinafter, the behavior
さらに、行動監視処理部20には、ベッド認識部21が認識したベッド30と他の物体との関係から人の存否を認識する人認識部22が設けられる。加えて、行動監視処理部20は、ベッド認識部21による認識と人認識部22による認識とを総合することにより、対象者の行動を分類し、必要に応じて行動に対する報知を行う行動判定部23を備える。
Further, the behavior
ベッド認識部21は、まず、ベッド30の位置を認識するために、ベッド30を平面視した場合のベッド30の外周を検出する。一般的なベッド30は平面視において四角形状であるから、ベッド認識部21では、ベッド30の4辺を抽出することにより、ベッド30の位置を認識する。
First, the
本実施形態では、ベッド30の既知位置に目標物を設け、目標物の位置を基準に用いることにより、ベッド30の4辺の抽出を容易にしている。目標物はベッド30の4辺のいずれか1辺に設けられていればよいが、距離画像センサ10をベッド30のヘッドボード36側に配置するから、目標物が距離画像センサ10の視野内に入りやすいように、目標物はフットボード37側に設けることが好ましい。
In the present embodiment, a target is provided at a known position of the
図11に示す例では、目標物としてフットボード37に3個のマーカP0,P1,P2を取り付けている。マーカP1は、フットボード37の上端部における左右方向の中心位置に取り付けられ、マーカP0,P2は、マーカP1の左右に離れてフットボード37に取り付けられる。すなわち、マーカP0,P2はマーカP1を挟んで対称に配置される。マーカP1とマーカP0,P2とは距離を可能な範囲で大きくとることが好ましい。また、マーカP0,P1,P2は、ベッド30の上面からの高さが揃えられている。マーカP0,P1,P2は、高反射性であることが好ましく、たとえば、再帰反射性が付与される。マーカP0,P1,P2は、フットボード37に貼付可能となるように片面に粘着材が塗られていることが好ましい。さらに、マーカP0,P1,P2は、監視対象となるベッド30にあらかじめ貼付しておけばよく、貼付と剥離とを繰り返す必要はない。
In the example shown in FIG. 11, three markers P0, P1, and P2 are attached to the
ベッド認識部21において、ベッド30の1辺に配置したマーカP0,P1,P2の位置を抽出するには、まず反射強度画像を生成する。反射強度画像では、マーカP0,P1,P2の部位の明度が周囲よりも高くなるから、明度に適宜の閾値を適用して反射強度画像から二値画像を生成すると、マーカP0,P1,P2のみが二値画像内に抽出される。なお、反射強度画像から二値画像を生成する閾値は、固定閾値と浮動閾値とのどちらでもよい。マーカP0,P1,P2の反射率が周囲に比較して十分に大きい場合は固定閾値を用いればよく、周囲の物体の反射率とマーカP0,P1,P2の反射率との差が小さい場合は浮動閾値を用いればよい。マーカP0,P1,P2の誤検出を防止するには、反射強度画像から既知位置のマーカP0,P1,P2を抽出する領域をあらかじめ制限しておくことが好ましい。
In order to extract the positions of the markers P0, P1, and P2 arranged on one side of the
反射強度画像を用いてマーカP0,P1,P2に対応する画素の位置が求められると、距離画像を用いることにより、当該画素に対応する3次元位置が求められる。すなわち、カメラ座標系におけるマーカP0,P1,P2の3次元位置が求められる。したがって、X画像とY画像とを用いると、マーカP0,P1,P2に対応したX値とY値とが求められ、図12のように、グローバル座標系におけるマーカP0,P1,P2に対応する点WP0,WP1,WP2の座標位置が求められる。なお、マーカP0,P1,P2には大きさがあるから、マーカP0,P1,P2に対応する領域の代表点(たとえば、重心)の座標位置を点WP0,WP1,WP2の座標位置とする。また、グローバル座標系において鉛直下向きがZ方向の正の向きであって、ベッド認識部21は、床面上でのベッド30の周縁の位置を検出すればよいからZ値は求めない。
When the position of the pixel corresponding to the markers P0, P1, and P2 is obtained using the reflection intensity image, the three-dimensional position corresponding to the pixel is obtained by using the distance image. That is, the three-dimensional positions of the markers P0, P1, and P2 in the camera coordinate system are obtained. Therefore, when the X image and the Y image are used, the X value and the Y value corresponding to the markers P0, P1, and P2 are obtained, and the markers correspond to the markers P0, P1, and P2 in the global coordinate system as shown in FIG. The coordinate positions of the points WP0, WP1, and WP2 are obtained. Since the markers P0, P1, and P2 have sizes, the coordinate position of the representative point (for example, the center of gravity) in the area corresponding to the markers P0, P1, and P2 is set as the coordinate position of the points WP0, WP1, and WP2. In the global coordinate system, the vertical downward direction is the positive direction of the Z direction, and the
上述のようにしてXY平面に平行な面内でのマーカP0,P1,P2に対応する点WP0,WP1,WP2の座標位置が求められると、ベッド認識部21は、3個の点WP0,WP1,WP2を通る近似直線L0を求める。近似直線L0は、たとえば最小二乗法を用いて求められる。求められた近似直線L0は、XY平面においてフットボード37を通る直線とみなせる。すなわち、近似直線L0は、ベッド30の一つの端縁を規定すると言える。また、点WP1は、フットボード37の中央に位置しているから、点WP1から近似直線L0に下ろした垂線の足の座標位置は、マーカP0〜P2から得られたフットボード37の中央の座標位置とみなせる。以下では、点WP1から近似直線L0に下ろした垂線の足に対応する点をWP4とする。
When the coordinate positions of the points WP0, WP1, WP2 corresponding to the markers P0, P1, P2 in the plane parallel to the XY plane are obtained as described above, the
XY平面に平行な面内において、点WP4を中心としてベッド30の左右幅Dを直径とする円を設定し、この円と近似直線L0との交点C0,C1を求めると、交点C0,C1はベッド30の左右の端縁とフットボード37との交点に対応することになる。ここに、ベッド30の左右幅Dは既知寸法を用いる。したがって、交点C0,C1を通り近似直線L0に直交する直線L2,L3を求めると、直線L2,L3は、ベッド30の左右の端縁を通る直線とみなせる。ここに、直線L2,L3は近似直線L0に対してX座標の座標値が小さくなる方向に延長される。
In a plane parallel to the XY plane, a circle whose diameter is the left-right width D of the
最後に、交点C0を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L2との交点C2を求め、また、交点C1を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L3との交点C3を求める。交点C2,C3を通る直線L1を設定すれば、直線L1はベッド30のヘッドボード36を通る直線とみなせる。ここに、ベッド30の長さWは既知寸法を用いる。
Finally, a circle whose radius is the length W of the
ベッド認識部21は、上述した手順によって、ベッド30を囲む4つの端縁に相当する4本の直線L0,L1,L2,L3を求める。また、このとき、ベッド30の四隅に相当する4個の交点C0,C1,C2,C3も求められる。さらに、ベッド認識部21は、グローバル座標系におけるXY平面内での座標軸に対するベッド30の傾きを求める。ベッド30の傾きは、グローバル座標の1つの座標軸(たとえば、X軸)に対して直線(たとえば、直線L2)がなす角度Φとして求められる。なお、角度Φは、グローバル座標のX軸またはY軸と、4本の直線L0,L1,L2,L3のいずれかとがなす角度によって求められる。このように、ベッド30がグローバル座標系の座標軸に対して傾いて配置されている場合でも、ベッド認識部21は、上述の処理により、ベッド30の位置を精度よく検出することになる。
The
ベッド30の4辺を求めた後には、4辺に囲まれた矩形の内側の領域をベッド30の範囲内の領域とする。すなわち、長手方向と短手方向(左右方向)との端縁に囲まれた矩形の領域をベッド30の範囲内とする。
After obtaining the four sides of the
上述した動作例では、3個のマーカP0,P1,P2を用いているが、フットボード37の左右の中心にマーカP1が配置されていれば、残りのマーカの個数にはとくに制限はなく、1個以上のマーカがあればよい。たとえば、4個以上のマーカを設けることによって、フットボード37を通る直線と近似直線L0との誤差が低減される可能性がある。
In the operation example described above, three markers P0, P1, and P2 are used. However, if the marker P1 is arranged at the center of the left and right of the
上述した例では、フットボード37に3個のマーカP1,P1,P2が配置されているが、図13に示すように、ベッド30のフットボード37とベッド30の左右の各側縁(サイドレール)とに1個ずつのマーカP10,P11,P12が配置されていてもよい。フットボード37については、上述した例と同様に、左右方向の中心にマーカP11が配置される。マーカP10,P12は、ベッド30の左右の端縁であれば、XY平面内での位置およびZ方向の高さに制限はない。
In the example described above, the three markers P1, P1, and P2 are arranged on the
各マーカP10,P11,P12は、上述の例と同様に、高反射性であってベッド30に貼付されることが好ましい。ベッド認識部21は、上述の例と同様に、反射強度画像から画像内でのマーカP10,P11,P12の位置を求め、さらに、距離画像からマーカP10,P11,P12の3次元位置を求める。ここに、マーカP10,P11,P12の誤検出を防止するために、反射強度画像から既知位置のマーカP10,P11,P12を抽出する領域を、フットボード37とサイドレールとの範囲にあらかじめ制限しておくことが好ましい。さらに、ベッド認識部21は、X画像とY画像とを用いて、図14のように、マーカP10、P11,P12のグローバル座標系での点WP10,WP11,WP12の座標位置を求める。
Each marker P10, P11, P12 is preferably highly reflective and is affixed to the
ベッド認識部21は、ベッド30の4辺を認識するために、まず、点WP10と点WP12とを結ぶ線分を求め、この線分の中点WPmを求める。ベッド30が矩形状であるという前提に基づけば、中点WPmはベッド30の左右幅を2分する中心線Lmの上に位置していることになる。したがって、点WP11と点Pmとを通る直線が、ベッド30の中心線Lmになる。また、中心線Lmに直交し点WP11を通る直線L10を設定する。この直線L10は、ベッド30のフットボード37を通る直線に相当する。
In order to recognize the four sides of the
ベッド認識部21は、中心線Lmを求めた後、点WP10と中心線Lmとの距離D1および点WP12と中心線Lmとの距離D2をそれぞれ求める。両距離D1,D2の合計はベッド30の左右幅Dに相当するから、点WP11を中心とする直径Dの円を設定し、この円と直線L10との交点C10,C11を求めると、交点C10,C11はベッド30の左右の端縁とフットボード37との交点に対応する。交点C10,C11を通り中心線Lmに平行な直線L12,L13を求めると、直線L12,L13は、ベッド30の左右の端縁を通る直線とみなせる。ここに、直線L12,L13は直線L10に対してX座標の座標値が小さくなる方向に延長される。なお、直線L12,L13を求めるにあたり、交点C10と点WP10とを通る直線をL12とし、交点C12と点WP12とを通る直線をL13としてもよい。
After obtaining the center line Lm, the
ベッド30のヘッドボード36に対応する直線L11を求める手順は、上述した例と同様である。すなわち、交点C10を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L12との交点C12を求め、また、交点C11を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L13との交点C13を求める。交点C12,C13を通る直線L11は、ベッド30のヘッドボード36を通る直線とみなせる。ベッド30の長さWは既知寸法を用いる。
The procedure for obtaining the straight line L11 corresponding to the
このように、ベッド30の3辺にそれぞれマーカP10,P11,P12を配置してもベッド30の4辺に相当する直線L10,L11,L12,L13が求められる。この手順を採用する場合、マーカの個数を増やせば、中心線Lmの検出精度が向上する。
Thus, even if the markers P10, P11, and P12 are arranged on the three sides of the
サイドレールにマーカP10,P12を設けることによってベッド30の位置を検出する処理を採用する場合、サイドレールにマーカP10,P12をあらかじめ取り付けておくことが好ましい。また、ベッド認識部21は、マーカP10,P12が検出されずマーカの個数が不足しているときに報知部24を通して警告報知を行うことが好ましい。この動作を採用すると、サイドレールが未設置であるときに、マーカP10,P12が検出されないことによって警告が報知されるから、サイドレールの設置忘れが防止される。とくに、ベッド30の利用者の離床に注意する必要がある場合、ベッド30からの転落を防止するために3点程度の柵をベッド30に取り付けることが一般的である。したがって、ベッド30の位置を特定できるだけではなく、サイドレールの設置忘れを報知できることは利便性を向上させることになる。
When adopting a process of detecting the position of the
上述したいずれかの手順によってベッド30の4辺を検出すれば、ベッド30の周囲においてベッド30と同程度の高さを有した部材や造作があっても、それらに影響されることなく、ベッド30の範囲を精度よく、かつ再現性よく検出することが可能になる。
If the four sides of the
ところで、距離画像センサ10の視野領域にベッド30の各端縁が含まれていても、視野領域の周部に余裕がなければ対象者40の行動を判断することができない。そこで、距離画像センサ10の視野領域において、ベッド30の周囲にベッド30以外の領域が含まれることを保証するために以下の判定を行う。
Xmax−Xs≧Mgx1
Xi−Xmin≧Mgx2
Ymax−Ys≧Mgy1
Yi−Ymin≧Mgy2
ここに、Xmaxは視野領域のX方向におけるX値の最大値、Xminは視野領域のX方向におけるX値の最小値、Ymaxは視野領域のY方向におけるY値の最大値、Yminは視野領域のY方向におけるY値の最小値である。また、ベッド30の周囲に設定したい余裕寸法をMgx1,Mgx2,Mgy1,Mgy2としている。この場合、余裕寸法Mgx1,Mgx2,Mgy1,Mgy2は、室内におけるベッド30の配置やベッド30に対する距離画像センサ10の配置によって異なる値になるから、図示しない設定手段により設定可能であることが望ましい。なお、本実施形態の場合、距離画像センサ10を設けたスタンド31をベッド30のヘッドボードと壁面との間に配置しているから(図1参照)、ヘッドボード側の余裕寸法Mg2は必ずしも用いなくてもよい。
By the way, even if each edge of the
Xmax−Xs ≧ Mgx1
Xi-Xmin ≧ Mgx2
Ymax−Ys ≧ Mgy1
Yi-Ymin ≧ Mgy2
Here, Xmax is the maximum value of the X value in the X direction of the visual field area, Xmin is the minimum value of the X value in the X direction of the visual field area, Ymax is the maximum value of the Y value in the Y direction of the visual field area, and Ymin is the visual field area. This is the minimum Y value in the Y direction. Further, margin dimensions to be set around the
上述の判定の条件が1つでも満たされない場合には、図15のように視野範囲Fvがベッド30からずれていると判定し、距離画像センサ10の位置設定が不適切であることを報知部24により報知するのが望ましい。図15に示す例では、ベッド30の長手方向の一方の端部が視野領域Fvに含まれないからXmax=Xsになり、またベッド30の短手方向の一方の端縁が視野領域Fvに含まれないからYmin=Yiになっている。したがって、Xmax−Xs≧Mgx1という条件と、Yi−Ymin≧Mgy2という条件が満たされないことになる。このような判断を行うことにより、ベッド30に対する対象者40の出入りの行動を監視することが可能になる。
When even one of the above-described determination conditions is not satisfied, it is determined that the field-of-view range Fv is deviated from the
ベッド認識部21は、ベッド30の位置を認識すると、次に、ベッド30の上面の位置を検出する。以下では、ベッド30の上面をベッド面と呼ぶ。ベッド面の高さを検出するにあたっては、ベッド30の上に対象者40が寝ている状態(この状態を「臥床」という)を想定する。対象者40が臥床している状態では、ベッド30の上に対象者40および掛け布団のような寝具が載っている。上述したグローバル座標系では、実空間の下向きをZ軸の正の向きにとっているが、実空間について高さに関する説明を行う場合には、上向きを値が増加する向きにとる。すなわち、Z方向においてZ値が増加する向きを、高さ方向において高さが減少する向きとして扱う。
When the
ベッド認識部21では、図16(a)のように、ベッド30の範囲内を長手方向において規定個数(たとえば、10)の分割領域38に分割する。分割領域38の個数はベッド30の長手方向の寸法にもよるが、1つの分割領域38が10〜20cm程度の幅になるように個数を定める。次に各分割領域38の高さに関する代表値を求める。代表値には、平均値と最頻値とのいずれかを用いればよい。
The
平均値を用いる場合は、Z画像から各分割領域38に属する位置(u,v)を求め、分割領域38ごとのZ値の平均値を求める。一方、最頻値を用いる場合には、Z画像について各分割領域38に属する位置(u,v)を求め、分割領域38ごとのZ値の度数分布を求め、さらに、求めた度数分布から最頻値を求める。分割領域38の場所にもよるが、この度数分布では、ベッド面の度数あるいは寝具の上面の度数が高くなり、ついで対象者40に相当する度数が高くなると考えられる。これは、ベッド30の上で、ベッド面あるいは寝具の占める領域(面積)のほうが対象者40の占める領域よりも大きいという知見に基づいている。
When using the average value, the position (u, v) belonging to each divided
各分割領域38から上述のようにして高さに関する代表値を求めると、図16(b)の実線のように代表値Vtが分布することになる。また、代表値Vtから人の厚みを考慮したオフセット値を減算して(Z値の場合は加算して)ベッド面の高さとして用いる。人の厚みは、個人差があるが、たとえば20cmなどの値を用い、その半分の値をオフセット値に用いる。オフセット値については、特段の条件はないから、代表値からオフセット値を減算した値が多くの分割領域38においてベッド面の高さとなるように適宜に設定する。図16(b)の破線は、代表値Vtからオフセット値を減算した値の例を示している。このようにして分割領域38ごとに求めたベッド面の高さが、分割領域38ごとの基準の高さになる。
When the representative value regarding the height is obtained from each divided
以後の処理では、分割領域38ごとのベッド面の集合を、ベッド30の全体におけるベッド面として扱う。また、ベッド30の全体ではなく長手方向に分割した分割領域38を用いるから、ベッド30がリクライニング式であってベッド面が平面ではない場合にも、ベッド30の部分ごとに求めたベッド面を用いることにより、対象者40と分離することが可能になる。
In the subsequent processing, a set of bed surfaces for each divided
ところで、上述した例では、ベッド30の上の対象者40が臥床の状態である場合を想定してベッド面の高さを求めているが、図17のように、対象者40がベッド30の上で起き上がっている場合、上述のようにして求めたベッド面の高さ(図17においてVhで表している)は適切と言えない。したがって、分割領域38ごとに高さに上限値を設け、ベッド面の高さVhとして求めた値が上限値を超える場合には、ベッド面Vhの高さとして採用できないことを報知部24により報知する。
By the way, in the above-described example, the height of the bed surface is obtained on the assumption that the subject 40 on the
ここに、ベッド30におけるベッド面の計測は、システムの使用開始を指示した直後に行われるので、報知部24から報知することによって、適切な対応を行うことが可能になる。なお、システムの使用開始の指示は、運転開始のスイッチ(図示せず)を投入する操作などを意味する。また、適切な対応とは、対象者40を正しい位置で臥床の状態にした後、システムの使用開始の指示を再度与えることを意味している。
Here, since the measurement of the bed surface in the
上述したベッド30は、ベッド面の高さが固定である場合を想定しているが、看護や介護の作業を容易にするために、ベッド面の高さを変更することができる昇降式のベッド30も提供されている。昇降式のベッド30では、看護や介護の作業後にベッド面を下げるのを忘れていると、ベッド面が通常よりも高くなるから、対象者40がベッド30から離床する際には足が床に届きにくくなり、対象者40がベッド30から落下したときには衝撃が大きくなる。したがって、作業後にはベッド面を必ず下げる必要がある。
The
ベッド30が昇降式である場合には、図18のように、看護や介護の作業中にはベッド面の下限が所定の高さ閾値Thhを超えると考えられるから、高さ閾値Thhを適宜に設定することにより、ベッド面が上昇していることを検出することができる。すなわち、すべての分割領域38について求めたベッド面の高さが、高さ閾値Thhを超えている場合には、ベッド面が上昇したままであると判断して報知部24から報知する。
When the
ここにおいて、介護や看護の作業中には、対象者40の監視は不要であるから、システムの動作を一旦停止させ、作業の終了後にシステムの動作を再開する。したがって、作業の終了後に、システムの動作を再開する指示を与えたときに、ベッド面の高さの異常が報知されることになり、ベッド面の下げ忘れを防止することができる。
Here, since monitoring of the
また、図19のように、ベッド30の上にテーブル39を出した場合に、テーブル39をしまい忘れる場合がある。これに対して、テーブル39に相当する分割領域38において高さ閾値Thhをテーブル39の高さが検出できるように設定しておけば、テーブル39のしまい忘れを報知部24により報知することが可能になる。
Further, as shown in FIG. 19, when the table 39 is placed on the
ベッド30の下げ忘れとテーブル39のしまい忘れとの両方を検出する場合には、高さ閾値Thhを適宜に定めるとともに、所定個数以上の分割領域38において高さ閾値Thhを超える場合に、報知部24から報知するようにしてもよい。高さ閾値Thhを用いた判定は、ベッド面の計測と同様に、システムの使用開始を開始する指示の直後に行われるから、問題が生じていれば報知部24からただちに報知される。したがって、ベッド30を下げたり、テーブル39を片付けたりするような適正な対応が可能になる。その後は、システムの使用開始の指示を再度与えればよい。
In the case of detecting both forgetting to lower the
ベッド30がリクライニングの機能を備え、図20のように、対象者40の上半身を起こすことができる場合には、高さ閾値Thhによる判定を下半身側の複数個(図示例では5個)の分割領域38においてのみ行えばよい。距離画像内でのベッド30の位置は既知であるから、たとえば、(Xs+Xi)/2よりもX値が大きくなる分割領域38についてのみ高さ閾値Thhによる判定を行えばよい。このように高さ閾値Thhによる判定を行う範囲を、定式化して自動的に決定することができるから、人手による調整作業が不要である。
When the
ところで、ベッド30の周辺には、様々な装置が配置されることがあり、たとえば、図21に示すように、ベッド30の上方に対象者40ではない物体41が重なって配置されていることがある。この種の物体41としては、たとえば、照明スタンド、モニタ装置、種々の医療装置がある。
By the way, various devices may be arranged around the
このような物体41がベッド30に重なっている場合、対象者40を検知する領域から除外する必要がある。そのため、看護師あるいは介護士が装置を起動させ、ベッド30の位置をベッド認識部21に認識させる際に、物体41の領域をベッド30の領域から除外する処理も行うことが好ましい。すなわち、距離画像センサ10の視野において、ベッド30に物体41が重複している領域を、図22のように、マスク領域42として除外した状態で記憶しておけばよい。マスク領域42は、人認識部22が対象者40を認識する際には、ベッド30の範囲外の領域として扱うことになり、物体41を対象者40と誤認するのを防止できる。
When such an
マスク領域42は、ベッド認識部21がベッド30の位置を抽出した直後に設定する。すなわち、ベッド認識部21は、看護師あるいは介護士が装置を操作することにより、ベッド30の位置を認識した直後にマスク領域42の有無を判断する処理を行う。ベッド認識部21は、図23に示すように、ベッド30の範囲内であって分割領域38ごとに求めた基準の高さ(ベッド面の高さ)に対して規定の除外閾値よりも上方に物体41が存在するとき、その物体41の存在範囲をマスク領域42とする。除外閾値は、実状に即して適宜に設定される。このようにして設定されたマスク領域42は、対象者40を認識する際に除外される領域として扱うためにベッド認識部21において記憶される。
The
上述の動作では、分割領域38ごとの基準の高さとしてベッド面の高さを用いているが、ベッド認識部21にベッド30の位置を認識させるときには、対象者40がベッド30に存在するから、後述する臥床検知面Pd(図24参照)を基準の高さに用いることが好ましい。臥床検知面Pdは、対象者40がベッド30の上で対象者40が仰臥している状態における基準の高さである。このように、基準の高さとして臥床検知面Pdを用いると、対象者40の存在する領域をマスク領域42と誤認するのを防止できる。ただし、臥床検知面Pdをベッド面から一定高さに規定している場合は、臥床検知面Pdを基準の高さに用いることと、ベッド面を基準の高さに用いることとは等価である。
In the above-described operation, the height of the bed surface is used as the reference height for each divided
なお、マスク領域42については大きさを評価し、規定した閾値を超える大きさのマスク領域42が存在する場合には、テーブルなどが置かれた状態と判断する。この場合、対象者40を認識する際の信頼性を保つことができず、また、対象者40が物体41に接触する可能性があるから、マスク領域42を設定する代わりに物体41の設置不良として報知部24から報知することが好ましい。
It should be noted that the size of the
以下では、人認識部22により対象者40を認識する技術について説明する。上述したように、ベッド認識部21ではベッド面を検出しているから、人認識部22はベッド面を基準に用いて複数段階の検知面を設定する。ここでは、ベッド30の上での状態として、臥床の状態、上半身を起こした起き上がりの状態、立ち上がった起立の状態の3状態を想定する。それぞれの状態を検出するには、図24のように、ベッド面Pbとして規定される分割領域38ごとの高さを基準に用いて、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psを設定する。
Below, the technique which recognizes the subject 40 by the
臥床検知面Pd、起き上がり検知面Pr、起立検知面Psは、それぞれベッド面PbをZ方向に所定量だけ変位させて設定してある。すなわち、ベッド面Pbは、分割領域38ごとにZ値が定められているから、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psも分割領域38ごとに上方に所定距離だけ離間させて定められる。また、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psの順にベッド面Pbからの距離が大きくなる。一例を示すと、臥床検知面Pdをベッド面Pbから10cm上方、起き上がり検知面Prをベッド面Pbから30cm上方、起立検知面Psをベッド面Pbから60cm上方などに設定する。臥床検知面Pd、起き上がり検知面Pr、起立検知面Psは、ベッド30の上での人の位置を検出するための閾値として用いる。
The bed detection surface Pd, the rising detection surface Pr, and the standing detection surface Ps are set by displacing the bed surface Pb by a predetermined amount in the Z direction. That is, since the bed surface Pb has a Z value determined for each divided
人認識部22では、ベッド30の領域内において、臥床検知面Pdよりも上方に物体が存在し、起き上がり検知面Prよりも上方に物体が存在しなければ、対象者40が臥床の状態であると判定する。また、起き上がり検知面Prよりも上方に物体が存在し、起立検知面Psよりも上方に物体が存在しなければ、対象者40が上半身を起こした起き上がりの状態と判定する。起き上がり検知面Prはベッド面の上方に設定されるから、適正な起き上がり検知面Prを設定しておけば、寝返りや布団の浮き上がりを起き上がりと判定する誤検知はほとんど生じない。また、起立検知面Psよりも上方に物体が存在する場合には、対象者40がベッド30の上で立ち上がっていると判断される。
In the
上述のように、人認識部22では、ベッド面Pbを基準に設定した検知面を用いて対象者40の状態を検知している。この処理は、たとえば、ベッド30に対象者40が居ない状態での画像との差分画像を用いる場合に比較すると処理が単純である上に、背景画像を撮像する手間もかからないという利点がある。また、差分画像を用いた場合に、布団などの物体も差分として検出されるから、対象者40との区別が困難であるが、検知面を用いて対象者40の状態を判定すれば、この問題は生じない。
As described above, the
上述の例では、3状態を区別して検出するために、ベッド面Pbの上に3段階の検知面を設定しているが、検知面を3段階に設定することは必須ではなく、1段階または2段階に設定することや、4段階以上の検知面を設定することも可能である。たとえば、システムの使用開始の状態を臥床の状態とする場合には、臥床の状態は必ずしも検知しなくてもよい。すなわち、臥床ではない状態、すなわち、起き上がりの状態や起立の状態を検出できればよく、この場合には2段階の検知面を設定すればよいことになる。 In the above-described example, in order to distinguish and detect the three states, a three-step detection surface is set on the bed surface Pb. However, it is not essential to set the detection surface in three steps. It is possible to set in two steps, or to set four or more detection surfaces. For example, when the state of the start of use of the system is set to the bed state, the bed state may not necessarily be detected. That is, it is only necessary to detect a state that is not a bed, that is, a rising state or a standing state, and in this case, a two-step detection surface may be set.
また、上述の動作において、検知面に対する物体の高さ位置のみを用いているが、検知面によって切り取った面積を用いることにより、物体の大きさも併せて判断してもよい。たとえば、臥床の状態では、Z画像内において臥床検知面Pdで切り取られる面積は、起き上がり検知面Prと起立検知面Psで切り取られる面積よりも大きい。また、起き上がりの状態では臥床の状態に比較すると、Z画像内において臥床検知面Pdで切り取られる面積が小さくなり、起き上がり検知面Prで切り取られる面積が増加する。このような面積の関係を用いることにより、対象者40の状態(姿勢)をより正確に把握することが可能になる。
In the above-described operation, only the height position of the object with respect to the detection surface is used, but the size of the object may also be determined by using the area cut out by the detection surface. For example, in the state of the bed, the area cut out by the bed detection surface Pd in the Z image is larger than the area cut out by the rising detection surface Pr and the standing detection surface Ps. In addition, in the rising state, the area cut out on the bed detection surface Pd in the Z image is smaller and the area cut out on the rising detection surface Pr is increased in the Z image. By using such an area relationship, the state (posture) of the
たとえば、ベッド30の範囲内において、起き上がり検知面Prで切り取る面積について、臥床検知面Pdで切り取る面積に対する比率が所定の閾値以上であれば、起き上がりの状態と判定すればよい。この閾値を適正に設定すれば、対象者40が腕を伸ばして伸びをすることにより起き上がり検知面Prを腕が横切ったとしても、上記比率が閾値よりも小さくなるから、起き上がりの状態として検出されるのを防止することができる。
For example, if the ratio of the area cut by the rising detection surface Pr within the range of the
たとえば、図25(a)、図26(a)の白抜きの領域は、それぞれ臥床検知面Pdにおいて対象者40の存在する領域を示し、図25(b)、図26(b)の白抜きの領域は、それぞれ起き上がり検知面Prにおいて対象者40の存在する領域を示している。図25、図26において、(a)図での白抜きの領域の面積をE1、(b)図での白抜きの領域の面積をE2として、比率E2/E1を求め、この比率E2/E1を適宜の閾値と比較すると、起き上がりの状態(図25)とそれ以外の状態(図26)とを区別することができる。 For example, the white areas in FIGS. 25 (a) and 26 (a) indicate areas where the subject 40 exists on the bed detection surface Pd, and the white areas in FIGS. 25 (b) and 26 (b). These areas indicate areas where the subject 40 exists on the rising detection surface Pr. In FIGS. 25 and 26, the ratio E2 / E1 is obtained by setting E1 as the area of the white area in FIG. 25A and E2 as the area of the white area in FIG. 25B, and this ratio E2 / E1. Can be distinguished from the rising state (FIG. 25) and the other states (FIG. 26).
同様にして、ベッド30の範囲内において、起立検知面Psで切り取る面積について、臥床検知面Pdで切り取る面積に対する比率が所定の閾値以上であれば、対象者40がベッド30の上で立ち上がっている起立の状態と判定する。対象者40が起き上がりの状態において起立検知面Psを超える部分があったとしても、起立している状態に比べると、起立検知面Psを横切る面積は小さいと考えられるから、起立の状態と起き上がりの状態とを区別することができる。
Similarly, within the range of the
たとえば、図27(a)、図28(a)の白抜きの領域は、それぞれ臥床検知面Pdにおいて対象者40の存在する領域を示し、図27(c)、図28(c)の白抜きの領域は、起立検知面Psにおいて対象者40の存在する領域を示している。なお、図示例では、図27(c)において白抜きの領域はなく、対象者40は存在しない。また、図27(b)、図28(b)の白抜きの領域は、起き上がり検知面Prにおいて対象者40が存在する領域を示している。ここで、図27、図28において、(a)図での白抜きの領域の面積をE1、(c)図での白抜きの領域の面積をE3として、比率E3/E1を求め、この比率E3/E1を適宜の閾値と比較すると、起き上がりの状態(図27)と起立の状態(図28)とを区別することができる。
For example, the white areas in FIGS. 27 (a) and 28 (a) indicate areas where the subject 40 exists on the bed detection surface Pd, and the white areas in FIGS. 27 (c) and 28 (c). This area indicates an area where the subject 40 exists on the standing-up detection surface Ps. In the illustrated example, there is no white area in FIG. 27C, and the
上述した処理では、人認識部22が対象者40を認識するにあたって、起き上がり検知面Pr、起立検知面Psを固定値とする場合を例示した。しかしながら、実使用に際しては、対象者40の体格に個体差があるから、起き上がり検知面Prおよび起立検知面Psは可変であることが好ましい。
In the above-described processing, when the
たとえば、体格(身長)の小さい対象者40が起き上がった場合の高さと、体格の大きい対象者40が起き上がった場合の高さとは異なる。したがって、起き上がり検知面Prを体格の小さい対象者40に合うように設定していると、体格の大きい対象者40では寝返りなどの際に胴の位置の高さの変化によって起き上がりの状態として誤検知する可能性がある。逆に、起き上がり検知面Prを体格の大きい対象者40に合うように設定していると、体格の小さい対象者40が起き上がっても検知しない可能性がある。 For example, the height when the subject 40 with a small physique (height) rises is different from the height when the subject 40 with a large physique rises. Therefore, if the rising detection surface Pr is set to match the subject 40 with a small physique, the subject 40 with a large physique is erroneously detected as a rising state due to a change in the height of the torso when turning over. there's a possibility that. Conversely, if the rising detection surface Pr is set so as to match the subject 40 with a large physique, there is a possibility that even if the subject 40 with a small physique gets up, it will not be detected.
このような誤検知や検知の失敗を防止するために、本実施形態の人認識部22は、起き上がり検知面Prと起立検知面Psとを調節する機能を備える。すなわち、システムの使用を開始する際に、人認識部22は、対象者40の体格を示す指標のうち少なくとも身長の入力を促し、入力された体格(身長)に基づいて、起き上がり検知面Prと起立検知面Psとを自動的に設定する。身長は、胴囲や座高と相関があるから、体格を表す指標としては身長を用いる。ただし、体格に関する評価の精度を高める場合は、胴囲と座高との少なくとも一方を身長と併せて体格を表す指標に用いてもよい。
In order to prevent such erroneous detection and detection failure, the
体格を表す指標は厳密な値である必要はなく、身長は、たとえば10cm刻みでよい。したがって、人認識部22に与える身長は、130cm台、140cm台、…などの値でよい。人認識部22は、上述したように、対象者40が起き上がり検知面Prや起立検知面Psを横切る面積を評価することにより対象者40の大きさや、対象者40の状態を評価している。そのため、得られた面積を評価するための閾値を、体格に応じて調節することにより、面積から得られる情報を精度よく評価することが可能になる。
The index representing the physique need not be a strict value, and the height may be in increments of 10 cm, for example. Therefore, the height given to the
すなわち、対象者40の体格に応じた閾値を設定することにより、体格が異なる対象者40について誤った状態を検知することが防止される。たとえば、対象者40が臥床状態で腕を天井に向かって振り上げた状態を起き上がりの状態として誤検知しないために、体格が小さい対象者40の腕の断面積に対する閾値と、体格が大きい対象者40の腕の断面積に対する閾値とを個別に設定することが好ましい。腕の断面積に対する閾値を体格別に設定しておくことにより、状態の検知精度が向上し、誤報や失報が排除されて対象者40の起き上がりや起立の状態が精度よく検知されることになる。
That is, by setting a threshold according to the physique of the subject 40, it is possible to prevent an erroneous state from being detected for the subject 40 having a different physique. For example, in order not to falsely detect a state in which the subject 40 swings his arm up toward the ceiling in the bedded state as a rising state, the threshold for the cross-sectional area of the
上述のように、起き上がり検知面Prや起立検知面Psを対象者40が横切る面積を評価することによって、起き上がり検知面Prや起立検知面Psを横切るか否かだけで対象者40の状態を判断する場合よりも、判断結果の精度を高めることが可能になる。すなわち、2種類の方法を用いて物体(対象者40)の状態を判断するから、物体の状態を精度よく検知することが可能になる。 As described above, by evaluating the area where the subject 40 crosses the rising detection surface Pr and the standing detection surface Ps, the state of the subject 40 is determined only by whether or not the rising detection surface Pr and the standing detection surface Ps are crossed. It is possible to increase the accuracy of the determination result than when doing so. That is, since the state of the object (target person 40) is determined using two types of methods, the state of the object can be accurately detected.
なお、人認識部22は、身長と座高とについて、たとえば、図29(a)に符号Aで示す関係を用い、身長と胴囲または上述した面積との関係について、たとえば、図29(b)に符号Bで示す関係を用いる。符号A,Bで表される関係は、個体差を考慮しない代表的な値を用いている。図29において体格は身長で表され、身長を複数に区分(図示例は4区分)することにより体格が区分されている。すなわち、図29(a)では符号Th11〜Th14で示されているように、区分ごとに起き上がり検知面Prの高さが規定されている。また、図29(b)では符号Th21〜Th24で示されているように、区分ごとに起立検知面Psの高さあるいは面積に対する閾値が規定されている。したがって、人認識部22に体格としての身長を与え、図29(a)と図29(b)とに示すような関係を用いることにより、体格に応じた起き上がり検知面Pr、起立検知面Ps、面積に対する閾値が自動的に決定される。
Note that the
また、起き上がり検知面Prや起立検知面Psで切り取る面積に対する閾値を、体格に応じて設定するから、図25〜図28を用いて説明した面積の比率E2/E1を用いなくとも、起き上がりや起立を精度よく検知可能になる。 In addition, since the threshold for the area to be cut off by the rising detection surface Pr and the standing detection surface Ps is set according to the physique, the rising or rising is not required without using the area ratio E2 / E1 described with reference to FIGS. Can be accurately detected.
ところで、ベッド30の範囲内の人の状態(姿勢)ではなく、ベッド30の範囲外の人の状態は床面の高さを基準に用いて検出することができる。すなわち、図30に示すように、床52からの高さにより倒れ閾値Thfを定めておき、Z画像においてベッド30の範囲外となる画素が倒れ閾値Thfよりも大きいZ値を持つときに、対象者40の少なくとも一部がベッド30の範囲外に出ていると判定することができる。倒れ閾値Thfは、床52よりも高いがベッド面Pbよりも低い値に設定する。たとえば、床52から10cmに設定すればよい。
By the way, not the state (posture) of a person within the range of the
上述の処理では、ベッド30の範囲外に出ていることを倒れ閾値Thfのみで判定しているが、ベッド30の範囲外では差分画像を併せて用いることにより対象者40がベッド30の範囲外に出ていることを検知してもよい。これには、システムの使用開始時に撮像した距離画像から得られたZ画像を背景画像として記憶しておき、その後に得られるZ画像を背景画像から減算した差分画像を二値化する。
In the above-described processing, it is determined only by the fall threshold Thf that the person is out of the range of the
システムの使用開始時に、対象者40は臥床の状態であるからベッド30の範囲外には存在していない。そのため、背景画像においてベッド30の範囲外には物体は存在しない。これに対して、対象者40がベッド30の範囲外に出た状態のZ画像を背景画像から減算した画像では、ベッド30の範囲外に物体が存在している。したがって、差分画像を二値化した画像においてベッド30の範囲外の領域において変化した領域の面積(画素数)を規定の閾値と比較し、面積が閾値以上であると、対象者40がベッド30の範囲外に出たと判定することができる。差分画像においてベッド30の範囲外の値は、実質的に床52からの高さに相当するから、二値化の閾値は倒れ閾値Thfを用いればよい。
At the start of use of the system, the subject 40 is in a bedded state and therefore does not exist outside the range of the
また、システムの使用開始を指示する際に、使用開始を指示する看護師あるいは介護士は、ヘッドボードの近傍の領域に存在すると考えられる。ただし、この領域は対象者40を検出する領域外であり、また、差分画像を二値化したときには床52とともに除去されるので、背景画像に含めても問題は生じない。
In addition, when instructing the start of use of the system, it is considered that the nurse or caregiver instructing the start of use exists in an area near the headboard. However, this area is outside the area for detecting the
上述したように、ベッド認識部21によりベッド30の位置が認識され、人認識部22によりベッド30に対する対象者40の姿勢が検出される。すなわち、ベッド30と対象者40とが分離されるから、次に、行動判定部23において、対象者40の動作が分類される。
As described above, the position of the
分類する動作としては、対象者40がベッド30の端部に腰を掛けている状態(以下、「腰掛け」という)がある。「腰掛け」は、ベッド30の4辺のいずれかについて、ベッド30の範囲内と範囲外との領域に対象者40が跨って存在している状態として検出する。ベッド認識部21では、ベッド30の範囲内と範囲外との領域を分離することができ、人認識部23では、ベッド30の範囲内と範囲外との領域における人の存在を検出することができる。
As an operation to be classified, there is a state in which the subject 40 is sitting on the end of the bed 30 (hereinafter referred to as “sitting”). “Sitting” is detected as a state in which the
このことを利用して、ベッド30の範囲内と範囲外とにおいて人の存在領域が連続ないし近接している場合に、同一の人がベッド30の端部に「交差」していると判断する。そして、この場合を「腰掛け」と判定する。ここに、「近接」は、ベッド30の範囲内と範囲外とにおける人の存在領域の輪郭線間の距離を求め、求めた距離が規定した範囲内であることを意味する。輪郭線間の距離はベッド30の着目している辺に直交する方向の複数本の直線上で求めた平均値を用いればよい。
Using this, when the person's existence area is continuous or close to the inside of the
また、ベッド30の範囲内と範囲外とに占める人の面積の全体に対して、ベッド30の範囲外に占める人の面積の比率を求める。この比率について適宜の基準範囲を設定し、比率が基準範囲内であれば「腰掛け」と判定してもよい。この場合、対象者40の体型などに応じて「腰掛け」の判定精度を高めるように、面積の比率に対する基準範囲を調節することが可能である。
Further, the ratio of the area of the person who occupies outside the range of the
さらに、上述した両者の判定を組み合わせることによって、「腰掛け」と判定することも可能である。すなわち、交差している状態において、面積の比率を判定すれば、ベッド30の範囲内と範囲外とにおいて検出された人が対象者40である可能性が高くなり、判定の信頼度が向上する。
Furthermore, it is also possible to determine “sitting” by combining both determinations described above. That is, if the area ratio is determined in the crossed state, the possibility that the person detected within and outside the range of the
ところで、ベッド30には落下防止用の柵を設けている場合がある。とくに、ベッド30から落下する可能性が高い対象者40に対しては柵を設けることが必要になる。このような柵を設けている場合であっても、ベッド30に出入りするためにベッド30の少なくとも1箇所には柵のない出入口を設けることになる。
By the way, the
このように柵を設けている場合には、Z画像において出入口の位置を図示しない入力装置によってあらかじめ登録しておく。ベッド30に対する柵の取付位置は、複数箇所(たとえば、6箇所)から選択することが多いから、入力装置としてはディップスイッチなどを用いて柵の取付位置を選択する構成を採用すればよい。
When the fence is provided in this way, the position of the entrance / exit in the Z image is registered in advance by an input device (not shown). Since the attachment position of the fence with respect to the
入力装置により登録された出入口以外の領域において上述した「交差」が検出された場合には、柵を乗り越えている状態(以下、「乗り越え」という)と判定する。 When the above-mentioned “intersection” is detected in a region other than the entrance / exit registered by the input device, it is determined that the vehicle is over the fence (hereinafter referred to as “over”).
「乗り越え」の判定には、上述した「腰掛け」と同様に、ベッド30の範囲内と範囲外とに占める面積を用いることもできる。すなわち、出入口以外の場所で、ベッド30の範囲内と範囲外とに占める人の面積の全体に対して、ベッド30の範囲外に占める人の面積の比率を求める。この比率について適宜の基準範囲を設定し、比率が基準範囲を超えていると「乗り越え」と判定する。この場合、基準範囲を適宜に設定しておけば、柵の外に腕を投げ出している状態と「乗り越え」とを区別することが可能になる。
In the determination of “override”, the area occupied within and outside the range of the
行動判定部23においては、対象者40が「離床」の初期行動として、ベッド30から腰を上げてベッド30から離れたときの動作(以下、「離床初期」という)を検出することも可能である。この場合、ベッド30の範囲内と範囲外との領域に占める人の面積を用い、「腰掛け」や「乗り越え」と同様に、ベッド30の範囲内と範囲外とに占める人の面積の合計を人の全体の面積とする。人の全体の面積に対するベッド30の範囲外における人の面積の比率を求め、この値が1に近い値になる場合(つまり、ベッド30の範囲内では人が検出されないか、検出されても微小である場合)、「離床初期」と判定する。言い換えると、1に近い基準範囲を設定し、前記比率が基準範囲を超えるときに「離床初期」と判定する。
In the
「離床初期」を検出することにより、対象者40を追跡することなく離床の初期段階を検出することが可能になる。対象者40を追跡する技術を用いると、何らかの原因で追跡が途切れることがあるが、上述の技術により、時間経過に関係なく「離床初期」を検出することが可能になる。
By detecting “the early stage of getting out of bed”, it is possible to detect the initial stage of getting out without tracking the subject 40. When the technique for tracking the
ところで、ベッド30から対象者40が落下した場合、あるいはベッド30から対象者40が離床しようとして転倒した場合には、ただちに報知する必要がある。以下では、これらの状態をまとめて「転倒」という。行動判定部23では、「転倒」を検出する際に、状態が継続している時間を計測する。すなわち、ベッド30の範囲外においてのみ、床52から規定の高さ(たとえば、30cm)以下の物体が検出されている場合に、当該物体を人と判定する。行動判定部23では、人が検出されている状態が規定した判定時間に達するまで継続しているときに「転倒」と判定する。判定時間は、たとえば10秒程度に設定すればよい。
By the way, when the
上述した「腰掛け」「乗り越え」「離床初期」「転倒」は、時間経過とは無関係に特定の状態に着目して判定しているが、対象者40の行動履歴を追跡すれば、判定精度をさらに高めることができる。すなわち、行動判定部23において、人認識部22で検出された対象者40が占める領域の代表点(たとえば、重心)の位置を追跡する。
The above-mentioned “sitting”, “passing over”, “being out of bed”, and “falling” are determined by paying attention to a specific state regardless of the passage of time. It can be further increased. That is, the
ここに、人認識部22では、対象者40について、ベッド30の範囲内での臥床、起き上がり、立ち上がりの各状態を検知面を用いて判定し、またベッド30の範囲外における存在を検知面に相当する倒れ閾値Thfを用いて判定している。したがって、各検知面で切り取ることにより得られた対象者40の存在領域については、ベッド30の範囲内と範囲外とにおいてそれぞれ重心を求めることが可能である。ただし、対象者40が占める領域は3次元で検出して重心を求めてもよく、また、ベッド30の範囲内と範囲外とにおいてX値の最頻値とY値の最頻値とを、それぞれ追跡する代表点のX値とY値とに用いることも可能である。
Here, the
ベッド30の範囲内と範囲外との人の領域を統合して人の位置を判断している場合に、規定した時間内における代表点の移動距離を適宜の閾値と比較すれば、代表点の位置移動が連続的に生じているか否かを判断することができる。したがって、連続性のない位置移動であればノイズとして排除することができる。このように対象者40の代表点の位置を追跡すれば、対象者40の身体の一部分の移動や寝具の移動のように、対象者40の移動ではないノイズを排除することが可能になる。
When a person's position is determined by integrating the person's area within and outside the range of the
さらに、対象者40の代表点は、ベッド30の範囲内を起点としているから、代表点のが、ベッド30の範囲内に存在する状態からベッド30の端部に移動し、さらにベッド30の範囲外に出るという移動経路を辿る場合に、離床と判断することができる。この条件を付加することによって、ベッド30の範囲外を起点とする移動経路は、対象者40ではない人(たとえば、看護師、介護士、見舞客など)によると判定することが可能になる。すなわち、ベッド30の範囲外を起点とした移動経路を追跡している場合には、行動判定部23では、離床と判定しないようにする。
Furthermore, since the representative point of the subject 40 starts from within the range of the
ただし、対象者40が離床の後にベッド30に戻るという動作では、対象者40がベッド30に戻ったことを検出する必要がある。そこで、ベッド30の範囲外を起点とする移動経路で代表点がベッド30の範囲内に達した後、ベッド30の範囲内に存在する状態か「腰掛け」の状態が継続する時間が規定時間に達したことをもってベッド30に戻ったと判定する。この判定後は、対象者40の移動経路を追跡する際の起点をベッド30の範囲内に更新する。すなわち、対象者40がベッド30に戻れば、自動的に初期の状態に復帰させることが可能になる。
However, in the operation in which the
ところで、上述のような検知対象か検知対象外かを自動判断する技術は、装置を使用する環境や対象者40によっては不要であることもある。このような場合に備えて、検知対象か検知対象外かの自動判断を行うか行わないかの選択を可能にしておくのが望ましい。また、検知対象外の物体を追跡した場合、自動的に検知対象外と確定して報知をまったく行わないようにするのではなく、装置側で確認の報知を行ってから所定時間内に報知の解除が行われなければ、他装置に離床の報知を行うようにしてもよい。
By the way, the technology for automatically determining whether or not to be detected as described above may be unnecessary depending on the environment in which the apparatus is used and the
報知部24は、行動監視処理部20で検出した対象者40の動作に応じた報知を行う。ここに、報知部24は、対象者40に合わせて、対象者40のどの動作に対してどのように報知するかを設定する機能を有している。たとえば、対象者40が患者や高齢者であると、起き上がりの状態や腰掛けの状態であっても看護師や介護士に報知しなければならない場合もある。
The
本実施形態の構成では、距離画像センサ10を用いて対象者40を撮像するだけで、対象者40の各種動作を判別することができる。しかも、どの動作に対して報知を行うかも任意に設定することが可能になる。どの動作で報知を行うかは、報知部24にディップスイッチなどを設けて選択すればよい。
In the configuration of the present embodiment, it is possible to discriminate various operations of the
報知部24は、ベッド30を設けた部屋に配置することができるが、ナースセンタに報知することが望ましい。たとえば、報知部24において、ナースコールボタンと分岐して用いる接点出力を発生させる機能を設けておけば、ナースコールボタンを押さないかもしくは押せない患者でも離床を知らせることが可能である。
The
報知部24は、ナースコールボタンのような操作装置と関連付けて動作させてもよい。すなわち、報知部24において、行動判定部23の判定結果に加えて人が操作する操作装置からの入力を受け付けるようにしてもよい。この場合、行動判定部23による判定結果と操作装置による入力との組み合わせにより、行動判定部23による判定結果の報知の有無を切り換える。
The
たとえば、絶対安静など静止状態が要求されている対象者40には、対象者40が移動したことが行動判定部23に検出されたときと、ナースコールボタンが押されたときとの論理和で、報知部24がナースセンタに報知する動作を選択すればよい。また、移動が許容されている対象者40には、対象者40が移動したことが行動判定部23に検出された時点ではナースセンタに報知せずに仮報知状態とする動作を選択すればよい。この場合、報知部24は、仮報知状態から所定時間内にナースコールボタンが押されると仮報知状態を解除して元の状態に復帰し、仮報知状態から所定時間内にナースコールボタンが押されないとナースセンタに報知する動作を行う。
For example, the subject 40 who is required to be in a stationary state such as absolute rest is logically ORed when the
上述のように、報知部24において、距離画像に基づく判定結果だけではなく、ナースコールボタンのような操作装置からの入力を併せて用いることにより、対象者40の動作に応じた望ましい報知が可能になる。ここに、操作装置は、ナースコールボタンに限定されず、後述するように、ベッドサイド端末のタッチパネルなどであってもよい。
As described above, in the
また、建物内に敷設したナースコール通信網や構内ネットワーク(LAN)などによる通信機能を報知部24に設け、行動監視処理部20の判定結果をナースセンタに通知すれば、対象者40の動作の内容を遠隔監視することが可能になる。この場合、対象者40の各種動作状態のすべてを状態信号として出力し、報知受け側の機器(ナースコール親機など)で所望動作のみを知らせるようにマスクしてもよい。また、ナースコール親機と連動した構内PHS交換機や情報端末向け無線送信機などに対象者40の動作状態情報を重畳させることで、PHSやページャなどを用いて看護師や介護士がナースセンタに居なくても対象者40の行動を把握し、迅速な対応をとることが可能になる。
In addition, if a communication function by a nurse call communication network or a local area network (LAN) laid in the building is provided in the
なお、上述した実施形態において、ベッド30の周囲にベッド周りカーテンが存在している場合を想定しているが、上述した行動監視処理部20の機能は、ベッド周りカーテンの有無にかかわらず利用可能である。すなわち、ベッド周りカーテンの有無によらず、ベッド30の位置を確定する技術を採用することが可能であり、また、ベッド周りカーテンの有無によらず、体格に応じた判定条件(検知面の高さや面積に対する閾値)を自動的に設定することが可能である。
In the above-described embodiment, it is assumed that a bed-surrounding curtain exists around the
10 距離画像センサ
20 行動監視処理部
21 ベッド認識部
30 ベッド
37 フットボード
40 対象者(物体)
41 物体
45 観測板
60 距離変動補正部
P0,P1,P2 マーカ
P10,P11,P12 マーカ
DESCRIPTION OF
41
Claims (7)
前記距離画像を用いて前記ベッドの位置を認識するベッド認識部を備え前記ベッドに関連した人の特定の行動を監視する行動監視処理部と、
前記距離画像センサにより事前に生成された背景距離画像と前記距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を前記行動監視処理部に与える距離変動補正部とを備える
ことを特徴とする監視装置。 A distance image sensor arranged to generate a distance image in which a pixel value is a distance value to an object using a time difference between light projection and reception and to include a bed to be monitored in a visual field region;
A behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, comprising a bed recognition unit that recognizes the position of the bed using the distance image;
The variation rate of the distance value regarding the pixel at the same position of the background distance image generated in advance by the distance image sensor and the distance image generated by the distance image sensor is calculated, and the variation rate is calculated from the pixels within the reference range. A monitoring apparatus, comprising: a distance fluctuation correction unit that provides a distance image obtained by correcting a distance value using a representative value of the obtained fluctuation rate to the behavior monitoring processing unit.
前記距離変動補正部は、前記観測板に対応した領域の画素を用いて前記変動率を算出する
ことを特徴とする請求項1記載の監視装置。 The bed comprises an observation board arranged above the footboard,
The monitoring apparatus according to claim 1, wherein the distance variation correction unit calculates the variation rate using pixels in a region corresponding to the observation plate.
ことを特徴とする請求項1記載の監視装置。 The monitoring apparatus according to claim 1, wherein the distance variation correction unit calculates the variation rate using a pixel within the range of the bed extracted by the bed recognition unit.
前記ベッド認識部は、前記マーカの位置を基準に用いて前記ベッドの位置を算出する
ことを特徴とする請求項1〜3のいずれか1項に記載の監視装置。 The bed includes a plurality of markers arranged at a center position in the left-right direction on the footboard and other positions on the footboard,
The monitoring apparatus according to any one of claims 1 to 3, wherein the bed recognition unit calculates the position of the bed using the position of the marker as a reference.
前記ベッド認識部は、前記マーカの位置を基準に用いて前記ベッドの位置を算出する
ことを特徴とする請求項1〜3のいずれか1項に記載の監視装置。 The bed includes a center position in the left-right direction on the footboard and three or more markers arranged on both side edges of the bed,
The monitoring apparatus according to any one of claims 1 to 3, wherein the bed recognition unit calculates the position of the bed using the position of the marker as a reference.
ことを特徴とする請求項1〜5のいずれか1項に記載の監視装置。 The behavior monitoring processing unit automatically sets a threshold value related to a height defined above the bed in order to monitor the specific behavior using an index indicating a physique given to a person using the bed. The monitoring device according to any one of claims 1 to 5, wherein
投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサから得られた前記距離画像を用いて前記ベッドの位置を抽出するベッド認識部を備え前記ベッドに関連した人の特定の行動を監視する行動監視処理部と、
前記距離画像センサにより事前に生成された背景距離画像と前記距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を前記行動監視処理部に与える距離変動補正部
として機能させるためのプログラム。 Computer
Using the distance image obtained from a distance image sensor that generates a distance image whose pixel value is a distance value to an object using a time difference between light projection and light reception and includes a bed to be monitored in a visual field region An action monitoring processing unit for monitoring a specific action of a person related to the bed, comprising a bed recognition unit for extracting the position of the bed;
The variation rate of the distance value regarding the pixel at the same position of the background distance image generated in advance by the distance image sensor and the distance image generated by the distance image sensor is calculated, and the variation rate is calculated from the pixels within the reference range. A program for causing a distance image obtained by correcting a distance value using a representative value of the obtained variation rate to function as a distance variation correction unit that provides the behavior monitoring processing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011219397A JP2013078433A (en) | 2011-10-03 | 2011-10-03 | Monitoring device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011219397A JP2013078433A (en) | 2011-10-03 | 2011-10-03 | Monitoring device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013078433A true JP2013078433A (en) | 2013-05-02 |
Family
ID=48525362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011219397A Pending JP2013078433A (en) | 2011-10-03 | 2011-10-03 | Monitoring device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013078433A (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015014514A (en) * | 2013-07-04 | 2015-01-22 | パイオニア株式会社 | Identification device |
WO2015118953A1 (en) * | 2014-02-07 | 2015-08-13 | Nkワークス株式会社 | Information processing device, information processing method, and program |
WO2015125544A1 (en) * | 2014-02-18 | 2015-08-27 | Nkワークス株式会社 | Information processing device, information processing method, and program |
WO2015125545A1 (en) * | 2014-02-18 | 2015-08-27 | Nkワークス株式会社 | Information processing device, information processing method, and program |
WO2015133195A1 (en) * | 2014-03-06 | 2015-09-11 | Nkワークス株式会社 | Information processing device, information processing method, and program |
WO2015141268A1 (en) * | 2014-03-20 | 2015-09-24 | Nkワークス株式会社 | Information processing apparatus, information processing method, and program |
JP2016031673A (en) * | 2014-07-29 | 2016-03-07 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
WO2016170573A1 (en) * | 2015-04-20 | 2016-10-27 | ヤマハ発動機株式会社 | Viscous fluid feeding apparatus and component mounting apparatus |
JP2017091122A (en) * | 2015-11-09 | 2017-05-25 | 富士通株式会社 | Image processing program, image processing apparatus, and image processing method |
JP2017517737A (en) * | 2014-06-11 | 2017-06-29 | ソフトキネティク センサーズ エヌブイ | TOF camera system and method for measuring distance with the system |
JP2017228042A (en) * | 2016-06-21 | 2017-12-28 | グローリー株式会社 | Monitoring device, monitoring system, monitoring method and monitoring program |
WO2019077863A1 (en) * | 2017-10-18 | 2019-04-25 | ソニーセミコンダクタソリューションズ株式会社 | Identification device and electronic apparatus |
JP2019144996A (en) * | 2018-02-23 | 2019-08-29 | エイアイビューライフ株式会社 | Information processing device |
WO2019188348A1 (en) * | 2018-03-29 | 2019-10-03 | パナソニックIpマネジメント株式会社 | Distance information acquisition device, multipath detection device, and multipath detection method |
JP2019208671A (en) * | 2018-05-31 | 2019-12-12 | キング通信工業株式会社 | Watching device |
JP2020031754A (en) * | 2018-08-28 | 2020-03-05 | 株式会社エスト | Bed-leaving detection system |
EP3671530A1 (en) | 2018-12-17 | 2020-06-24 | Koninklijke Philips N.V. | Device, system and method for object recognition |
JP2020109582A (en) * | 2019-01-07 | 2020-07-16 | エイアイビューライフ株式会社 | Information processing device |
WO2020149126A1 (en) * | 2019-01-15 | 2020-07-23 | エイアイビューライフ株式会社 | Information processing device |
CN111656457A (en) * | 2018-05-30 | 2020-09-11 | 松下知识产权经营株式会社 | Monitoring assistance device and monitoring assistance method for assisting operation of a monitor who monitors by sequentially patrolling a plurality of subjects |
CN112178874A (en) * | 2020-11-05 | 2021-01-05 | 珠海格力电器股份有限公司 | Control method of air conditioner, air conditioner and computer readable storage medium |
CN114543281A (en) * | 2022-02-18 | 2022-05-27 | 青岛海信日立空调系统有限公司 | Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit |
-
2011
- 2011-10-03 JP JP2011219397A patent/JP2013078433A/en active Pending
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015014514A (en) * | 2013-07-04 | 2015-01-22 | パイオニア株式会社 | Identification device |
WO2015118953A1 (en) * | 2014-02-07 | 2015-08-13 | Nkワークス株式会社 | Information processing device, information processing method, and program |
JPWO2015118953A1 (en) * | 2014-02-07 | 2017-03-23 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
CN105960664A (en) * | 2014-02-07 | 2016-09-21 | 诺日士精密株式会社 | Information processing device, information processing method, and program |
CN105960663A (en) * | 2014-02-18 | 2016-09-21 | 诺日士精密株式会社 | Information processing device, information processing method, and program |
WO2015125544A1 (en) * | 2014-02-18 | 2015-08-27 | Nkワークス株式会社 | Information processing device, information processing method, and program |
WO2015125545A1 (en) * | 2014-02-18 | 2015-08-27 | Nkワークス株式会社 | Information processing device, information processing method, and program |
JPWO2015125544A1 (en) * | 2014-02-18 | 2017-03-30 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JPWO2015125545A1 (en) * | 2014-02-18 | 2017-03-30 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
CN106415654A (en) * | 2014-02-18 | 2017-02-15 | 诺日士精密株式会社 | Information processing device, information processing method, and program |
WO2015133195A1 (en) * | 2014-03-06 | 2015-09-11 | Nkワークス株式会社 | Information processing device, information processing method, and program |
CN105940434A (en) * | 2014-03-06 | 2016-09-14 | 诺日士精密株式会社 | Information processing device, information processing method, and program |
JPWO2015133195A1 (en) * | 2014-03-06 | 2017-04-06 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
CN105940428A (en) * | 2014-03-20 | 2016-09-14 | 诺日士精密株式会社 | Information processing apparatus, information processing method, and program |
WO2015141268A1 (en) * | 2014-03-20 | 2015-09-24 | Nkワークス株式会社 | Information processing apparatus, information processing method, and program |
JPWO2015141268A1 (en) * | 2014-03-20 | 2017-04-06 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JP2017517737A (en) * | 2014-06-11 | 2017-06-29 | ソフトキネティク センサーズ エヌブイ | TOF camera system and method for measuring distance with the system |
US10175765B2 (en) | 2014-07-29 | 2019-01-08 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and computer program |
JP2016031673A (en) * | 2014-07-29 | 2016-03-07 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
CN107530727A (en) * | 2015-04-20 | 2018-01-02 | 雅马哈发动机株式会社 | Viscous fluid feedway and element fixing apparatus |
JPWO2016170573A1 (en) * | 2015-04-20 | 2017-11-16 | ヤマハ発動機株式会社 | Viscous fluid supply device and component mounting device |
WO2016170573A1 (en) * | 2015-04-20 | 2016-10-27 | ヤマハ発動機株式会社 | Viscous fluid feeding apparatus and component mounting apparatus |
JP2017091122A (en) * | 2015-11-09 | 2017-05-25 | 富士通株式会社 | Image processing program, image processing apparatus, and image processing method |
US9904854B2 (en) | 2015-11-09 | 2018-02-27 | Fujitsu Limited | Image processing device and image processing method |
JP2017228042A (en) * | 2016-06-21 | 2017-12-28 | グローリー株式会社 | Monitoring device, monitoring system, monitoring method and monitoring program |
WO2019077863A1 (en) * | 2017-10-18 | 2019-04-25 | ソニーセミコンダクタソリューションズ株式会社 | Identification device and electronic apparatus |
JPWO2019077863A1 (en) * | 2017-10-18 | 2020-09-17 | ソニーセミコンダクタソリューションズ株式会社 | Identification device and electronic equipment |
US11341771B2 (en) | 2017-10-18 | 2022-05-24 | Sony Semiconductor Solutions Corporation | Object identification electronic device |
JP2019144996A (en) * | 2018-02-23 | 2019-08-29 | エイアイビューライフ株式会社 | Information processing device |
JP7039011B2 (en) | 2018-02-23 | 2022-03-22 | エイアイビューライフ株式会社 | Information processing equipment |
WO2019188348A1 (en) * | 2018-03-29 | 2019-10-03 | パナソニックIpマネジメント株式会社 | Distance information acquisition device, multipath detection device, and multipath detection method |
JPWO2019188348A1 (en) * | 2018-03-29 | 2021-03-25 | ヌヴォトンテクノロジージャパン株式会社 | Distance information acquisition device, multipath detection device and multipath detection method |
CN111656457A (en) * | 2018-05-30 | 2020-09-11 | 松下知识产权经营株式会社 | Monitoring assistance device and monitoring assistance method for assisting operation of a monitor who monitors by sequentially patrolling a plurality of subjects |
CN111656457B (en) * | 2018-05-30 | 2024-04-09 | 松下知识产权经营株式会社 | Monitoring support device and monitoring support method for supporting work of monitor for monitoring by sequentially visiting a plurality of subjects |
JP7090889B2 (en) | 2018-05-31 | 2022-06-27 | キング通信工業株式会社 | Watching device |
JP2019208671A (en) * | 2018-05-31 | 2019-12-12 | キング通信工業株式会社 | Watching device |
JP2020031754A (en) * | 2018-08-28 | 2020-03-05 | 株式会社エスト | Bed-leaving detection system |
WO2020127014A1 (en) | 2018-12-17 | 2020-06-25 | Koninklijke Philips N.V. | Device, system and method for object recognition |
EP3671530A1 (en) | 2018-12-17 | 2020-06-24 | Koninklijke Philips N.V. | Device, system and method for object recognition |
JP2020109582A (en) * | 2019-01-07 | 2020-07-16 | エイアイビューライフ株式会社 | Information processing device |
WO2020145145A1 (en) * | 2019-01-07 | 2020-07-16 | エイアイビューライフ株式会社 | Information processing device |
JP2020110422A (en) * | 2019-01-15 | 2020-07-27 | エイアイビューライフ株式会社 | Information processing device |
WO2020149126A1 (en) * | 2019-01-15 | 2020-07-23 | エイアイビューライフ株式会社 | Information processing device |
CN112178874B (en) * | 2020-11-05 | 2022-01-07 | 珠海格力电器股份有限公司 | Control method of air conditioner, air conditioner and computer readable storage medium |
CN112178874A (en) * | 2020-11-05 | 2021-01-05 | 珠海格力电器股份有限公司 | Control method of air conditioner, air conditioner and computer readable storage medium |
CN114543281A (en) * | 2022-02-18 | 2022-05-27 | 青岛海信日立空调系统有限公司 | Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit |
CN114543281B (en) * | 2022-02-18 | 2023-08-18 | 青岛海信日立空调系统有限公司 | Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013078433A (en) | Monitoring device, and program | |
JP5771778B2 (en) | Monitoring device, program | |
JP6150207B2 (en) | Monitoring system | |
US8427324B2 (en) | Method and system for detecting a fallen person using a range imaging device | |
US10045716B2 (en) | Systems and methods for dynamically identifying a patient support surface and patient monitoring | |
US20020044682A1 (en) | Method and apparatus for subject physical position and security determination | |
JP4058286B2 (en) | Monitoring device | |
JP2017523402A (en) | Detecting the movement and / or position of the monitored object | |
US20130338525A1 (en) | Mobile Human Interface Robot | |
JP2752335B2 (en) | Patient monitoring device in hospital room | |
JP2011086286A (en) | Watching system on bed and inside room | |
Yang et al. | Fall detection for multiple pedestrians using depth image processing technique | |
JP6504156B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2011002339A (en) | Object detection device | |
TW201705095A (en) | Apparatus to prevent falling and operation method thereof | |
TW201415415A (en) | Target object detection device, method for detecting target object, and program | |
JP3939224B2 (en) | Area monitoring device | |
JP5288416B2 (en) | Moving body motion posture detection device | |
JP2008110215A (en) | Monitoring apparatus | |
WO2012002904A1 (en) | Device and method for detection of abnormal spatial states of a human body | |
US11256925B2 (en) | Monitoring system and monitoring method thereof | |
JP6978080B2 (en) | Private room watching device | |
US20230172489A1 (en) | Method And A System For Monitoring A Subject | |
JP5694834B2 (en) | Object recognition method and object recognition apparatus | |
JP6922914B2 (en) | Watching system, watching device, watching method, and watching program |