JP2013078433A - Monitoring device, and program - Google Patents

Monitoring device, and program Download PDF

Info

Publication number
JP2013078433A
JP2013078433A JP2011219397A JP2011219397A JP2013078433A JP 2013078433 A JP2013078433 A JP 2013078433A JP 2011219397 A JP2011219397 A JP 2011219397A JP 2011219397 A JP2011219397 A JP 2011219397A JP 2013078433 A JP2013078433 A JP 2013078433A
Authority
JP
Japan
Prior art keywords
bed
distance
distance image
value
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011219397A
Other languages
Japanese (ja)
Inventor
Hiroyuki Fujii
裕之 藤井
Hiroshi Matsuda
啓史 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011219397A priority Critical patent/JP2013078433A/en
Publication of JP2013078433A publication Critical patent/JP2013078433A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring device allowing accurate and reproducible detection of movement of a person that is a monitoring target by automatically detecting an area to be monitored with a bed as a reference.SOLUTION: A range imaging sensor 10 generates a range image wherein a pixel value is a range value to an object. A visual field area of the range image sensor 10 includes the entirety of the bed that is a monitoring target. A bed recognition unit 21 uses the range image outputted by the range image sensor 10 to extract a position of the bed. Within the range image outputted by the range image sensor 10, a person recognition unit 22 detects areas occupied by the person inside and outside a range of the bed recognized by the bed recognition unit 21. A movement decision unit 23 distinguishes the movement of the person to the bed by a combination between the area of the bed detected by the bed recognition unit 21 and the area of the person detected by the person recognition unit 22.

Description

本発明は、ベッド上の人を監視する監視装置、監視装置に用いる機能をコンピュータで実現するプログラムに関するものである。   The present invention relates to a monitoring device for monitoring a person on a bed and a program for realizing a function used for the monitoring device by a computer.

この種の監視装置として、監視対象物までの距離に相当する距離関連値を求め、距離関連値を閾値と比較することにより、ベッド上の就寝者の動きや呼吸を検出する技術が提案されている(たとえば、特許文献1参照)。特許文献1には、所定時間内に就寝者の形状変化が検出されない場合には、監視対象物が監視対象領域の外に出たと判断することによって、離床を検出する技術が記載されている。   As this type of monitoring device, a technique has been proposed in which a distance-related value corresponding to the distance to the monitoring object is obtained, and the distance-related value is compared with a threshold value to detect a sleeper's movement and breathing on the bed. (For example, see Patent Document 1). Patent Document 1 describes a technique for detecting bed removal by determining that the monitoring target has moved out of the monitoring target area when a change in the shape of the sleeping person is not detected within a predetermined time.

特許文献1では、ベッド上の就寝者の一部を含む複数の対象点を設定し、就寝者の情報から対象点までの距離を距離センサにより計測している。対象点は、ベッド上に就寝者が居る場合に就寝者の一部を含むように設定された監視領域内に複数配置される。特許文献1に記載の技術では、これらの対象点から得られた距離関連値の時間変化と対象点の位置とを用いることにより、就寝者の離床のほか、呼吸や起き上がりを検出している。   In Patent Document 1, a plurality of target points including a part of a sleeping person on a bed are set, and a distance from the sleeping person information to the target point is measured by a distance sensor. A plurality of target points are arranged in a monitoring area set so as to include a part of the sleeping person when the sleeping person is on the bed. In the technique described in Patent Literature 1, breathing and getting up are detected in addition to bedtime of a sleeping person by using a time change in distance-related values obtained from these target points and the position of the target point.

特開2003−290154号公報JP 2003-290154 A

ところで、ベッド上の就寝者の状態を監視する技術では、3次元計測を行うために距離センサが必要であり、この種の距離センサの原理は種々知られている。ただし、時間経過に伴って変化するベッド上の就寝者の状態をリアルタイムで検出する距離センサは、ステレオ画像法による距離センサと飛行時間法による距離センサとが主として採用される。   By the way, in the technique for monitoring the state of a sleeping person on a bed, a distance sensor is necessary for performing three-dimensional measurement, and various principles of this type of distance sensor are known. However, as a distance sensor that detects a sleeping person's state on the bed that changes with time, a distance sensor based on a stereo image method and a distance sensor based on a time-of-flight method are mainly employed.

ステレオ画像法を用いた距離センサは、2台以上の撮像装置を必要とし、画像に対する処理も比較的複雑であるから、市場に低価格で供給することが困難である。一方、飛行時間法を用いた距離センサは、対象空間に放射したエネルギー(たとえば、光)が、周囲の物体で多重反射すると誤差が生じるという問題を有している。たとえば、病院、高齢者施設、介護施設などの多床室のように、ベッドの周囲にベッド周りカーテンが配置されている場合、ベッド周りカーテンの開閉により、反射波の飛行時間に変化が生じる可能性がある。   A distance sensor using the stereo imaging method requires two or more imaging devices, and the processing for images is relatively complicated, so that it is difficult to supply to the market at a low price. On the other hand, the distance sensor using the time-of-flight method has a problem that an error occurs when the energy (for example, light) radiated into the target space is reflected by multiple surrounding objects. For example, when a curtain around the bed is placed around the bed, such as a multi-bed room in a hospital, elderly facility, nursing facility, etc., the flight time of the reflected wave may change due to opening and closing of the curtain around the bed There is sex.

本発明は、ベッド上の対象者を監視するために飛行時間法を用いて3次元情報を計測する場合に、ベッドの周囲環境により生じる多重反射の影響を軽減することにより、3次元情報を再現性よく検出する監視装置、および監視装置の機能をコンピュータで実現するためのプログラムを提供することにある。   The present invention reproduces three-dimensional information by reducing the influence of multiple reflections caused by the surrounding environment of the bed when measuring three-dimensional information using the time-of-flight method to monitor a subject on the bed. An object of the present invention is to provide a monitoring device for detecting with good quality and a program for realizing the function of the monitoring device by a computer.

本発明に係る監視装置は、上記目的を達成するために、投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサと、距離画像を用いてベッドの位置を認識するベッド認識部を備えベッドに関連した人の特定の行動を監視する行動監視処理部と、距離画像センサにより事前に生成された背景距離画像と距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を行動監視処理部に与える距離変動補正部とを備え、行動監視処理部は、距離変動補正部により距離値が補正された距離画像を用いて人の特定の行動を監視することを特徴とする。   In order to achieve the above object, the monitoring device according to the present invention generates a distance image in which a pixel value is a distance value to an object using a time difference between light projection and reception, and includes a bed to be monitored in a visual field region. A distance image sensor placed in the bed, a bed recognition unit that recognizes the position of the bed using the distance image, a behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, and a distance image sensor generated in advance The variation rate of the distance value for the pixel at the same position of the background image obtained by the distance image sensor and the distance image generated by the range image sensor is calculated, and the representative value of the variation rate obtained from the pixel whose variation rate is within the reference range is used. A distance fluctuation correction unit that gives a distance image whose distance value is corrected to the behavior monitoring processing unit, and the behavior monitoring processing unit uses the distance image whose distance value is corrected by the distance fluctuation correction unit to perform a specific action of a person Characterized in that it monitors.

この監視装置において、ベッドはフットボードから上に配置された観測板を備え、距離変動補正部は、観測板に対応した領域の画素を用いて変動率を算出することが好ましい。   In this monitoring apparatus, it is preferable that the bed includes an observation board disposed above the footboard, and the distance fluctuation correction unit calculates the fluctuation rate using pixels in a region corresponding to the observation board.

この監視装置において、距離変動補正部は、ベッド認識部が抽出したベッドの範囲内の画素を用いて変動率を算出することが好ましい。   In this monitoring apparatus, it is preferable that the distance variation correction unit calculates the variation rate using the pixels within the bed range extracted by the bed recognition unit.

この監視装置において、ベッドは、フットボードにおける左右方向の中心位置およびフットボードにおける他の位置に配置される複数個のマーカを備え、ベッド認識部は、マーカの位置を基準に用いてベッドの位置を算出することが好ましい。   In this monitoring apparatus, the bed includes a plurality of markers arranged at the center position in the left-right direction on the footboard and at other positions on the footboard, and the bed recognition unit uses the position of the marker as a reference. Is preferably calculated.

この監視装置において、ベッドは、フットボードにおける左右方向の中心位置およびベッドの両側縁に配置される3個以上のマーカを備え、ベッド認識部は、マーカの位置を基準に用いてベッドの位置を算出することが好ましい。   In this monitoring device, the bed includes three or more markers arranged at the center position in the left-right direction on the footboard and both side edges of the bed, and the bed recognition unit determines the position of the bed using the marker position as a reference. It is preferable to calculate.

この監視装置において、行動監視処理部は、ベッドを使用する人に関して与えられる体格を示す指標を用いて特定の行動を監視するために、ベッドの上方に規定する高さに関する閾値を自動的に設定することが好ましい。   In this monitoring apparatus, the behavior monitoring processing unit automatically sets a threshold value related to the height defined above the bed in order to monitor a specific behavior using an index indicating a physique given to a person using the bed. It is preferable to do.

本発明に係るプログラムは、コンピュータを、投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサから得られた距離画像を用いてベッドの位置を抽出するベッド認識部を備えベッドに関連した人の特定の行動を監視する行動監視処理部と、距離画像センサにより事前に生成された背景距離画像と距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を行動監視処理部に与える距離変動補正部として機能させるためのものである。   The program according to the present invention generates a distance image in which a pixel value is a distance value to an object using a time difference between light transmission and reception, and a distance image arranged so that a bed to be monitored is included in a visual field region A behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, and a background distance generated in advance by the distance image sensor, including a bed recognition unit that extracts a bed position using a distance image obtained from the sensor Calculate the rate of change of the distance value for the pixel at the same position of the image and the range image generated by the range image sensor, and use the representative value of the rate of change obtained from the pixel whose rate of change is within the reference range. This is to make the corrected distance image function as a distance variation correction unit that gives the behavior monitoring processing unit.

本発明の構成によれば、ベッド上の対象者を監視するために飛行時間法を用いて3次元情報を計測する場合に、ベッドの周囲環境により生じる多重反射の影響を軽減することにより、3次元情報を再現性よく検出することが可能になるという利点がある。すなわち、飛行時間法の原理に起因して多重反射が生じる環境であっても3次元情報を精度よく計測し、結果的にベッドに関連した人の認識および人の行動の認識を正確に行うことが可能になるという効果を奏する。   According to the configuration of the present invention, when measuring three-dimensional information using the time-of-flight method to monitor the subject on the bed, the influence of multiple reflections caused by the surrounding environment of the bed is reduced. There is an advantage that the dimensional information can be detected with good reproducibility. In other words, even in an environment where multiple reflections occur due to the principle of time-of-flight method, three-dimensional information is accurately measured, and as a result, human recognition and human behavior related to the bed are accurately performed. There is an effect that becomes possible.

本発明の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of this invention. (a)は同上の使用例を示す斜視図、(b)は同上の構成例を示す斜視図である。(A) is a perspective view which shows the example of use same as the above, (b) is a perspective view which shows the example of a structure same as the above. 同上に用いる距離画像センサを示すブロック図である。It is a block diagram which shows the distance image sensor used for the same as the above. 同上における座標変換の原理説明図である。It is principle explanatory drawing of the coordinate transformation in the same as the above. 同上における座標変換の原理説明図である。It is principle explanatory drawing of the coordinate transformation in the same as the above. 同上の他の使用例を示す斜視図である。It is a perspective view which shows the other usage example same as the above. 同上に用いる距離変動補正部を示すブロック図である。It is a block diagram which shows the distance fluctuation correction part used for the same as the above. 同上の観測板を用いた例を示す斜視図である。It is a perspective view which shows the example using the observation board same as the above. 同上において図8に対応する動作説明図である。It is operation | movement explanatory drawing corresponding to FIG. 8 in the same as the above. 同上に用いる距離変動補正部の動作説明図である。It is operation | movement explanatory drawing of the distance fluctuation correction part used for the same as the above. 同上においてマーカの一配置例を示す斜視図である。It is a perspective view which shows the example of 1 arrangement | positioning of a marker in the same as the above. 同上においてマーカを用いる処理の一例を示す原理説明図である。It is principle explanatory drawing which shows an example of the process which uses a marker in the same as the above. 同上においてマーカの他の配置例を示す斜視図である。It is a perspective view which shows the other example of arrangement | positioning of a marker in the same as the above. 同上においてマーカを用いる処理の他例を示す原理説明図である。It is principle explanatory drawing which shows the other example of the process using a marker in the same as the above. 同上において視野領域が適正でない場合の動作説明図である。It is operation | movement explanatory drawing when a visual field area | region is not appropriate in the same as the above. (a)は同上における分割領域の説明図、(b)は同上におけるベッド面の説明図である。(A) is explanatory drawing of the division area | region in the same as the above, (b) is explanatory drawing of the bed surface in the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上においてベッドに物体が重なる例を示す斜視図である。It is a perspective view which shows the example which an object overlaps with a bed in the same as the above. 同上においてマスク領域の設定例を示す動作説明図である。It is operation | movement explanatory drawing which shows the example of a setting of a mask area | region in the same as the above. 同上においてベッドに物体が重なる例を示し、(a)は平面図、(b)は側面図である。The example which an object overlaps with a bed in the same as the above is shown, (a) is a plan view, (b) is a side view. 同上における検知面の設定例を示す図である。It is a figure which shows the example of a setting of the detection surface in the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上において体格と閾値との関係を示す図である。It is a figure which shows the relationship between a physique and a threshold value in the same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above.

以下に説明する実施形態では、病院、高齢者施設、介護施設などの多床室に配置されたベッドのようにベッド周りカーテン(いわゆる、キュービクルカーテン)を備える場所でベッド上の人の行動を監視するために監視装置を用いる例を示す。ただし、窓やドアを備える通常の部屋でも同様の技術を採用可能である。   In the embodiments described below, a person's behavior on a bed is monitored in a place equipped with a curtain around the bed (so-called cubicle curtain) such as a bed placed in a multi-bed room such as a hospital, an elderly facility, or a care facility. An example of using a monitoring device to do this will be shown. However, the same technology can be used in a normal room with windows and doors.

本実施形態の監視装置は、図2に示すように、ベッド30の全体を視野に含んだ距離画像を出力する距離画像センサ10を備える。距離画像は画素値を距離値とした画像であって、距離画像を生成する技術には、対象空間からの受光のみを行うパッシブ型と、対象空間に投光した光を受光するアクティブ型とが知られている。以下に説明する距離画像センサは、対象空間に投光し対象空間に存在する物体での反射光を受光するまでの時間を計測する飛行時間法(Time Of Flight)の原理を採用したアクティブ型を用いる。以下では、飛行時間法を「TOF法」と略称する。   As shown in FIG. 2, the monitoring device of the present embodiment includes a distance image sensor 10 that outputs a distance image including the entire bed 30 in the field of view. A distance image is an image with a pixel value as a distance value, and there are two types of technologies for generating a distance image: a passive type that only receives light from a target space and an active type that receives light projected into the target space. Are known. The distance image sensor described below is an active type that employs the principle of time-of-flight (Time Of Flight) that measures the time from when light is projected into a target space and when reflected light from an object existing in the target space is received. Use. Hereinafter, the time-of-flight method is abbreviated as “TOF method”.

本実施形態は、TOF法を用いる距離画像センサであれば、どのように構成されていてもよい。ただし、本実施形態では、光の強度を一定周期の変調信号で変調した強度変調光を対象空間に投光し、対象空間に存在する物体での反射光が受光されるまでの時間を、強度変調光の投受光の位相差として検出する構成を採用する。この距離画像センサは、強度変調光の投受光の位相差を物体までの距離に換算する機能を備える。   The present embodiment may be configured in any manner as long as it is a distance image sensor using the TOF method. However, in the present embodiment, the intensity modulation light obtained by modulating the light intensity with a modulation signal having a constant period is projected onto the target space, and the time until the reflected light from the object existing in the target space is received is expressed as the intensity. A configuration for detecting the phase difference between light projection and reception of modulated light is adopted. This distance image sensor has a function of converting a phase difference between light projection and reception of intensity-modulated light into a distance to an object.

対象空間に投光する光は、多くの物体を透過することなく物体の表面で反射され、かつ人に知覚されない光が望ましい。そのため、投光する光には近赤外線を用いるのが望ましい。ただし、撮像領域を調節する場合のように、人に知覚されるほうが望ましい場合には可視光を用いることも可能である。   The light projected into the target space is preferably light that is reflected by the surface of the object without passing through many objects and is not perceived by humans. For this reason, it is desirable to use near infrared rays as the light to be projected. However, visible light can be used when it is desirable to be perceived by a person, such as when adjusting the imaging region.

強度変調光の波形は、正弦波を想定しているが、三角波、鋸歯状波、方形波などを用いることができる。正弦波、三角波、鋸歯状波を用いる場合には強度変調光の周期を一定周期とする。なお、方形波を用いる場合に、強度変調光の周期を一定周期とするほか、オン期間(発光源の投光期間)とオフ期間(発光源の非投光期間)との比率を乱数的に変化させる技術を採用することも可能である。すなわち、オン期間とオフ期間とに対して十分に長い時間において、オン期間の生じる確率が50%になるようにオン期間とオフ期間とを不規則に変化させ、前記十分に長い時間において累積した受光量を用いてもよい。   The waveform of the intensity-modulated light is assumed to be a sine wave, but a triangular wave, a sawtooth wave, a square wave, or the like can be used. When a sine wave, a triangular wave, or a sawtooth wave is used, the period of the intensity modulated light is set to a constant period. In addition, when using a square wave, in addition to making the period of intensity modulated light constant, the ratio of the on period (light emitting source light emitting period) to the off period (light emitting source non-light emitting period) is randomized. It is also possible to adopt changing technology. That is, the on period and the off period are irregularly changed so that the probability of the on period occurring is 50% in a sufficiently long time with respect to the on period and the off period, and accumulated in the sufficiently long time. The amount of received light may be used.

また、強度変調光を一定周期とする場合、たとえば、投光する光を20MHzの変調信号により変調し、10000周期程度の受光量を累積することによりショットノイズの影響を軽減させることが好ましい。オン期間とオフ期間とを乱数的に変化させる場合にも、たとえば、単位期間を20MHzの1周期に相当する期間とし、単位期間の数倍程度の範囲でオン期間とオフ期間とを変化させ、単位期間の10000倍程度の期間の受光量を累積することが好ましい。この動作により、累積後の受光量は、一定周期の強度変調光を用いて受光量を累積した場合と同様に扱うことができる。   In addition, when the intensity-modulated light has a constant period, for example, it is preferable to reduce the influence of shot noise by modulating the light to be projected with a modulation signal of 20 MHz and accumulating the received light amount of about 10,000 periods. Even when the on period and the off period are changed randomly, for example, the unit period is a period corresponding to one cycle of 20 MHz, and the on period and the off period are changed within a range of several times the unit period. It is preferable to accumulate the amount of light received for a period of about 10,000 times the unit period. With this operation, the amount of received light after accumulation can be handled in the same manner as when the amount of received light is accumulated using intensity-modulated light having a fixed period.

物体で反射された強度変調光は、撮像装置により受光する。撮像装置は、複数個の画素が2次元配列され濃淡画像を撮像するため撮像素子と、撮像素子の受光面に光が入射する範囲を制限する受光光学系とを備える。撮像素子は、CCDイメージセンサやCMOSイメージセンサとして提供されている濃淡画像を撮像する周知構成の撮像素子を用いることができるが、距離画像センサに適する構造を有するように専用に設計された撮像素子を用いることが望ましい。   The intensity-modulated light reflected by the object is received by the imaging device. The imaging device includes an imaging element for capturing a grayscale image in which a plurality of pixels are two-dimensionally arranged, and a light receiving optical system that limits a range in which light enters the light receiving surface of the imaging element. As the image pickup device, an image pickup device having a well-known configuration for picking up a gray image provided as a CCD image sensor or a CMOS image sensor can be used, but an image pickup device designed exclusively for having a structure suitable for a distance image sensor. It is desirable to use

以下では、距離画像センサの一例として下記構成を想定して説明するが、この構成は本発明を限定する趣旨ではなく、強度変調光の変調波形、撮像素子の構成、撮像素子の制御などに関して、TOF型の距離画像センサにおいて知られている種々の構成に置き換えることが可能である。   Hereinafter, the following configuration will be described as an example of the distance image sensor, but this configuration is not intended to limit the present invention, and the modulation waveform of the intensity-modulated light, the configuration of the imaging device, the control of the imaging device, etc. It is possible to replace various configurations known in the TOF type distance image sensor.

以下の説明で用いる距離画像センサ10は、図3に示すように、強度変調光を対象空間に投光する投光装置11と、対象空間からの光を受光する撮像装置12とを備える。投光装置11は、発光ダイオードやレーザダイオードのように入力の瞬時値に比例した光出力が得られる発光素子13と、発光素子13から出射した光を対象空間の範囲に投光させる投光光学系14とを備える。投光装置11は、光出力を確保するために適数個の発光素子13を備える。また、撮像装置12は、上述した撮像素子15と、撮像素子15の視野を決める受光光学系16とを備える。   As shown in FIG. 3, the distance image sensor 10 used in the following description includes a light projecting device 11 that projects intensity-modulated light onto a target space, and an imaging device 12 that receives light from the target space. The light projecting device 11 is a light emitting element 13 such as a light emitting diode or a laser diode that can obtain a light output proportional to the instantaneous value of the input, and light projecting optics that projects the light emitted from the light emitting element 13 into the range of the target space. A system 14. The light projecting device 11 includes an appropriate number of light emitting elements 13 in order to ensure light output. The imaging device 12 includes the above-described imaging element 15 and a light receiving optical system 16 that determines the field of view of the imaging element 15.

発光素子13から出射された強度変調光は投光光学系14を通して対象空間に投光される。撮像素子15は、受光光学系16を通して対象空間からの光を受光する。投光光学系14と受光光学系16とは、投受光の方向を平行にし互いに近接して配置してある。ここに、投光光学系14と受光光学系16との距離は視野領域に対して実質的に無視することができるものとする。   The intensity-modulated light emitted from the light emitting element 13 is projected into the target space through the light projecting optical system 14. The imaging element 15 receives light from the target space through the light receiving optical system 16. The light projecting optical system 14 and the light receiving optical system 16 are arranged close to each other with the light projecting and receiving directions parallel to each other. Here, it is assumed that the distance between the light projecting optical system 14 and the light receiving optical system 16 can be substantially ignored with respect to the visual field region.

距離画像センサ10は、発光素子13から強度変調光を出射させるために、発光素子13に与える変調信号を生成する変調信号生成部17を備える。また、距離画像センサ10は、撮像素子15が対象空間から受光するタイミングを制御するために、撮像素子15での受光タイミングを規定する受光タイミング信号を変調信号から生成するタイミング制御部18を備える。撮像素子15で得られた受光量に相当する電荷は撮像素子15から読み出されて演算処理部19に入力される。演算処理部19は、受光タイミングと受光量との関係から対象空間に存在する物体までの距離を求める。   The distance image sensor 10 includes a modulation signal generation unit 17 that generates a modulation signal to be applied to the light emitting element 13 in order to emit intensity modulated light from the light emitting element 13. In addition, the distance image sensor 10 includes a timing control unit 18 that generates a light reception timing signal that defines a light reception timing at the image sensor 15 from a modulation signal in order to control a timing at which the image sensor 15 receives light from the target space. The charge corresponding to the amount of received light obtained by the image sensor 15 is read from the image sensor 15 and input to the arithmetic processing unit 19. The arithmetic processing unit 19 obtains the distance to the object existing in the target space from the relationship between the light reception timing and the light reception amount.

変調信号生成部17は、出力電圧が一定周波数(たとえば、20MHz)の正弦波形で変化する変調信号を生成する。発光素子13はこの変調信号により駆動され、光出力が正弦波状に変化する強度変調光が発光素子13から出射される。   The modulation signal generator 17 generates a modulation signal whose output voltage changes with a sine waveform having a constant frequency (for example, 20 MHz). The light emitting element 13 is driven by this modulation signal, and intensity modulated light whose light output changes in a sine wave shape is emitted from the light emitting element 13.

本実施形態において用いる撮像素子15は、電子シャッタの技術を用いることにより、受光タイミング信号に同期する期間にのみ受光強度に応じた電荷を生成する。また、生成された電荷は、遮光された蓄積領域に転送され、蓄積領域において変調信号の複数周期(たとえば、10000周期)に相当する蓄積期間に蓄積された後、撮像素子15の外部に受光出力として取り出される。   The imaging element 15 used in the present embodiment generates an electric charge according to the light reception intensity only during a period synchronized with the light reception timing signal by using an electronic shutter technique. Further, the generated charges are transferred to a light-shielded accumulation area, accumulated in an accumulation period corresponding to a plurality of periods (for example, 10000 periods) of a modulation signal in the accumulation area, and then received and output to the outside of the image sensor 15. As taken out.

タイミング制御部18では、変調信号に同期する受光タイミング信号を生成する。ここでは、タイミング制御部18が、変調信号の異なる4位相ごとに一定時間幅の受光期間を有した4種類の受光タイミング信号を生成する。また、上述した蓄積期間ごとに4種類の受光タイミング信号から選択した1種類の受光タイミング信号を撮像素子15に与える。   The timing control unit 18 generates a light reception timing signal synchronized with the modulation signal. Here, the timing control unit 18 generates four types of light reception timing signals having a light reception period of a certain time width for every four phases having different modulation signals. In addition, one type of light reception timing signal selected from the four types of light reception timing signals is supplied to the image sensor 15 for each of the above-described accumulation periods.

すなわち、1回の蓄積期間に1種類の受光タイミング信号を撮像素子15に与えることにより、変調信号の特定の位相期間に対応する受光期間における電荷を撮像素子15の各画素で生成する。蓄積後の電荷は、受光出力として撮像素子15から取り出される。蓄積期間ごとに異なる各受光タイミング信号を撮像素子15に与え、撮像素子15で生成された電荷を受光出力として取り出す動作を繰り返すと、4回の蓄積期間で4種類の受光タイミング信号に対応する受光出力が撮像素子15から得られる。   That is, by supplying one type of light reception timing signal to the image sensor 15 in one accumulation period, charges in the light reception period corresponding to a specific phase period of the modulation signal are generated in each pixel of the image sensor 15. The accumulated charge is taken out from the image sensor 15 as a light receiving output. When each light reception timing signal that differs for each accumulation period is given to the image sensor 15 and the operation of taking out the electric charge generated by the image sensor 15 as a light reception output is repeated, light reception corresponding to four types of light reception timing signals in four accumulation periods. An output is obtained from the image sensor 15.

いま、4種類の受光タイミング信号が、変調信号の1周期において90度ずつ異なる位相に設定され、各受光タイミング信号に対応して撮像素子15から出力された受光出力(電荷量)が、それぞれA0,A1,A2,A3であったとする。このとき、三角関数の関係を用いると、強度変調光の投光時と受光時との位相差ψ〔rad〕は、下式の形式で表すことができる。
ψ=tan−1{(A0−A2)/(A1−A3)}
変調信号の周波数は一定であるから、位相差ψを投光から受光までの時間差に換算することができ、光速は既知であるから、時間差が求まれば物体までの距離を求めることができる。
Now, four types of light reception timing signals are set to phases different by 90 degrees in one cycle of the modulation signal, and the light reception outputs (charge amounts) output from the image sensor 15 corresponding to the respective light reception timing signals are respectively A0. , A1, A2, A3. At this time, using the relationship of the trigonometric function, the phase difference ψ [rad] between when the intensity-modulated light is projected and received can be expressed in the form of the following equation.
ψ = tan −1 {(A0−A2) / (A1−A3)}
Since the frequency of the modulation signal is constant, the phase difference ψ can be converted into a time difference from light projection to light reception, and since the speed of light is known, the distance to the object can be obtained if the time difference is obtained.

すなわち、4種類の受光出力(電荷量)A0〜A3により物体までの距離を求めることができる。なお、受光期間は、各画素において適正な受光量が得られるように、適宜に設定される。たとえば、変調信号の4分の1周期に相当する受光期間が用いられる。また、各受光期間の時間幅は互いに等しくすることが必要である。   That is, the distance to the object can be obtained from the four types of light reception outputs (charge amounts) A0 to A3. Note that the light receiving period is appropriately set so that an appropriate amount of received light can be obtained in each pixel. For example, a light receiving period corresponding to a quarter cycle of the modulation signal is used. Further, the time widths of the respective light receiving periods need to be equal to each other.

演算処理部19は、受光出力(電荷量)A0〜A3に基づいて位相差ψを求め、距離に換算することにより距離画像を姿勢する処理のほか、強度変調光の反射光成分のみを抽出した濃淡画像である反射強度画像を生成する処理も行う。   The arithmetic processing unit 19 obtains the phase difference ψ based on the light reception outputs (charge amounts) A0 to A3, converts the distance image by converting the distance, and extracts only the reflected light component of the intensity modulated light. Processing to generate a reflection intensity image that is a grayscale image is also performed.

反射強度画像を生成する場合、変調信号生成部17は、投光装置11に変調信号を入力する投光期間と、投光装置11への変調信号を休止する非投光期間と設けるように動作する。すなわち、投光期間には投光装置11から対象空間に強度変調光が投光され、非投光期間には投光装置11から対象空間への投光が休止する。したがって、投光期間において撮像装置12が受光した受光量は強度変調光の反射光成分と環境光成分とを含み、非投光期間において撮像装置12が受光した受光量は環境光成分のみを含む。   When generating a reflection intensity image, the modulation signal generation unit 17 operates to provide a light projection period in which the modulation signal is input to the light projection device 11 and a non-light projection period in which the modulation signal to the light projection device 11 is paused. To do. That is, intensity-modulated light is projected from the light projecting device 11 to the target space during the light projecting period, and light projection from the light projecting device 11 to the target space is suspended during the non-light projecting period. Accordingly, the amount of light received by the imaging device 12 during the light projection period includes the reflected light component and the ambient light component of the intensity-modulated light, and the amount of light received by the imaging device 12 during the non-light projection period includes only the environment light component. .

上述した関係を用いると、投光期間の受光量と非投光期間の受光量とから強度変調光の反射光成分を抽出できる。すなわち、演算処理部19は、受光出力A0〜A3を適宜に用いることによって、強度変調光の反射光成分を算出し、算出した反射光成分を画素値に持つ反射強度画像を生成する。このようにして生成された反射強度画像は、強度変調光の反射強度に相当する画素値を持つから、物体の反射率と物体までの距離との情報を含んでいる。なお、反射光成分は、4種類の受光出力A0〜A3のいずれかの受光量、4種類の受光出力A0〜A3の平均の受光量などを用いて求められる。   Using the above-described relationship, the reflected light component of the intensity-modulated light can be extracted from the amount of light received during the light projection period and the amount of light received during the non-light projection period. That is, the arithmetic processing unit 19 calculates the reflected light component of the intensity-modulated light by appropriately using the light reception outputs A0 to A3, and generates a reflection intensity image having the calculated reflected light component as a pixel value. Since the reflection intensity image generated in this way has a pixel value corresponding to the reflection intensity of intensity-modulated light, it includes information on the reflectance of the object and the distance to the object. The reflected light component is obtained using the received light amount of any of the four types of received light outputs A0 to A3, the average received light amount of the four types of received light outputs A0 to A3, and the like.

演算処理部19が、距離画像を生成するか、反射強度画像を生成するかは、必要に応じて適宜に選択される。距離画像と反射強度画像とは、画素の位置が一致しているから、距離画像と反射強度画像とを用いることにより、対象空間の同位置について物体までの距離と物体の反射率との2種類の情報が得られる。   Whether the arithmetic processing unit 19 generates a distance image or a reflection intensity image is appropriately selected as necessary. Since the pixel positions of the distance image and the reflection intensity image are the same, the distance image and the reflection intensity image are used so that two types of the distance to the object and the reflectance of the object at the same position in the target space are used. Can be obtained.

演算処理部19はマイコン、DSP、FPGAなどから選択されるデジタル信号処理装置を用いて構成され、上述した処理はデジタル信号処理装置においてプログラムを実行することにより実現される。また、演算処理部19だけではなく、発光素子13および撮像素子15を除く構成は、上述したデジタル信号処理装置を用いて実現可能である。デジタル信号処理装置は、1個だけ用いることが可能であるが、少なくとも距離画像センサ10に用いる機能と、以下に説明する機能とは、異なるデジタル信号処理装置に処理を振り分けることが好ましい。また、さらに多くのデジタル信号処理装置を用いることも可能である。   The arithmetic processing unit 19 is configured by using a digital signal processing device selected from a microcomputer, a DSP, an FPGA, and the like, and the above-described processing is realized by executing a program in the digital signal processing device. Further, not only the arithmetic processing unit 19 but also the configuration excluding the light emitting element 13 and the imaging element 15 can be realized by using the digital signal processing apparatus described above. Although only one digital signal processing device can be used, it is preferable to distribute the processing to different digital signal processing devices at least for the function used for the distance image sensor 10 and the function described below. It is also possible to use more digital signal processing devices.

上述の動作例では、4種類の受光タイミング信号を用いているが、3種類の受光タイミング信号でも位相差ψを求めることができ、環境光ないし周囲光が存在しない環境下であれば、2種類の受光タイミング信号でも位相差ψを求めることが可能である。   In the above-described operation example, four types of light reception timing signals are used. However, the phase difference ψ can be obtained using three types of light reception timing signals. It is possible to obtain the phase difference ψ even with the light reception timing signal.

さらに、上述した動作では、1画素について1種類の受光タイミング信号に対応する電荷を蓄積しているから、4種類の受光出力(電荷量)A0〜A3を撮像素子15から取り出すために4回の蓄積期間が必要である。これに対して、1画素について2種類の受光タイミング信号に対応する電荷を蓄積すれば、撮像素子15から2種類の受光タイミング信号に対応した受光出力を1回で読み出すことが可能になる。同様に、1画素について4種類の受光タイミング信号に対応する電荷を蓄積可能に構成すれば、4種類の受光タイミング信号に対応する受光出力を1回で読み出すことが可能になる。   Furthermore, in the above-described operation, charges corresponding to one type of light reception timing signal are accumulated for one pixel, so that four types of light reception outputs (charge amounts) A0 to A3 are extracted four times from the image sensor 15. An accumulation period is required. On the other hand, if charges corresponding to two types of light reception timing signals are accumulated for one pixel, it is possible to read light reception outputs corresponding to the two types of light reception timing signals from the image sensor 15 at a time. Similarly, if the charge corresponding to the four types of light reception timing signals can be accumulated for one pixel, the light reception outputs corresponding to the four types of light reception timing signals can be read out once.

上述した距離画像センサ10は、対象空間からの光を受光するための受光素子として複数個の画素が2次元配列された撮像素子を用いているから、各画素の画素値として距離値を求めることにより距離画像が生成されることになる。すなわち、撮像素子の受光面が距離画像センサ10の視野領域を投影する仮想の投影面になる。   Since the above-described distance image sensor 10 uses an imaging element in which a plurality of pixels are two-dimensionally arranged as a light receiving element for receiving light from the target space, a distance value is obtained as a pixel value of each pixel. As a result, a distance image is generated. In other words, the light receiving surface of the image sensor becomes a virtual projection surface that projects the visual field region of the distance image sensor 10.

さらに、距離画像センサ10は、対象空間に発光素子13から投光し撮像素子15の視野領域を対象空間として撮像するから、対象空間の形状は、距離画像センサ10を頂点として距離画像センサ10から離れるほど広がる形になる。たとえば、投光光学系14および受光光学系16がそれぞれ光軸の周りに等方的に形成されている場合、対象空間の形状は、距離画像センサ10を頂点とする角錐状になる。   Furthermore, since the distance image sensor 10 projects light from the light emitting element 13 into the target space and images the field area of the imaging element 15 as the target space, the shape of the target space is from the distance image sensor 10 with the distance image sensor 10 as a vertex. The more you leave, the wider it will be. For example, when the light projecting optical system 14 and the light receiving optical system 16 are formed isotropically around the optical axis, the shape of the target space is a pyramid shape with the distance image sensor 10 as a vertex.

したがって、上述した仮想の投影面に配列された画素の位置は、距離画像センサ10から対象空間を見込む方向に対応することになり、各画素の画素値は当該方向に存在する物体までの距離を表すことになる。言い換えると、距離画像センサ10(および画像生成手段)により生成された距離画像は、極座標系で物体の位置を表していることになる。このような距離画像を極座標系の距離画像と呼ぶことにする。   Therefore, the positions of the pixels arranged on the virtual projection plane described above correspond to the direction in which the target space is viewed from the distance image sensor 10, and the pixel value of each pixel indicates the distance to the object existing in the direction. Will represent. In other words, the distance image generated by the distance image sensor 10 (and the image generating means) represents the position of the object in the polar coordinate system. Such a distance image is called a polar coordinate system distance image.

上述した極座標系の距離画像は、距離画像センサ10からの距離の情報が必要であるときには利便性が高いが、対象空間である実空間の各位置との対応関係がわかりにくく、実空間に存在する物体を基準にした領域を指定するには不便である。したがって、演算処理部19では、極座標系の距離画像から直交座標系の各座標値を有した画像を生成する座標変換を行う。以下では、座標変換を行った後の画像を座標軸別画像と呼ぶ。   The polar coordinate system distance image described above is highly convenient when information on the distance from the distance image sensor 10 is necessary, but the correspondence with each position in the real space that is the target space is difficult to understand and exists in the real space. It is inconvenient to specify a region based on the object to be used. Therefore, the arithmetic processing unit 19 performs coordinate conversion for generating an image having each coordinate value of the orthogonal coordinate system from the distance image of the polar coordinate system. Hereinafter, the image after the coordinate conversion is referred to as a coordinate axis-specific image.

極座標系の距離画像から座標軸別画像を生成する手順について、図4、図5を参照して説明する。極座標系の距離画像から座標軸別画像を生成するには、まず、撮像装置に設定した極座標系の距離画像を、撮像装置に設定した直交座標系であるカメラ座標系の3次元画像に変換する。さらに、この3次元画像を対象空間に規定した直交座標系であるグローバル座標系の3次元画像に変換する。グローバル座標系の3次元画像が得られると、各座標軸別画像に分解することができる。   A procedure for generating the coordinate axis-specific image from the polar coordinate system distance image will be described with reference to FIGS. To generate an image for each coordinate axis from a polar coordinate system distance image, first, a polar coordinate system distance image set in the imaging device is converted into a three-dimensional image in a camera coordinate system, which is an orthogonal coordinate system set in the imaging device. Furthermore, this three-dimensional image is converted into a three-dimensional image in a global coordinate system which is an orthogonal coordinate system defined in the target space. When a three-dimensional image of the global coordinate system is obtained, it can be decomposed into images for each coordinate axis.

極座標系の距離画像からカメラ座標系の3次元画像を生成するために、以下の演算を行う。ここに、図4に示すように、撮像素子15の受光面における水平方向と垂直方向とをu方向とv方向とする。撮像素子15と受光光学系16とは、受光光学系16の光軸16Aが撮像素子15の受光面の中心位置の画素を通るように配置する。また、撮像素子15の受光面を受光光学系16の焦点に位置させる。この位置関係において、撮像素子15の受光面の中心位置の画素の座標(単位は、ピクセル)を(uc,vc)、撮像素子15の画素のu方向とv方向とのピッチ(単位は、mm)を(su,sv)とする。さらに、受光光学系16の焦点距離をf[mm]とし、撮像素子15の受光面における各画素の座標(単位はピクセル)の位置(u,v)に対応する方向に存在する物体について受光光学系16の中心から物体までの距離をd[mm]とする。これらの値は、距離画像センサ10において物体までの距離dを各画素の位置に対応付けることにより既知の値になる。   In order to generate a three-dimensional image in the camera coordinate system from the distance image in the polar coordinate system, the following calculation is performed. Here, as shown in FIG. 4, the horizontal direction and the vertical direction on the light receiving surface of the image sensor 15 are defined as the u direction and the v direction. The image sensor 15 and the light receiving optical system 16 are arranged so that the optical axis 16A of the light receiving optical system 16 passes through the pixel at the center position of the light receiving surface of the image sensor 15. Further, the light receiving surface of the image sensor 15 is positioned at the focal point of the light receiving optical system 16. In this positional relationship, the coordinates (unit: pixel) of the pixel at the center position of the light receiving surface of the image sensor 15 are (uc, vc), and the pitch between the u direction and the v direction of the pixel of the image sensor 15 (unit: mm). ) Is (su, sv). Further, the focal length of the light receiving optical system 16 is f [mm], and light receiving optics is used for an object that exists in a direction corresponding to the position (u, v) of the coordinates (unit: pixel) of each pixel on the light receiving surface of the image sensor 15. The distance from the center of the system 16 to the object is d [mm]. These values become known values by associating the distance d to the object with the position of each pixel in the distance image sensor 10.

物体についてカメラ座標系での座標値(X1,Y1,Z1)を求めると以下のようになる。座標値(X1,Y1,Z1)の各成分の単位はmmである。撮像素子15の受光面に設定した座標系の原点は矩形状である撮像素子15の受光面の1つの角の位置とし、直交座標系の原点は受光光学系16の中心とする。
X1=u1・d/R
Y1=v1・d/R
Z1=f・d/R
ただし、
u1=su(u−uc)
v1=sv(v−vc)
R=(u1+v1+f1/2
なお、説明を簡単にするために、受光光学系16の光学歪みの影響は無視している。受光光学系16の光学歪みを補正するには、光学中心からの距離Rを補正する歪み補正式が用いられる。
The coordinate values (X1, Y1, Z1) in the camera coordinate system for the object are obtained as follows. The unit of each component of the coordinate values (X1, Y1, Z1) is mm. The origin of the coordinate system set on the light receiving surface of the image sensor 15 is the position of one corner of the light receiving surface of the image sensor 15 that is rectangular, and the origin of the orthogonal coordinate system is the center of the light receiving optical system 16.
X1 = u1 · d / R
Y1 = v1 · d / R
Z1 = f · d / R
However,
u1 = su (u-uc)
v1 = sv (v−vc)
R = (u1 2 + v1 2 + f 2 ) 1/2
In order to simplify the explanation, the influence of the optical distortion of the light receiving optical system 16 is ignored. In order to correct the optical distortion of the light receiving optical system 16, a distortion correction formula for correcting the distance R from the optical center is used.

上述したように、極座標系の距離画像をカメラ座標系の3次元画像に変換した後に、グローバル座標系への座標変換を行う。距離画像センサ10は、撮像素子15の受光面における垂直方向(すなわち、v方向)が室内の壁面51および床面52に平行になるように配置される。   As described above, after the distance image in the polar coordinate system is converted into a three-dimensional image in the camera coordinate system, the coordinate conversion to the global coordinate system is performed. The distance image sensor 10 is arranged so that the vertical direction (that is, the v direction) on the light receiving surface of the image sensor 15 is parallel to the wall surface 51 and the floor surface 52 of the room.

いま、図5(a)のように、距離画像センサ10において受光光学系16の光軸16Aの俯角をθとする。図5(a)において距離画像センサ10の視野角はφで表している。カメラ座標系からグローバル座標系への変換には、図5(b)に示すように、カメラ座標系での座標値(X1,Y1,Z1)に対して、Y軸周りで俯角θに相当する回転を行う。これにより、図5(c)のように、室内の壁面51および床面52に直交する座標軸を持つグローバル座標系の3次元画像が生成される。   Now, as shown in FIG. 5A, the depression angle of the optical axis 16A of the light receiving optical system 16 in the distance image sensor 10 is θ. In FIG. 5A, the viewing angle of the distance image sensor 10 is represented by φ. For the conversion from the camera coordinate system to the global coordinate system, as shown in FIG. 5B, the coordinate value (X1, Y1, Z1) in the camera coordinate system corresponds to the depression angle θ around the Y axis. Rotate. As a result, a global coordinate system three-dimensional image having coordinate axes orthogonal to the indoor wall surface 51 and floor surface 52 is generated as shown in FIG.

以下では、グローバル座標系での座標値を(X,Y,Z)とする。図示例では、壁51に直交する方向で壁51から離れる向きをX方向の正の向きとし、床52に直交する方向の下向きをZ方向の正の向きとする。また、座標系には右手系を用いる。俯角θに関する座標系の回転は、以下の計算により行う。
X=X1・cos(90°−θ)+Z1・sin(90°−θ)
Y=Y1
Z=−X1・sin(90°−θ)+Z1・cos(90°−θ)
座標軸別画像は、グローバル座標系にマッピングを行った画像そのものではなく、距離画像の各画素の座標位置(u,v)にX値とY値とZ値とをそれぞれ個別に対応付けた画像である。すなわち、各座標位置(u,v)に、X(u,v)、Y(u,v)、Z(u,v)をそれぞれ対応付けた画像であり、1枚の極座標系の距離画像に対して3枚の座標軸別画像が生成される。極座標系の距離画像から座標軸別画像を得るには、上述の計算を行ってもよいが、極座標系の距離画像から座標値(X,Y,Z)に変換するテーブルを用意しておけば、処理負荷を軽減することができる。
Hereinafter, the coordinate values in the global coordinate system are assumed to be (X, Y, Z). In the illustrated example, a direction away from the wall 51 in a direction perpendicular to the wall 51 is defined as a positive direction in the X direction, and a downward direction perpendicular to the floor 52 is defined as a positive direction in the Z direction. A right-hand system is used as the coordinate system. The rotation of the coordinate system with respect to the depression angle θ is performed by the following calculation.
X = X1 · cos (90 ° −θ) + Z1 · sin (90 ° −θ)
Y = Y1
Z = −X1 · sin (90 ° −θ) + Z1 · cos (90 ° −θ)
The image by coordinate axis is not the image itself mapped to the global coordinate system, but an image in which the X value, the Y value, and the Z value are individually associated with the coordinate position (u, v) of each pixel of the distance image. is there. In other words, each coordinate position (u, v) is an image in which X (u, v), Y (u, v), and Z (u, v) are associated with each other. On the other hand, three coordinate axis-specific images are generated. In order to obtain an image for each coordinate axis from a polar coordinate system distance image, the above calculation may be performed. However, if a table for converting a polar coordinate system distance image into a coordinate value (X, Y, Z) is prepared, Processing load can be reduced.

以下では、座標軸別画像のうちX値を画素値とする画像をX画像、Y値を画素値とする画像をY画像、Z値を画素値とする画像をZ画像と呼ぶ。したがって、座標変換を行うテーブルとしては、X画像に変換するX変換テーブルと、Y画像に変換するY変換テーブルと、Z画像に変換するZ変換テーブルとの3種類が必要になる。座標軸別画像を使用する技術は後述する。   Hereinafter, among the images by coordinate axes, an image having an X value as a pixel value is referred to as an X image, an image having a Y value as a pixel value is referred to as a Y image, and an image having a Z value as a pixel value is referred to as a Z image. Accordingly, three types of tables for performing coordinate conversion are required: an X conversion table for conversion to an X image, a Y conversion table for conversion to a Y image, and a Z conversion table for conversion to a Z image. The technique using the coordinate axis-specific image will be described later.

上述したX画像とY画像とZ画像とは、デジタル信号処理装置のメモリに格納され、実空間である対象空間に対応する3次元の仮想空間を表している。したがって、仮想空間における条件を設定すれば、対象空間において条件を設定したことと等価になる。   The X image, the Y image, and the Z image described above are stored in the memory of the digital signal processing device and represent a three-dimensional virtual space corresponding to the target space that is a real space. Therefore, setting the condition in the virtual space is equivalent to setting the condition in the target space.

距離画像センサ10において生成されたX画像とY画像とZ画像とは、行動監視処理部20に与えられる。行動監視処理部20は、監視する対象者40に関してベッド30に関連した行動を分類する。また、対象者40の行動を分類するには、ベッド30の上における対象者40の存否にかかわらず、ベッド30を抽出する必要がある。したがって、距離画像センサ10は、視野内にベッド30の上の対象者40が含まれるように、距離画像センサ10はベッド30を上方から見下ろす位置に配置される。この条件を満たすために、距離画像センサ10を天井に配置することが可能であるが、既存の室内において天井に距離画像センサ10を設置する工事は手間がかかる。   The X image, the Y image, and the Z image generated by the distance image sensor 10 are given to the behavior monitoring processing unit 20. The behavior monitoring processing unit 20 classifies the behavior related to the bed 30 with respect to the subject 40 to be monitored. Moreover, in order to classify | categorize the action of the subject 40, it is necessary to extract the bed 30 irrespective of the presence or absence of the subject 40 on the bed 30. Accordingly, the distance image sensor 10 is disposed at a position where the bed 30 is looked down from above so that the subject 40 on the bed 30 is included in the visual field. In order to satisfy this condition, it is possible to arrange the distance image sensor 10 on the ceiling. However, it takes time to install the distance image sensor 10 on the ceiling in an existing room.

したがって、図2(b)に示すように、床に自立するスタンド31の上端部に距離画像センサ10を取り付けた構成を採用するか、図6に示すように、一端部を壁51に取り付けたアーム32の他端部に距離画像センサ10を取り付けた構成が採用される。図2に示す構成では、キャスタ33を備える台板34の上に支柱板35を取り付けたスタンド31を備え、支柱板35の上端部に距離画像センサ10を取り付けてある。また、支柱板35の中間部に、行動監視処理部20を設けてある。   Therefore, as shown in FIG. 2B, a configuration in which the distance image sensor 10 is attached to the upper end portion of the stand 31 that stands on the floor is adopted, or one end portion is attached to the wall 51 as shown in FIG. A configuration in which the distance image sensor 10 is attached to the other end of the arm 32 is employed. In the configuration shown in FIG. 2, a stand 31 having a support plate 35 attached on a base plate 34 having casters 33 is provided, and the distance image sensor 10 is attached to the upper end portion of the support plate 35. In addition, an action monitoring processing unit 20 is provided in an intermediate portion of the support plate 35.

行動監視処理部20は、報知部24(図1、図3参照)を通して室内または室外に監視の内容を報知する。監視の内容を室外に報知する場合には、構内ネットワーク(LAN)やナースコールシステム通信網を用いて通信を行う。たとえば、病院において病室にスタンド31を設置している場合、報知部24の通知を受ける受信装置をナースセンタに設けておくことにより、行動監視処理部20において分類した対象者の行動をナースセンタに設けた受信装置に通知することが可能になる。以下では、ナースセンタに設けた受信装置に通知する意味で、「ナースセンタに通知する」あるいは「ナースセンタに報知する」と言う。   The behavior monitoring processing unit 20 notifies the contents of monitoring indoors or outdoors through the notification unit 24 (see FIGS. 1 and 3). In order to notify the contents of monitoring outside, communication is performed using a local area network (LAN) or a nurse call system communication network. For example, when a stand 31 is installed in a hospital room in a hospital, a reception device that receives notification from the notification unit 24 is provided in the nurse center, so that the behavior of the subject classified in the behavior monitoring processing unit 20 is stored in the nurse center. It is possible to notify the provided receiving device. In the following, it is referred to as “notify the nurse center” or “notify the nurse center” in the sense of notifying the receiving device provided in the nurse center.

上述のようにキャスタ33を備えたスタンド31に、距離画像センサ10および行動監視処理部20を設けると可動式になるから、所要の場所に移動させることが可能になる。すなわち、対象者40の行動を監視する必要がない部屋にはスタンド31を持ち込む必要がない。また、対象者40の行動を監視する場合でも、図2(a)のように、ベッド30のヘッドボード36と壁面51との間にスタンド31を配置することができるから、配置場所が問題になることはない。   As described above, if the distance image sensor 10 and the behavior monitoring processing unit 20 are provided on the stand 31 provided with the casters 33, the stand 31 is movable, so that it can be moved to a required place. That is, there is no need to bring the stand 31 into a room where it is not necessary to monitor the behavior of the subject 40. Even when the behavior of the subject 40 is monitored, the stand 31 can be disposed between the headboard 36 and the wall surface 51 of the bed 30 as shown in FIG. Never become.

上述の構成から明らかなように、距離画像センサ10はベッド30よりも高い位置に配置される。実際には、距離画像センサ10は、視野領域である対象空間内にベッド30の全体が含まれる程度の高さに配置される。このような高さ位置に配置することにより、人が距離画像センサ10に不用意に触れることを防止でき、距離画像センサ10を人の邪魔にならないように配置することができる。たとえば、病院において対象者(患者)に処置を施す際に、スタンド31が作業の邪魔にならない。しかも、距離画像センサ10は、対象空間に存在する物体までの距離を非接触で検出するから、対象者の行動を妨げることがなく、また、ベッド30の寝心地を妨げることもない。   As is clear from the above configuration, the distance image sensor 10 is disposed at a position higher than the bed 30. Actually, the distance image sensor 10 is disposed at such a height that the entire bed 30 is included in the target space that is the visual field region. By disposing at such a height position, a person can be prevented from inadvertently touching the distance image sensor 10, and the distance image sensor 10 can be disposed so as not to disturb the person. For example, the stand 31 does not interfere with work when a subject (patient) is treated in a hospital. Moreover, since the distance image sensor 10 detects the distance to the object existing in the target space without contact, the distance image sensor 10 does not disturb the behavior of the subject and does not disturb the sleeping comfort of the bed 30.

距離画像センサ10は、図2(a)のように、ベッド30を俯瞰することができるように、光軸16A(図5参照)を斜め下向きにして配置される。また、この状態において距離画像センサ10の視野領域にベッド30の上面の全体が含まれるように、光軸16Aの傾き角度(俯角θ)が設定される。ここで、光軸16Aが斜め下向きであることから、ベッド30のヘッドボード36側では、ベッド30の上面までの距離は相対的に小さくなり、ベッド30のフットボード37側では、ベッド30の上面までの距離が相対的に大きくなる。   As shown in FIG. 2A, the distance image sensor 10 is disposed with the optical axis 16A (see FIG. 5) obliquely downward so that the bed 30 can be seen from above. In this state, the tilt angle (the depression angle θ) of the optical axis 16A is set so that the entire top surface of the bed 30 is included in the visual field region of the distance image sensor 10. Here, since the optical axis 16A is obliquely downward, the distance to the upper surface of the bed 30 is relatively small on the headboard 36 side of the bed 30, and the upper surface of the bed 30 is on the footboard 37 side of the bed 30. The distance to becomes relatively large.

上述したように、本実施形態は、ベッド30を囲むベッド周りカーテン(以下、単に「カーテン」という)が存在している場合を想定し、距離画像センサ10はTOF型を用いている。したがって、カーテンが閉じられた状態では、投光した強度変調光の多重反射により物体までの距離に誤差を生じる可能性がある。すなわち、多重反射が生じる閉塞空間では、開放空間で用いる場合に比較すると得られる距離値が大きくなる可能性がある。これは、対象物までの直線強度変調光に対して周囲で反射した多重反射強度変調光の影響が大きく重畳され、事実上、対象物までの強度変調光が長くなったように復調されるからである。そのため、カーテンの開閉に応じて距離画像センサ10で得られる距離値が変動する可能性がある。距離画像センサ10が生成する距離画像に含まれる距離値がカーテンの開閉に伴って変動すると、距離画像を用いて検知しようとする情報に誤りが生じ、結果的に、認識すべき情報が検出されない未検知や認識すべき情報を過って検知する誤検知につながる。   As described above, the present embodiment assumes a case in which there is a curtain around the bed (hereinafter simply referred to as “curtain”) surrounding the bed 30, and the distance image sensor 10 uses a TOF type. Therefore, when the curtain is closed, there is a possibility that an error occurs in the distance to the object due to multiple reflection of the projected intensity-modulated light. That is, in a closed space where multiple reflection occurs, there is a possibility that the distance value obtained becomes larger than when used in an open space. This is because the influence of the multiple reflected intensity modulated light reflected in the surroundings on the linear intensity modulated light up to the object is greatly superimposed, and in effect demodulated as the intensity modulated light up to the object becomes longer It is. For this reason, the distance value obtained by the distance image sensor 10 may vary depending on the opening / closing of the curtain. If the distance value included in the distance image generated by the distance image sensor 10 fluctuates with the opening and closing of the curtain, an error occurs in information to be detected using the distance image, and as a result, information to be recognized is not detected. This will lead to false detections that are detected undetected or missed information.

本実施形態は、図1に示すように、距離画像センサ10の出力を監視する距離変動補正部60を備え、距離変動補正部60によりカーテンの開閉などに対応した距離の変動を監視することにより、未検知や誤検知を防止する構成を採用している。距離変動補正部60は、距離画像センサ10の演算処理部19と同様に、デジタル信号処理装置(マイコン、DSP、FPGAなど)を用いて構成される。すなわち、デジタル信号処理装置においてプログラムを実行することにより、以下に説明する距離変動補正部60の機能が実現される。なお、演算処理部19と距離変動補正部60とを構成するデジタル信号処理装置は、個別に設けるほか、共用してもよい。   As shown in FIG. 1, the present embodiment includes a distance variation correction unit 60 that monitors the output of the distance image sensor 10, and the distance variation correction unit 60 monitors a variation in distance corresponding to the opening and closing of the curtain. In addition, a configuration that prevents undetected and erroneous detection is adopted. The distance fluctuation correction unit 60 is configured by using a digital signal processing device (a microcomputer, a DSP, an FPGA, or the like), similarly to the arithmetic processing unit 19 of the distance image sensor 10. That is, by executing the program in the digital signal processing device, the function of the distance variation correction unit 60 described below is realized. Note that the digital signal processing devices constituting the arithmetic processing unit 19 and the distance variation correcting unit 60 may be provided separately or shared.

距離変動補正部60は、図7に示すように、システムの使用開始の時点において距離画像センサ10が出力する距離画像を背景距離画像として記憶する背景画像記憶部61を備える。後述するように、システムの使用開始時において、監視する対象者はベッド30の上で臥床した状態とする。   As shown in FIG. 7, the distance variation correction unit 60 includes a background image storage unit 61 that stores a distance image output from the distance image sensor 10 as a background distance image at the start of use of the system. As will be described later, the person to be monitored is bedded on the bed 30 at the start of use of the system.

距離変動補正部60は、距離画像センサ10が出力する距離画像を順に取り込む現画像取得部62を備える。背景画像記憶部61に記憶された背景距離画像と現画像取得部62が取得する距離画像とは、距離変動補正部60に設けられた変動率算出部63において比較され、背景距離画像と新たに取得した距離画像とから変動率が算出される。変動率の演算は後述する。   The distance variation correction unit 60 includes a current image acquisition unit 62 that sequentially captures the distance images output from the distance image sensor 10. The background distance image stored in the background image storage unit 61 and the distance image acquired by the current image acquisition unit 62 are compared by the variation rate calculation unit 63 provided in the distance variation correction unit 60, and newly added to the background distance image. The variation rate is calculated from the acquired distance image. The calculation of the fluctuation rate will be described later.

変動率算出部63は、求めた変動率を基準範囲と比較し、変動率が基準範囲内であるときに、対象者の動作により変動が生じたのではなく、カーテンの開閉によって(多重反射の影響によって)変動が生じたと判断する。変動率算出部63は、多重反射の影響により生じた変動率の変化を勘案して変動率の代表値を求め、この変動率の代表値を距離変動補正部60に設けられた距離補正部64に引き渡す。距離補正部64は、変動率の代表値に応じて距離画像の距離値を補正し、出力部65を通して補正後の距離画像を行動監視処理部20に引き渡す。   The fluctuation rate calculation unit 63 compares the obtained fluctuation rate with the reference range, and when the fluctuation rate is within the reference range, the fluctuation is not caused by the movement of the subject, but by opening and closing the curtain (multiple reflection) Judge that the change has occurred. The variation rate calculation unit 63 obtains a representative value of the variation rate in consideration of the variation of the variation rate caused by the influence of multiple reflection, and the distance correction unit 64 provided in the distance variation correction unit 60 uses the representative value of the variation rate. To hand over. The distance correction unit 64 corrects the distance value of the distance image according to the representative value of the variation rate, and passes the corrected distance image to the behavior monitoring processing unit 20 through the output unit 65.

ところで、多重反射による距離画像の距離値の変動に関するメカニズムは複雑であり、多重反射により生じる事象のシミュレーションを完全に行うことは困難である。つまり、多重反射に起因する距離画像の誤差の補正を完全に行うことは困難である。ただし、上述のような使用環境では、距離画像センサ10からの距離が大きいほど多重反射による距離の変動量が大きく、距離画像センサ10からの距離が小さいと多重反射による距離の変動量も小さくなる。そのため、各々の変動量をその距離で正規化するとその値がおおよそ一定となるという知見が実験から得られている。本実施形態は、この知見を利用し、変動率算出部63が距離画像の画素ごとに変動率を求めて多重反射の影響があるか否かを評価し、さらに、多重反射の影響による変動率の代表値を求め、距離補正部64が変動率の代表値と距離値とを用いて距離画像の補正を行っている。   By the way, the mechanism relating to the variation of the distance value of the distance image due to multiple reflection is complicated, and it is difficult to completely simulate an event caused by multiple reflection. That is, it is difficult to completely correct the error of the distance image due to multiple reflection. However, in the use environment as described above, the greater the distance from the distance image sensor 10, the greater the variation in distance due to multiple reflection, and the smaller the distance from the distance image sensor 10, the smaller the variation in distance due to multiple reflection. . For this reason, it has been experimentally obtained that the value becomes approximately constant when each fluctuation amount is normalized by the distance. In the present embodiment, using this knowledge, the fluctuation rate calculation unit 63 obtains a fluctuation rate for each pixel of the distance image and evaluates whether there is an influence of multiple reflection, and further, the fluctuation rate due to the influence of multiple reflection. The distance correction unit 64 corrects the distance image using the representative value of the variation rate and the distance value.

ここに、変動率算出部63は、距離画像の各画素に対応する変動率kを、k=(背景距離画像の画素値)/(取得した距離画像の画素値)として算出する。距離画像センサ10の視野内で変化が生じなければ変動率kはほぼ一定であり、多重反射の影響の程度や視野内の物体の変位により変動率kが変化する。すなわち、(変動率k)×(距離画像センサ10から取得した距離画像の画素値)を、(補正後の距離画像の画素値)とする補正を行えば、多重反射による距離値の変動に対しては大きな誤差を伴うことなく、画素値を補正することが可能である。   Here, the fluctuation rate calculation unit 63 calculates the fluctuation rate k corresponding to each pixel of the distance image as k = (pixel value of the background distance image) / (pixel value of the acquired distance image). If no change occurs in the field of view of the distance image sensor 10, the rate of change k is substantially constant, and the rate of change k changes depending on the degree of the influence of multiple reflections and the displacement of an object in the field of view. That is, if correction is performed with (variation rate k) × (pixel value of the distance image acquired from the distance image sensor 10) as (pixel value of the corrected distance image), the variation of the distance value due to multiple reflections is corrected. Thus, it is possible to correct the pixel value without causing a large error.

変動率算出部63は、距離画像から求めた変動率kを基準範囲と比較することにより多重反射の影響があるか否かを評価する。また、変動率算出部63は、多重反射の影響のみで変動率kが変化した画素について、変動率kの代表値を求める。変動率kの代表値は、画素ごとの変動率kの距離画像全体における平均値、画素ごとの変動率kの距離画像内での最大値、距離画像内において最大値から規定割合に属する変動率kの平均値、距離画像内に設定した領域内の平均値などから選択される。   The variation rate calculation unit 63 evaluates whether or not there is an influence of multiple reflection by comparing the variation rate k obtained from the distance image with the reference range. In addition, the fluctuation rate calculation unit 63 obtains a representative value of the fluctuation rate k for a pixel in which the fluctuation rate k has changed only due to the influence of multiple reflection. The representative value of the variation rate k is the average value of the variation rate k for each pixel in the entire distance image, the maximum value in the distance image of the variation rate k for each pixel, and the variation rate belonging to the specified ratio from the maximum value in the distance image. It is selected from an average value of k, an average value in an area set in the distance image, and the like.

ところで、変動率は、距離画像センサ10から得られた距離画像と背景距離画像との画素ごとの画素値の比として求めており、上述した例では、距離画像の全体で変動率を求めているから、背景距離画像に含まれる距離値が固定値であることが保証されていない。すなわち、背景距離画像の中に距離値が短時間で変動する領域、つまり物理的に物体が移動することによって生じる距離変動領域が含まれている場合に、当該領域の距離値は変化過程におけるある瞬間の距離値にすぎないから、変動率を求める際の基準として適切ではない。したがって、変動率を精度よく評価するには、距離画像の中で距離値の変化が生じない既知の領域を基準に用いることが好ましい。   By the way, the variation rate is obtained as a ratio of pixel values for each pixel of the distance image obtained from the distance image sensor 10 and the background distance image. In the above-described example, the variation rate is obtained for the entire distance image. Therefore, it is not guaranteed that the distance value included in the background distance image is a fixed value. That is, if the background distance image includes a region where the distance value fluctuates in a short time, that is, a distance variation region caused by a physical movement of the object, the distance value of the region is in the process of changing. Since it is only an instantaneous distance value, it is not appropriate as a reference for obtaining the fluctuation rate. Therefore, in order to accurately evaluate the variation rate, it is preferable to use a known area in the distance image that does not change the distance value as a reference.

距離値が変化しない領域としては、たとえば、ベッド30のフットボード37に相当する領域が用いられる。距離画像センサ10からフットボード37までの距離は、ベッド30を移動させなければ変化しないと考えられる。ただし、ベッド30の上に対象者40が存在していると、距離画像センサ10の視野にフットボード37の全体を含めることが難しい場合がある。そこで、図8に示すように、フットボード37の上に距離値の基準を決めるための観測板45を配置している。   As the area where the distance value does not change, for example, an area corresponding to the foot board 37 of the bed 30 is used. It is considered that the distance from the distance image sensor 10 to the foot board 37 does not change unless the bed 30 is moved. However, if the target person 40 is present on the bed 30, it may be difficult to include the entire footboard 37 in the field of view of the distance image sensor 10. Therefore, as shown in FIG. 8, an observation plate 45 for determining a reference for the distance value is arranged on the foot board 37.

観測板45は、フットボード37の上端から上方に延長されるように配置される。距離画像から観測板45を抽出するには、距離画像を行動監視処理部20に与え、ベッド認識部21が後述する処理を行うことにより、ベッド30の範囲を検出する。ベッド認識部21は、距離画像からベッド30の範囲を検出すると、フットボード37に相当する領域を算出し、さらに、フットボード37に相当する領域を用いて観測板45に相当する領域S{i,j}を算出する。   The observation board 45 is disposed so as to extend upward from the upper end of the foot board 37. In order to extract the observation board 45 from the distance image, the distance image is given to the behavior monitoring processing unit 20, and the bed recognition unit 21 performs a process described later, thereby detecting the range of the bed 30. When the bed recognition unit 21 detects the range of the bed 30 from the distance image, the bed recognition unit 21 calculates a region corresponding to the footboard 37, and further uses a region corresponding to the footboard 37 to region S {i corresponding to the observation board 45. , J}.

いま、背景距離画像として、図9(a)に示すように、カーテンを開いた状態の距離画像が保存されているときに、図9(b)に示すように、カーテン46を閉じた状態の距離画像が得られたとする。ここで、背景距離画像と距離画像センサ10から取得した距離画像とについて、観測板45に相当する領域S{i,j}に含まれる画素ごとの距離値を、それぞれbg(i,j)、fg(i,j)とする。したがって、各画素の変動率k(i,j)は、k(i,j)=bg(i,j)/fg(i,j)と表される。   As shown in FIG. 9A, when the distance image with the curtain opened is stored as the background distance image, the curtain 46 is closed as shown in FIG. 9B. Assume that a distance image is obtained. Here, for the background distance image and the distance image acquired from the distance image sensor 10, the distance value for each pixel included in the region S {i, j} corresponding to the observation plate 45 is represented by bg (i, j), Let fg (i, j). Therefore, the variation rate k (i, j) of each pixel is expressed as k (i, j) = bg (i, j) / fg (i, j).

観測板45に相当する領域S{i,j}は、カーテン46の開閉にかかわらず距離の変動が生じないこと、すなわち、変動率k(i,j)がほぼ1になることが期待される。しかしながら、実際には、多重反射の有無あるいは対象者40の移動によって、変動率k(i,j)が変化する。   In the region S {i, j} corresponding to the observation plate 45, it is expected that the distance does not vary regardless of the opening / closing of the curtain 46, that is, the variation rate k (i, j) is approximately 1. . However, in practice, the variation rate k (i, j) varies depending on the presence or absence of multiple reflections or the movement of the subject 40.

ベッド30の上の対象者40が移動した場合、距離画像センサ10の視野内において観測板45の一部が対象者40に遮蔽されるから、領域S{i,j}において変動率k(i,j)が比較的大きく変動する箇所が生じる。一方、ベッド30の周囲環境や距離画像センサ10の仕様にもよるが、カーテン46の開閉に伴う多重反射の影響では、変動率k(i,j)の限界値は、おおむね1.0±0.1になるという実験結果が得られた。   When the target person 40 on the bed 30 moves, a part of the observation board 45 is shielded by the target person 40 within the field of view of the distance image sensor 10, so that the variation rate k (i) in the region S {i, j}. , J) occur where there is a relatively large fluctuation. On the other hand, depending on the ambient environment of the bed 30 and the specifications of the distance image sensor 10, the limit value of the variation rate k (i, j) is approximately 1.0 ± 0 due to the influence of multiple reflections associated with the opening and closing of the curtain 46. The experimental result of .1 was obtained.

この結果を踏まえて、変動率算出部63は、変動率k(i,j)が0.9〜1.1であれば、多重反射による距離変動と判定し、変動率k(i,j)が0.9未満または1.1超であれば、対象者40が移動したと判定するように構成される。距離が2m程度の範囲であれば、0.1(10%)の変動率k(i,j)は、20cmに相当する。対象者40の動作や対象者40のサイズを考慮すれば、対象者40が移動したときに、距離の変化が20cm以下になることはほとんどないと考えられる。したがって、変動率算出部63において、変動率k(i,j)を基準範囲(0.9〜1.1)と比較することにより、多重反射の影響による変化か、対象者40の移動による変化かを判別できる。   Based on this result, if the fluctuation rate k (i, j) is 0.9 to 1.1, the fluctuation rate calculation unit 63 determines that the distance fluctuation is due to multiple reflection, and the fluctuation rate k (i, j). Is less than 0.9 or greater than 1.1, it is configured to determine that the subject 40 has moved. If the distance is in the range of about 2 m, a variation rate k (i, j) of 0.1 (10%) corresponds to 20 cm. Considering the movement of the subject 40 and the size of the subject 40, it is considered that the distance hardly changes to 20 cm or less when the subject 40 moves. Therefore, the change rate calculation unit 63 compares the change rate k (i, j) with the reference range (0.9 to 1.1), thereby changing due to the influence of multiple reflections or changing due to the movement of the subject 40. Can be determined.

距離補正部64は、上述したように、変動率算出部63が算出した変動率k(i,j)を、距離画像センサ10から取得した距離画像の距離値に乗じることによって、距離値を補正し、この距離値を出力部65から出力する。   As described above, the distance correction unit 64 corrects the distance value by multiplying the distance value of the distance image acquired from the distance image sensor 10 by the fluctuation rate k (i, j) calculated by the fluctuation rate calculation unit 63. The distance value is output from the output unit 65.

変動率算出部63と距離補正部64との動作例を図10に示す。図10に示す動作例では、変動率の代表値として対象者40の存在範囲を除く変動率の平均値を用いている。   An example of the operation of the fluctuation rate calculation unit 63 and the distance correction unit 64 is shown in FIG. In the operation example shown in FIG. 10, the average value of the fluctuation rates excluding the existence range of the subject 40 is used as the representative value of the fluctuation rate.

変動率算出部63は、背景画像記憶部61に記憶された背景距離画像と、現画像取得部62が距離画像センサ10から取得した距離画像とから観測板45に相当する領域S{i,j}を抽出する(S11)。   The fluctuation rate calculation unit 63 includes a region S {i, j corresponding to the observation plate 45 from the background distance image stored in the background image storage unit 61 and the distance image acquired by the current image acquisition unit 62 from the distance image sensor 10. } Is extracted (S11).

その後、領域S{i,j}に含まれる画素{i,j}ごとに、変動率k(i,j)を算出し(S13)、変動率k(i,j)を基準範囲(0.9〜1.1)と比較する(S14)。変動率k(i,j)が基準範囲内である場合(S14:Yes)、変動率k(i,j)の合計と該当する画素の個数とを求める(S15)。変動率k(i,j)が基準範囲を超える場合は(S14:No)、該当する画素{i,j}を無視する。   Thereafter, for each pixel {i, j} included in the region S {i, j}, a variation rate k (i, j) is calculated (S13), and the variation rate k (i, j) is calculated as the reference range (0. 9-1.1) (S14). When the variation rate k (i, j) is within the reference range (S14: Yes), the total variation rate k (i, j) and the number of corresponding pixels are obtained (S15). When the variation rate k (i, j) exceeds the reference range (S14: No), the corresponding pixel {i, j} is ignored.

上述したステップS13〜S15の処理は、領域S{i,j}の中のすべての画素{i,j}について行われる(S12,S16)。さらに、ステップS15で求めた変動率k(i,j)の合計を、画素の個数で除算することにより、変動率k(i,j)が基準範囲内である画素{i,j}について、変動率k(i,j)の平均値を求める(S17)。図10に示す動作例では、この平均値を変動率k(i,j)の代表値に用いている。求められた変動率k(i,j)の代表値は、対象者40の移動により距離値が変化した画素を除いて求めた変動率k(i,j)の代表値になる。   The processes in steps S13 to S15 described above are performed for all the pixels {i, j} in the region S {i, j} (S12, S16). Further, by dividing the sum of the variation rates k (i, j) obtained in step S15 by the number of pixels, for the pixel {i, j} where the variation rate k (i, j) is within the reference range, An average value of the fluctuation rates k (i, j) is obtained (S17). In the operation example shown in FIG. 10, this average value is used as a representative value of the fluctuation rate k (i, j). The representative value of the obtained variation rate k (i, j) is the representative value of the variation rate k (i, j) obtained by excluding pixels whose distance value has changed due to the movement of the subject 40.

次に、距離補正部64は、現画像取得部62が取得した距離画像の全画素の距離値に対して、変動率算出部63が算出した変動率k(i,j)の代表値を乗じて距離値を補正する(S19)。距離値の補正は、距離画像の全画素について行う(S18,S20)。距離補正部64は、補正後の距離値を持つ距離画像を出力部65を通して出力する(S21)。このように、距離画像の全がその距離値に変動率k(i,j)の代表値を乗じて距離値を補正することにより、距離画像センサ10の視野内において対象者40を含むすべての画素から多重反射の影響を軽減することができる。   Next, the distance correction unit 64 multiplies the distance value of all the pixels of the distance image acquired by the current image acquisition unit 62 by the representative value of the variation rate k (i, j) calculated by the variation rate calculation unit 63. Then, the distance value is corrected (S19). The correction of the distance value is performed for all pixels of the distance image (S18, S20). The distance correction unit 64 outputs a distance image having the corrected distance value through the output unit 65 (S21). In this way, all the distance images are corrected by multiplying the distance value by the representative value of the variation rate k (i, j), thereby correcting all the distance images in the visual field of the distance image sensor 10. The influence of multiple reflection from the pixel can be reduced.

上述のように補正後の距離値を持つ距離画像によって行動監視処理部20における処理を行うから、カーテン46の開閉などにより生じた多重反射の影響を抑制して、行動監視処理部20での判断を精度よく行うことが可能になり、しかも、対象者40の動作を多重反射と誤認することが防止される。なお、観測板45を設ける部位はフットボード37に制限されず、距離画像センサ10の視野内であれば適宜の部位に観測板45を配置することが可能である。   As described above, since the process in the behavior monitoring processing unit 20 is performed using the distance image having the corrected distance value, the influence of the multiple reflection caused by opening and closing of the curtain 46 is suppressed, and the determination in the behavior monitoring processing unit 20 is performed. Can be performed with high accuracy, and the operation of the subject 40 is prevented from being mistaken for multiple reflection. Note that the portion where the observation plate 45 is provided is not limited to the footboard 37, and the observation plate 45 can be arranged at an appropriate portion as long as it is within the field of view of the distance image sensor 10.

ところで、観測板45をフットボード37に取り付けていると、変動率k(i,j)を求める領域S{i,j}が、臥床中の対象者40の動作によって遮られず、変動率k(i,j)の代表値を精度よく求めることができる。ただし、フットボード37に観測板45を取り付けるための手間がかかる。観測板45はフットボード37と一体化することが可能であるが、その場合、特別な形状のフットボード37が必要になる。   By the way, when the observation board 45 is attached to the foot board 37, the region S {i, j} for obtaining the variation rate k (i, j) is not obstructed by the movement of the subject 40 in the bed, and the variation rate k. The representative value of (i, j) can be obtained with high accuracy. However, it takes time and effort to attach the observation board 45 to the footboard 37. The observation board 45 can be integrated with the foot board 37, but in that case, a specially shaped foot board 37 is required.

以下では、観測板45を設けずに変動率k(i,j)によって多重反射の影響を評価する技術について説明する。変動率k(i,j)により多重反射の影響の有無を判断する際には、着目した領域S{i,j}の画素{i,j}ごとに対象者40の移動を伴うか否かを判別しているから、領域S{i,j}における距離値の若干の変化は許容される。そこで、ベッド30のフットボード37ではなく、変動率k(i,j)を求める領S{i,j}をベッド30の内側の領域としてもよい。たとえば、掛け布団の上面であれば、比較的広い範囲に亘って距離値の変動が少ない領域が生じる。   In the following, a technique for evaluating the influence of multiple reflections using the variation rate k (i, j) without providing the observation plate 45 will be described. Whether or not there is a movement of the subject 40 for each pixel {i, j} of the focused area S {i, j} when determining the presence or absence of the influence of multiple reflections based on the variation rate k (i, j). Therefore, a slight change in the distance value in the region S {i, j} is allowed. Therefore, instead of the foot board 37 of the bed 30, the region S {i, j} for obtaining the variation rate k (i, j) may be set as the region inside the bed 30. For example, in the case of the upper surface of the comforter, an area where the variation of the distance value is small over a relatively wide range occurs.

ベッド30の上に領域S{i,j}が設定されると、多重反射の影響による距離値の変化だけではなく、対象者40の移動による距離値の変化も大きくなる。ただし、領域S{i,j}の画素{i,j}ごとに変動率k(i,j)を評価するから、対象者40の移動により距離値が変化している画素を除去して変動率k(i,j)を評価可能であり、変動率k(i,j)の代表値を比較的精度よく求めることが可能である。たとえば、2m程度の距離範囲であれば、多重反射による20cm(10%)程度の距離値の変化に対して、対象者40の移動による距離値の変化は40cm(20%)以上になると考えられ、適宜に閾値を設定すれば、両者を判別することが可能になる。   When the region S {i, j} is set on the bed 30, not only the change of the distance value due to the influence of the multiple reflection but also the change of the distance value due to the movement of the subject 40 becomes large. However, since the rate of change k (i, j) is evaluated for each pixel {i, j} in the region S {i, j}, the pixel whose distance value has changed due to the movement of the subject 40 is removed and changed. The rate k (i, j) can be evaluated, and the representative value of the variation rate k (i, j) can be obtained with relatively high accuracy. For example, in the case of a distance range of about 2 m, it is considered that the change of the distance value due to the movement of the subject 40 is 40 cm (20%) or more with respect to the change of the distance value of about 20 cm (10%) due to multiple reflection. If a threshold value is appropriately set, both can be discriminated.

このように、掛け布団の上面の適宜の領域やベッド30の全面などを用いて変動率k(i,j)を評価することにより、観測板45を用いなくとも多重反射の影響による距離値の変化を検出し、距離値を補正することが可能になる。   As described above, the variation rate k (i, j) is evaluated using an appropriate region on the upper surface of the comforter, the entire surface of the bed 30, and the like, so that the change in the distance value due to the influence of the multiple reflection without using the observation plate 45. Can be detected and the distance value can be corrected.

以下、行動監視処理部20について、さらに詳しく説明する。対象者40の行動を分類するには、上述したように、距離画像センサ10が出力した距離画像からベッド30を抽出する必要がある。したがって、行動監視処理部20は、距離画像に含まれる情報を用いてベッド30を認識するベッド認識部21を備える。また、ベッド認識部21によりベッド30が認識されるから、距離画像に含まれる情報とベッド30との相対関係を用いることによって、対象空間における人の存否を認識することが可能になる。   Hereinafter, the behavior monitoring processing unit 20 will be described in more detail. In order to classify the behavior of the target person 40, it is necessary to extract the bed 30 from the distance image output by the distance image sensor 10, as described above. Accordingly, the behavior monitoring processing unit 20 includes a bed recognition unit 21 that recognizes the bed 30 using information included in the distance image. Further, since the bed 30 is recognized by the bed recognition unit 21, it is possible to recognize the presence or absence of a person in the target space by using the relative relationship between the information included in the distance image and the bed 30.

さらに、行動監視処理部20には、ベッド認識部21が認識したベッド30と他の物体との関係から人の存否を認識する人認識部22が設けられる。加えて、行動監視処理部20は、ベッド認識部21による認識と人認識部22による認識とを総合することにより、対象者の行動を分類し、必要に応じて行動に対する報知を行う行動判定部23を備える。   Further, the behavior monitoring processing unit 20 is provided with a person recognition unit 22 that recognizes the presence or absence of a person from the relationship between the bed 30 recognized by the bed recognition unit 21 and other objects. In addition, the behavior monitoring processing unit 20 classifies the behavior of the target person by combining the recognition by the bed recognition unit 21 and the recognition by the person recognition unit 22, and performs behavior notification when necessary. 23.

ベッド認識部21は、まず、ベッド30の位置を認識するために、ベッド30を平面視した場合のベッド30の外周を検出する。一般的なベッド30は平面視において四角形状であるから、ベッド認識部21では、ベッド30の4辺を抽出することにより、ベッド30の位置を認識する。   First, the bed recognition unit 21 detects the outer periphery of the bed 30 when the bed 30 is viewed in plan to recognize the position of the bed 30. Since the general bed 30 has a quadrangular shape in plan view, the bed recognition unit 21 recognizes the position of the bed 30 by extracting four sides of the bed 30.

本実施形態では、ベッド30の既知位置に目標物を設け、目標物の位置を基準に用いることにより、ベッド30の4辺の抽出を容易にしている。目標物はベッド30の4辺のいずれか1辺に設けられていればよいが、距離画像センサ10をベッド30のヘッドボード36側に配置するから、目標物が距離画像センサ10の視野内に入りやすいように、目標物はフットボード37側に設けることが好ましい。   In the present embodiment, a target is provided at a known position of the bed 30 and the four sides of the bed 30 are easily extracted by using the position of the target as a reference. The target only needs to be provided on any one of the four sides of the bed 30. However, since the distance image sensor 10 is disposed on the headboard 36 side of the bed 30, the target is within the field of view of the distance image sensor 10. The target is preferably provided on the footboard 37 side so that it can easily enter.

図11に示す例では、目標物としてフットボード37に3個のマーカP0,P1,P2を取り付けている。マーカP1は、フットボード37の上端部における左右方向の中心位置に取り付けられ、マーカP0,P2は、マーカP1の左右に離れてフットボード37に取り付けられる。すなわち、マーカP0,P2はマーカP1を挟んで対称に配置される。マーカP1とマーカP0,P2とは距離を可能な範囲で大きくとることが好ましい。また、マーカP0,P1,P2は、ベッド30の上面からの高さが揃えられている。マーカP0,P1,P2は、高反射性であることが好ましく、たとえば、再帰反射性が付与される。マーカP0,P1,P2は、フットボード37に貼付可能となるように片面に粘着材が塗られていることが好ましい。さらに、マーカP0,P1,P2は、監視対象となるベッド30にあらかじめ貼付しておけばよく、貼付と剥離とを繰り返す必要はない。   In the example shown in FIG. 11, three markers P0, P1, and P2 are attached to the footboard 37 as a target. The marker P1 is attached to the center position in the left-right direction at the upper end of the footboard 37, and the markers P0 and P2 are attached to the footboard 37 away from the left and right of the marker P1. That is, the markers P0 and P2 are arranged symmetrically with the marker P1 interposed therebetween. It is preferable that the distance between the marker P1 and the markers P0 and P2 is as large as possible. Further, the markers P0, P1, and P2 have the same height from the upper surface of the bed 30. The markers P0, P1, and P2 are preferably highly reflective, for example, are provided with retroreflectivity. The markers P0, P1, and P2 are preferably coated with an adhesive on one side so that the markers can be attached to the footboard 37. Furthermore, the markers P0, P1, and P2 may be pasted on the bed 30 to be monitored in advance, and it is not necessary to repeat pasting and peeling.

ベッド認識部21において、ベッド30の1辺に配置したマーカP0,P1,P2の位置を抽出するには、まず反射強度画像を生成する。反射強度画像では、マーカP0,P1,P2の部位の明度が周囲よりも高くなるから、明度に適宜の閾値を適用して反射強度画像から二値画像を生成すると、マーカP0,P1,P2のみが二値画像内に抽出される。なお、反射強度画像から二値画像を生成する閾値は、固定閾値と浮動閾値とのどちらでもよい。マーカP0,P1,P2の反射率が周囲に比較して十分に大きい場合は固定閾値を用いればよく、周囲の物体の反射率とマーカP0,P1,P2の反射率との差が小さい場合は浮動閾値を用いればよい。マーカP0,P1,P2の誤検出を防止するには、反射強度画像から既知位置のマーカP0,P1,P2を抽出する領域をあらかじめ制限しておくことが好ましい。   In order to extract the positions of the markers P0, P1, and P2 arranged on one side of the bed 30 in the bed recognition unit 21, first, a reflection intensity image is generated. In the reflection intensity image, the brightness of the parts of the markers P0, P1, and P2 is higher than the surroundings. Therefore, when a binary image is generated from the reflection intensity image by applying an appropriate threshold value to the brightness, only the markers P0, P1, and P2 are used. Are extracted into the binary image. Note that the threshold value for generating the binary image from the reflection intensity image may be either a fixed threshold value or a floating threshold value. When the reflectance of the markers P0, P1, and P2 is sufficiently large compared to the surroundings, a fixed threshold value may be used. When the difference between the reflectance of the surrounding objects and the reflectances of the markers P0, P1, and P2 is small A floating threshold may be used. In order to prevent erroneous detection of the markers P0, P1, and P2, it is preferable to limit in advance the region for extracting the markers P0, P1, and P2 at known positions from the reflection intensity image.

反射強度画像を用いてマーカP0,P1,P2に対応する画素の位置が求められると、距離画像を用いることにより、当該画素に対応する3次元位置が求められる。すなわち、カメラ座標系におけるマーカP0,P1,P2の3次元位置が求められる。したがって、X画像とY画像とを用いると、マーカP0,P1,P2に対応したX値とY値とが求められ、図12のように、グローバル座標系におけるマーカP0,P1,P2に対応する点WP0,WP1,WP2の座標位置が求められる。なお、マーカP0,P1,P2には大きさがあるから、マーカP0,P1,P2に対応する領域の代表点(たとえば、重心)の座標位置を点WP0,WP1,WP2の座標位置とする。また、グローバル座標系において鉛直下向きがZ方向の正の向きであって、ベッド認識部21は、床面上でのベッド30の周縁の位置を検出すればよいからZ値は求めない。   When the position of the pixel corresponding to the markers P0, P1, and P2 is obtained using the reflection intensity image, the three-dimensional position corresponding to the pixel is obtained by using the distance image. That is, the three-dimensional positions of the markers P0, P1, and P2 in the camera coordinate system are obtained. Therefore, when the X image and the Y image are used, the X value and the Y value corresponding to the markers P0, P1, and P2 are obtained, and the markers correspond to the markers P0, P1, and P2 in the global coordinate system as shown in FIG. The coordinate positions of the points WP0, WP1, and WP2 are obtained. Since the markers P0, P1, and P2 have sizes, the coordinate position of the representative point (for example, the center of gravity) in the area corresponding to the markers P0, P1, and P2 is set as the coordinate position of the points WP0, WP1, and WP2. In the global coordinate system, the vertical downward direction is the positive direction of the Z direction, and the bed recognition unit 21 only needs to detect the position of the peripheral edge of the bed 30 on the floor surface, so the Z value is not obtained.

上述のようにしてXY平面に平行な面内でのマーカP0,P1,P2に対応する点WP0,WP1,WP2の座標位置が求められると、ベッド認識部21は、3個の点WP0,WP1,WP2を通る近似直線L0を求める。近似直線L0は、たとえば最小二乗法を用いて求められる。求められた近似直線L0は、XY平面においてフットボード37を通る直線とみなせる。すなわち、近似直線L0は、ベッド30の一つの端縁を規定すると言える。また、点WP1は、フットボード37の中央に位置しているから、点WP1から近似直線L0に下ろした垂線の足の座標位置は、マーカP0〜P2から得られたフットボード37の中央の座標位置とみなせる。以下では、点WP1から近似直線L0に下ろした垂線の足に対応する点をWP4とする。   When the coordinate positions of the points WP0, WP1, WP2 corresponding to the markers P0, P1, P2 in the plane parallel to the XY plane are obtained as described above, the bed recognizing unit 21 determines the three points WP0, WP1. , An approximate straight line L0 passing through WP2. The approximate straight line L0 is obtained using, for example, the least square method. The obtained approximate straight line L0 can be regarded as a straight line passing through the foot board 37 in the XY plane. That is, it can be said that the approximate straight line L0 defines one edge of the bed 30. Further, since the point WP1 is located at the center of the footboard 37, the coordinate position of the perpendicular foot drawn from the point WP1 to the approximate straight line L0 is the coordinate of the center of the footboard 37 obtained from the markers P0 to P2. It can be regarded as a position. Hereinafter, the point corresponding to the leg of the perpendicular drawn from the point WP1 to the approximate straight line L0 is referred to as WP4.

XY平面に平行な面内において、点WP4を中心としてベッド30の左右幅Dを直径とする円を設定し、この円と近似直線L0との交点C0,C1を求めると、交点C0,C1はベッド30の左右の端縁とフットボード37との交点に対応することになる。ここに、ベッド30の左右幅Dは既知寸法を用いる。したがって、交点C0,C1を通り近似直線L0に直交する直線L2,L3を求めると、直線L2,L3は、ベッド30の左右の端縁を通る直線とみなせる。ここに、直線L2,L3は近似直線L0に対してX座標の座標値が小さくなる方向に延長される。   In a plane parallel to the XY plane, a circle whose diameter is the left-right width D of the bed 30 with the point WP4 as the center is set, and when the intersections C0 and C1 between the circle and the approximate straight line L0 are obtained, the intersections C0 and C1 are This corresponds to the intersection between the left and right edges of the bed 30 and the footboard 37. Here, a known dimension is used for the left-right width D of the bed 30. Accordingly, when the straight lines L2 and L3 passing through the intersections C0 and C1 and orthogonal to the approximate straight line L0 are obtained, the straight lines L2 and L3 can be regarded as straight lines passing through the left and right edges of the bed 30. Here, the straight lines L2 and L3 are extended in a direction in which the coordinate value of the X coordinate becomes smaller than the approximate straight line L0.

最後に、交点C0を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L2との交点C2を求め、また、交点C1を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L3との交点C3を求める。交点C2,C3を通る直線L1を設定すれば、直線L1はベッド30のヘッドボード36を通る直線とみなせる。ここに、ベッド30の長さWは既知寸法を用いる。   Finally, a circle whose radius is the length W of the bed 30 with the intersection C0 as the center is set, an intersection C2 between the circle and the straight line L2 is obtained, and the length W of the bed 30 with the radius as the center is the intersection C1. And a point of intersection C3 between the circle and the straight line L3 is obtained. If a straight line L1 passing through the intersections C2 and C3 is set, the straight line L1 can be regarded as a straight line passing through the head board 36 of the bed 30. Here, a known dimension is used for the length W of the bed 30.

ベッド認識部21は、上述した手順によって、ベッド30を囲む4つの端縁に相当する4本の直線L0,L1,L2,L3を求める。また、このとき、ベッド30の四隅に相当する4個の交点C0,C1,C2,C3も求められる。さらに、ベッド認識部21は、グローバル座標系におけるXY平面内での座標軸に対するベッド30の傾きを求める。ベッド30の傾きは、グローバル座標の1つの座標軸(たとえば、X軸)に対して直線(たとえば、直線L2)がなす角度Φとして求められる。なお、角度Φは、グローバル座標のX軸またはY軸と、4本の直線L0,L1,L2,L3のいずれかとがなす角度によって求められる。このように、ベッド30がグローバル座標系の座標軸に対して傾いて配置されている場合でも、ベッド認識部21は、上述の処理により、ベッド30の位置を精度よく検出することになる。   The bed recognition unit 21 obtains four straight lines L0, L1, L2, and L3 corresponding to the four edges surrounding the bed 30 by the above-described procedure. At this time, four intersections C0, C1, C2, and C3 corresponding to the four corners of the bed 30 are also obtained. Furthermore, the bed recognition unit 21 obtains the inclination of the bed 30 with respect to the coordinate axes in the XY plane in the global coordinate system. The inclination of the bed 30 is obtained as an angle Φ formed by a straight line (for example, a straight line L2) with respect to one coordinate axis (for example, the X axis) of global coordinates. Note that the angle Φ is obtained by an angle formed by the X axis or the Y axis of the global coordinates and any of the four straight lines L0, L1, L2, and L3. As described above, even when the bed 30 is disposed to be inclined with respect to the coordinate axis of the global coordinate system, the bed recognition unit 21 detects the position of the bed 30 with high accuracy by the above-described processing.

ベッド30の4辺を求めた後には、4辺に囲まれた矩形の内側の領域をベッド30の範囲内の領域とする。すなわち、長手方向と短手方向(左右方向)との端縁に囲まれた矩形の領域をベッド30の範囲内とする。   After obtaining the four sides of the bed 30, an area inside the rectangle surrounded by the four sides is set as an area within the range of the bed 30. That is, a rectangular area surrounded by the edges in the long direction and the short direction (left-right direction) is set within the range of the bed 30.

上述した動作例では、3個のマーカP0,P1,P2を用いているが、フットボード37の左右の中心にマーカP1が配置されていれば、残りのマーカの個数にはとくに制限はなく、1個以上のマーカがあればよい。たとえば、4個以上のマーカを設けることによって、フットボード37を通る直線と近似直線L0との誤差が低減される可能性がある。   In the operation example described above, three markers P0, P1, and P2 are used. However, if the marker P1 is arranged at the center of the left and right of the footboard 37, the number of remaining markers is not particularly limited. There may be one or more markers. For example, by providing four or more markers, the error between the straight line passing through the footboard 37 and the approximate straight line L0 may be reduced.

上述した例では、フットボード37に3個のマーカP1,P1,P2が配置されているが、図13に示すように、ベッド30のフットボード37とベッド30の左右の各側縁(サイドレール)とに1個ずつのマーカP10,P11,P12が配置されていてもよい。フットボード37については、上述した例と同様に、左右方向の中心にマーカP11が配置される。マーカP10,P12は、ベッド30の左右の端縁であれば、XY平面内での位置およびZ方向の高さに制限はない。   In the example described above, the three markers P1, P1, and P2 are arranged on the footboard 37. However, as shown in FIG. 13, the footboard 37 of the bed 30 and the left and right side edges of the bed 30 (side rails). ) And one marker P10, P11, and P12 may be arranged. About the foot board 37, the marker P11 is arrange | positioned in the center of the left-right direction similarly to the example mentioned above. As long as the markers P10 and P12 are the left and right edges of the bed 30, the position in the XY plane and the height in the Z direction are not limited.

各マーカP10,P11,P12は、上述の例と同様に、高反射性であってベッド30に貼付されることが好ましい。ベッド認識部21は、上述の例と同様に、反射強度画像から画像内でのマーカP10,P11,P12の位置を求め、さらに、距離画像からマーカP10,P11,P12の3次元位置を求める。ここに、マーカP10,P11,P12の誤検出を防止するために、反射強度画像から既知位置のマーカP10,P11,P12を抽出する領域を、フットボード37とサイドレールとの範囲にあらかじめ制限しておくことが好ましい。さらに、ベッド認識部21は、X画像とY画像とを用いて、図14のように、マーカP10、P11,P12のグローバル座標系での点WP10,WP11,WP12の座標位置を求める。   Each marker P10, P11, P12 is preferably highly reflective and is affixed to the bed 30 as in the above example. The bed recognition unit 21 obtains the positions of the markers P10, P11, and P12 in the image from the reflection intensity image, and further obtains the three-dimensional positions of the markers P10, P11, and P12 from the distance image, as in the above example. Here, in order to prevent erroneous detection of the markers P10, P11, and P12, the area for extracting the markers P10, P11, and P12 at known positions from the reflection intensity image is limited in advance to the range of the footboard 37 and the side rail. It is preferable to keep it. Furthermore, the bed recognizing unit 21 obtains the coordinate positions of the points WP10, WP11, and WP12 in the global coordinate system of the markers P10, P11, and P12 using the X image and the Y image, as shown in FIG.

ベッド認識部21は、ベッド30の4辺を認識するために、まず、点WP10と点WP12とを結ぶ線分を求め、この線分の中点WPmを求める。ベッド30が矩形状であるという前提に基づけば、中点WPmはベッド30の左右幅を2分する中心線Lmの上に位置していることになる。したがって、点WP11と点Pmとを通る直線が、ベッド30の中心線Lmになる。また、中心線Lmに直交し点WP11を通る直線L10を設定する。この直線L10は、ベッド30のフットボード37を通る直線に相当する。   In order to recognize the four sides of the bed 30, the bed recognizing unit 21 first obtains a line segment connecting the point WP10 and the point WP12, and obtains the midpoint WPm of this line segment. Based on the premise that the bed 30 has a rectangular shape, the midpoint WPm is located on the center line Lm that bisects the left-right width of the bed 30. Accordingly, a straight line passing through the points WP11 and Pm becomes the center line Lm of the bed 30. A straight line L10 that is orthogonal to the center line Lm and passes through the point WP11 is set. The straight line L10 corresponds to a straight line passing through the foot board 37 of the bed 30.

ベッド認識部21は、中心線Lmを求めた後、点WP10と中心線Lmとの距離D1および点WP12と中心線Lmとの距離D2をそれぞれ求める。両距離D1,D2の合計はベッド30の左右幅Dに相当するから、点WP11を中心とする直径Dの円を設定し、この円と直線L10との交点C10,C11を求めると、交点C10,C11はベッド30の左右の端縁とフットボード37との交点に対応する。交点C10,C11を通り中心線Lmに平行な直線L12,L13を求めると、直線L12,L13は、ベッド30の左右の端縁を通る直線とみなせる。ここに、直線L12,L13は直線L10に対してX座標の座標値が小さくなる方向に延長される。なお、直線L12,L13を求めるにあたり、交点C10と点WP10とを通る直線をL12とし、交点C12と点WP12とを通る直線をL13としてもよい。   After obtaining the center line Lm, the bed recognition unit 21 obtains a distance D1 between the point WP10 and the center line Lm and a distance D2 between the point WP12 and the center line Lm. Since the sum of both distances D1 and D2 corresponds to the left-right width D of the bed 30, when a circle having a diameter D centered on the point WP11 is set and intersections C10 and C11 between this circle and the straight line L10 are obtained, the intersection C10 , C11 correspond to the intersection of the left and right edges of the bed 30 and the footboard 37. When the straight lines L12 and L13 passing through the intersections C10 and C11 and parallel to the center line Lm are obtained, the straight lines L12 and L13 can be regarded as straight lines passing through the left and right edges of the bed 30. Here, the straight lines L12 and L13 are extended in a direction in which the coordinate value of the X coordinate becomes smaller than the straight line L10. In determining the straight lines L12 and L13, a straight line passing through the intersection C10 and the point WP10 may be L12, and a straight line passing through the intersection C12 and the point WP12 may be L13.

ベッド30のヘッドボード36に対応する直線L11を求める手順は、上述した例と同様である。すなわち、交点C10を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L12との交点C12を求め、また、交点C11を中心としてベッド30の長さWを半径とする円を設定し、この円と直線L13との交点C13を求める。交点C12,C13を通る直線L11は、ベッド30のヘッドボード36を通る直線とみなせる。ベッド30の長さWは既知寸法を用いる。   The procedure for obtaining the straight line L11 corresponding to the head board 36 of the bed 30 is the same as the above-described example. That is, a circle having a radius of the length W of the bed 30 with the intersection C10 as the center is set, an intersection C12 of the circle and the straight line L12 is obtained, and the length W of the bed 30 with the radius of the intersection 30 is set as the center. A circle to be used is set, and an intersection C13 between the circle and the straight line L13 is obtained. The straight line L11 passing through the intersections C12 and C13 can be regarded as a straight line passing through the head board 36 of the bed 30. A known dimension is used for the length W of the bed 30.

このように、ベッド30の3辺にそれぞれマーカP10,P11,P12を配置してもベッド30の4辺に相当する直線L10,L11,L12,L13が求められる。この手順を採用する場合、マーカの個数を増やせば、中心線Lmの検出精度が向上する。   Thus, even if the markers P10, P11, and P12 are arranged on the three sides of the bed 30, straight lines L10, L11, L12, and L13 corresponding to the four sides of the bed 30 are obtained. When this procedure is adopted, if the number of markers is increased, the detection accuracy of the center line Lm is improved.

サイドレールにマーカP10,P12を設けることによってベッド30の位置を検出する処理を採用する場合、サイドレールにマーカP10,P12をあらかじめ取り付けておくことが好ましい。また、ベッド認識部21は、マーカP10,P12が検出されずマーカの個数が不足しているときに報知部24を通して警告報知を行うことが好ましい。この動作を採用すると、サイドレールが未設置であるときに、マーカP10,P12が検出されないことによって警告が報知されるから、サイドレールの設置忘れが防止される。とくに、ベッド30の利用者の離床に注意する必要がある場合、ベッド30からの転落を防止するために3点程度の柵をベッド30に取り付けることが一般的である。したがって、ベッド30の位置を特定できるだけではなく、サイドレールの設置忘れを報知できることは利便性を向上させることになる。   When adopting a process of detecting the position of the bed 30 by providing the markers P10 and P12 on the side rail, it is preferable to attach the markers P10 and P12 to the side rail in advance. The bed recognition unit 21 preferably issues a warning notification through the notification unit 24 when the markers P10 and P12 are not detected and the number of markers is insufficient. When this operation is adopted, when the side rail is not installed, a warning is notified by the fact that the markers P10 and P12 are not detected, so that forgetting to install the side rail is prevented. In particular, when the user of the bed 30 needs to be careful about getting out of bed, it is common to attach about three fences to the bed 30 in order to prevent the bed 30 from falling. Therefore, not only the position of the bed 30 can be specified but also the notification of forgetting to install the side rail can improve convenience.

上述したいずれかの手順によってベッド30の4辺を検出すれば、ベッド30の周囲においてベッド30と同程度の高さを有した部材や造作があっても、それらに影響されることなく、ベッド30の範囲を精度よく、かつ再現性よく検出することが可能になる。   If the four sides of the bed 30 are detected by any of the procedures described above, even if there are members or structures having the same height as the bed 30 around the bed 30, the bed is not affected by them. It is possible to detect the range of 30 with high accuracy and reproducibility.

ところで、距離画像センサ10の視野領域にベッド30の各端縁が含まれていても、視野領域の周部に余裕がなければ対象者40の行動を判断することができない。そこで、距離画像センサ10の視野領域において、ベッド30の周囲にベッド30以外の領域が含まれることを保証するために以下の判定を行う。
Xmax−Xs≧Mgx1
Xi−Xmin≧Mgx2
Ymax−Ys≧Mgy1
Yi−Ymin≧Mgy2
ここに、Xmaxは視野領域のX方向におけるX値の最大値、Xminは視野領域のX方向におけるX値の最小値、Ymaxは視野領域のY方向におけるY値の最大値、Yminは視野領域のY方向におけるY値の最小値である。また、ベッド30の周囲に設定したい余裕寸法をMgx1,Mgx2,Mgy1,Mgy2としている。この場合、余裕寸法Mgx1,Mgx2,Mgy1,Mgy2は、室内におけるベッド30の配置やベッド30に対する距離画像センサ10の配置によって異なる値になるから、図示しない設定手段により設定可能であることが望ましい。なお、本実施形態の場合、距離画像センサ10を設けたスタンド31をベッド30のヘッドボードと壁面との間に配置しているから(図1参照)、ヘッドボード側の余裕寸法Mg2は必ずしも用いなくてもよい。
By the way, even if each edge of the bed 30 is included in the visual field region of the distance image sensor 10, the action of the subject 40 cannot be determined unless there is a margin in the peripheral part of the visual field region. Therefore, the following determination is performed in order to ensure that a region other than the bed 30 is included around the bed 30 in the visual field region of the distance image sensor 10.
Xmax−Xs ≧ Mgx1
Xi-Xmin ≧ Mgx2
Ymax−Ys ≧ Mgy1
Yi-Ymin ≧ Mgy2
Here, Xmax is the maximum value of the X value in the X direction of the visual field area, Xmin is the minimum value of the X value in the X direction of the visual field area, Ymax is the maximum value of the Y value in the Y direction of the visual field area, and Ymin is the visual field area. This is the minimum Y value in the Y direction. Further, margin dimensions to be set around the bed 30 are Mgx1, Mgx2, Mgy1, and Mgy2. In this case, the margin dimensions Mgx1, Mgx2, Mgy1, and Mgy2 have different values depending on the arrangement of the bed 30 in the room and the arrangement of the distance image sensor 10 with respect to the bed 30, so that it is preferable that the margin dimensions Mgx1, Mgx2, Mgy1, and Mgy2 can be set by setting means (not shown). In the present embodiment, since the stand 31 provided with the distance image sensor 10 is disposed between the headboard of the bed 30 and the wall surface (see FIG. 1), the margin dimension Mg2 on the headboard side is not necessarily used. It does not have to be.

上述の判定の条件が1つでも満たされない場合には、図15のように視野範囲Fvがベッド30からずれていると判定し、距離画像センサ10の位置設定が不適切であることを報知部24により報知するのが望ましい。図15に示す例では、ベッド30の長手方向の一方の端部が視野領域Fvに含まれないからXmax=Xsになり、またベッド30の短手方向の一方の端縁が視野領域Fvに含まれないからYmin=Yiになっている。したがって、Xmax−Xs≧Mgx1という条件と、Yi−Ymin≧Mgy2という条件が満たされないことになる。このような判断を行うことにより、ベッド30に対する対象者40の出入りの行動を監視することが可能になる。   When even one of the above-described determination conditions is not satisfied, it is determined that the field-of-view range Fv is deviated from the bed 30 as illustrated in FIG. 15, and a notification unit indicates that the position setting of the distance image sensor 10 is inappropriate. It is desirable to notify by 24. In the example shown in FIG. 15, one end in the longitudinal direction of the bed 30 is not included in the visual field region Fv, so Xmax = Xs, and one edge in the short direction of the bed 30 is included in the visual field region Fv. Therefore, Ymin = Yi. Therefore, the condition of Xmax−Xs ≧ Mgx1 and the condition of Yi−Ymin ≧ Mgy2 are not satisfied. By making such a determination, it is possible to monitor the behavior of the subject 40 entering and exiting the bed 30.

ベッド認識部21は、ベッド30の位置を認識すると、次に、ベッド30の上面の位置を検出する。以下では、ベッド30の上面をベッド面と呼ぶ。ベッド面の高さを検出するにあたっては、ベッド30の上に対象者40が寝ている状態(この状態を「臥床」という)を想定する。対象者40が臥床している状態では、ベッド30の上に対象者40および掛け布団のような寝具が載っている。上述したグローバル座標系では、実空間の下向きをZ軸の正の向きにとっているが、実空間について高さに関する説明を行う場合には、上向きを値が増加する向きにとる。すなわち、Z方向においてZ値が増加する向きを、高さ方向において高さが減少する向きとして扱う。   When the bed recognition unit 21 recognizes the position of the bed 30, it next detects the position of the upper surface of the bed 30. Hereinafter, the upper surface of the bed 30 is referred to as a bed surface. In detecting the height of the bed surface, it is assumed that the subject 40 is sleeping on the bed 30 (this state is referred to as “bed bed”). In the state where the subject person 40 is lying on the bed, the subject person 40 and a bedding such as a comforter are placed on the bed 30. In the global coordinate system described above, the downward direction of the real space is set to the positive direction of the Z axis. However, in the case of explaining the height of the real space, the upward direction is set to the direction in which the value increases. That is, the direction in which the Z value increases in the Z direction is treated as the direction in which the height decreases in the height direction.

ベッド認識部21では、図16(a)のように、ベッド30の範囲内を長手方向において規定個数(たとえば、10)の分割領域38に分割する。分割領域38の個数はベッド30の長手方向の寸法にもよるが、1つの分割領域38が10〜20cm程度の幅になるように個数を定める。次に各分割領域38の高さに関する代表値を求める。代表値には、平均値と最頻値とのいずれかを用いればよい。   The bed recognition unit 21 divides the range of the bed 30 into a predetermined number (for example, 10) of divided regions 38 in the longitudinal direction as shown in FIG. The number of the divided regions 38 depends on the size of the bed 30 in the longitudinal direction, but the number is determined so that one divided region 38 has a width of about 10 to 20 cm. Next, a representative value related to the height of each divided region 38 is obtained. As the representative value, either an average value or a mode value may be used.

平均値を用いる場合は、Z画像から各分割領域38に属する位置(u,v)を求め、分割領域38ごとのZ値の平均値を求める。一方、最頻値を用いる場合には、Z画像について各分割領域38に属する位置(u,v)を求め、分割領域38ごとのZ値の度数分布を求め、さらに、求めた度数分布から最頻値を求める。分割領域38の場所にもよるが、この度数分布では、ベッド面の度数あるいは寝具の上面の度数が高くなり、ついで対象者40に相当する度数が高くなると考えられる。これは、ベッド30の上で、ベッド面あるいは寝具の占める領域(面積)のほうが対象者40の占める領域よりも大きいという知見に基づいている。   When using the average value, the position (u, v) belonging to each divided region 38 is obtained from the Z image, and the average value of the Z values for each divided region 38 is obtained. On the other hand, in the case of using the mode value, the position (u, v) belonging to each divided region 38 is obtained for the Z image, the frequency distribution of the Z value for each divided region 38 is obtained, and the highest frequency distribution is obtained from the obtained frequency distribution. Find the mode value. Although depending on the location of the divided region 38, in this frequency distribution, the frequency of the bed surface or the frequency of the upper surface of the bedding increases, and then the frequency corresponding to the subject 40 increases. This is based on the knowledge that the area occupied by the bed surface or the bedding on the bed 30 is larger than the area occupied by the subject 40.

各分割領域38から上述のようにして高さに関する代表値を求めると、図16(b)の実線のように代表値Vtが分布することになる。また、代表値Vtから人の厚みを考慮したオフセット値を減算して(Z値の場合は加算して)ベッド面の高さとして用いる。人の厚みは、個人差があるが、たとえば20cmなどの値を用い、その半分の値をオフセット値に用いる。オフセット値については、特段の条件はないから、代表値からオフセット値を減算した値が多くの分割領域38においてベッド面の高さとなるように適宜に設定する。図16(b)の破線は、代表値Vtからオフセット値を減算した値の例を示している。このようにして分割領域38ごとに求めたベッド面の高さが、分割領域38ごとの基準の高さになる。   When the representative value regarding the height is obtained from each divided region 38 as described above, the representative value Vt is distributed as shown by the solid line in FIG. Further, an offset value considering the thickness of the person is subtracted from the representative value Vt (added in the case of a Z value) and used as the height of the bed surface. Although there are individual differences in the thickness of a person, for example, a value such as 20 cm is used, and half of the value is used as an offset value. Since there is no special condition for the offset value, the offset value is appropriately set so that the value obtained by subtracting the offset value from the representative value becomes the height of the bed surface in many divided regions 38. The broken line in FIG. 16B indicates an example of a value obtained by subtracting the offset value from the representative value Vt. Thus, the height of the bed surface obtained for each divided region 38 becomes the reference height for each divided region 38.

以後の処理では、分割領域38ごとのベッド面の集合を、ベッド30の全体におけるベッド面として扱う。また、ベッド30の全体ではなく長手方向に分割した分割領域38を用いるから、ベッド30がリクライニング式であってベッド面が平面ではない場合にも、ベッド30の部分ごとに求めたベッド面を用いることにより、対象者40と分離することが可能になる。   In the subsequent processing, a set of bed surfaces for each divided region 38 is treated as a bed surface in the entire bed 30. Further, since the divided region 38 divided in the longitudinal direction is used instead of the entire bed 30, the bed surface obtained for each portion of the bed 30 is used even when the bed 30 is a reclining type and the bed surface is not flat. This makes it possible to separate from the subject 40.

ところで、上述した例では、ベッド30の上の対象者40が臥床の状態である場合を想定してベッド面の高さを求めているが、図17のように、対象者40がベッド30の上で起き上がっている場合、上述のようにして求めたベッド面の高さ(図17においてVhで表している)は適切と言えない。したがって、分割領域38ごとに高さに上限値を設け、ベッド面の高さVhとして求めた値が上限値を超える場合には、ベッド面Vhの高さとして採用できないことを報知部24により報知する。   By the way, in the above-described example, the height of the bed surface is obtained on the assumption that the subject 40 on the bed 30 is in the bedside state. However, as shown in FIG. When the user stands up, the bed surface height (shown as Vh in FIG. 17) determined as described above is not appropriate. Therefore, when the upper limit value is set for each divided region 38 and the value obtained as the bed surface height Vh exceeds the upper limit value, the notification unit 24 notifies that the height of the bed surface Vh cannot be adopted. To do.

ここに、ベッド30におけるベッド面の計測は、システムの使用開始を指示した直後に行われるので、報知部24から報知することによって、適切な対応を行うことが可能になる。なお、システムの使用開始の指示は、運転開始のスイッチ(図示せず)を投入する操作などを意味する。また、適切な対応とは、対象者40を正しい位置で臥床の状態にした後、システムの使用開始の指示を再度与えることを意味している。   Here, since the measurement of the bed surface in the bed 30 is performed immediately after instructing the start of use of the system, it is possible to take appropriate measures by notifying from the notification unit 24. The instruction to start using the system means an operation of turning on an operation start switch (not shown). Appropriate response means that the instruction for starting the use of the system is given again after the subject 40 is placed in the bedside position at the correct position.

上述したベッド30は、ベッド面の高さが固定である場合を想定しているが、看護や介護の作業を容易にするために、ベッド面の高さを変更することができる昇降式のベッド30も提供されている。昇降式のベッド30では、看護や介護の作業後にベッド面を下げるのを忘れていると、ベッド面が通常よりも高くなるから、対象者40がベッド30から離床する際には足が床に届きにくくなり、対象者40がベッド30から落下したときには衝撃が大きくなる。したがって、作業後にはベッド面を必ず下げる必要がある。   The bed 30 described above assumes the case where the height of the bed surface is fixed, but in order to facilitate the work of nursing and nursing care, the height of the bed surface can be changed. 30 is also provided. In the liftable bed 30, if the user forgets to lower the bed surface after nursing or care work, the bed surface becomes higher than usual. Therefore, when the subject 40 leaves the bed 30, his feet are on the floor. It becomes difficult to reach, and the impact increases when the subject 40 falls from the bed 30. Therefore, the bed surface must be lowered after work.

ベッド30が昇降式である場合には、図18のように、看護や介護の作業中にはベッド面の下限が所定の高さ閾値Thhを超えると考えられるから、高さ閾値Thhを適宜に設定することにより、ベッド面が上昇していることを検出することができる。すなわち、すべての分割領域38について求めたベッド面の高さが、高さ閾値Thhを超えている場合には、ベッド面が上昇したままであると判断して報知部24から報知する。   When the bed 30 is a lifting type, as shown in FIG. 18, it is considered that the lower limit of the bed surface exceeds a predetermined height threshold Thh during nursing or nursing work, so that the height threshold Thh is appropriately set. By setting, it is possible to detect that the bed surface is rising. That is, when the bed surface height obtained for all the divided regions 38 exceeds the height threshold value Thh, it is determined that the bed surface remains elevated and the notification unit 24 notifies the user.

ここにおいて、介護や看護の作業中には、対象者40の監視は不要であるから、システムの動作を一旦停止させ、作業の終了後にシステムの動作を再開する。したがって、作業の終了後に、システムの動作を再開する指示を与えたときに、ベッド面の高さの異常が報知されることになり、ベッド面の下げ忘れを防止することができる。   Here, since monitoring of the subject person 40 is unnecessary during the care or nursing work, the system operation is temporarily stopped, and the system operation is resumed after the work is completed. Therefore, when an instruction to resume the operation of the system is given after the work is completed, an abnormality in the bed surface height is notified, and forgetting to lower the bed surface can be prevented.

また、図19のように、ベッド30の上にテーブル39を出した場合に、テーブル39をしまい忘れる場合がある。これに対して、テーブル39に相当する分割領域38において高さ閾値Thhをテーブル39の高さが検出できるように設定しておけば、テーブル39のしまい忘れを報知部24により報知することが可能になる。   Further, as shown in FIG. 19, when the table 39 is placed on the bed 30, the table 39 may be forgotten. On the other hand, if the height threshold value Thh is set so that the height of the table 39 can be detected in the divided region 38 corresponding to the table 39, the notification unit 24 can notify that the table 39 has been left behind. become.

ベッド30の下げ忘れとテーブル39のしまい忘れとの両方を検出する場合には、高さ閾値Thhを適宜に定めるとともに、所定個数以上の分割領域38において高さ閾値Thhを超える場合に、報知部24から報知するようにしてもよい。高さ閾値Thhを用いた判定は、ベッド面の計測と同様に、システムの使用開始を開始する指示の直後に行われるから、問題が生じていれば報知部24からただちに報知される。したがって、ベッド30を下げたり、テーブル39を片付けたりするような適正な対応が可能になる。その後は、システムの使用開始の指示を再度与えればよい。   In the case of detecting both forgetting to lower the bed 30 and forgetting to leave the table 39, the height threshold value Thh is appropriately determined, and when the height threshold value Thh is exceeded in a predetermined number or more of the divided regions 38, the notification unit You may make it alert | report from 24. Since the determination using the height threshold Thh is performed immediately after the instruction to start the use of the system, as in the case of the measurement of the bed surface, if there is a problem, the notification unit 24 immediately notifies. Therefore, appropriate measures such as lowering the bed 30 and clearing the table 39 are possible. Thereafter, an instruction to start using the system may be given again.

ベッド30がリクライニングの機能を備え、図20のように、対象者40の上半身を起こすことができる場合には、高さ閾値Thhによる判定を下半身側の複数個(図示例では5個)の分割領域38においてのみ行えばよい。距離画像内でのベッド30の位置は既知であるから、たとえば、(Xs+Xi)/2よりもX値が大きくなる分割領域38についてのみ高さ閾値Thhによる判定を行えばよい。このように高さ閾値Thhによる判定を行う範囲を、定式化して自動的に決定することができるから、人手による調整作業が不要である。   When the bed 30 has a reclining function and the upper body of the subject 40 can be raised as shown in FIG. 20, the determination based on the height threshold Thh is divided into a plurality of lower body sides (five in the illustrated example). This may be done only in the region 38. Since the position of the bed 30 in the distance image is known, for example, the determination based on the height threshold Thh may be performed only for the divided region 38 having an X value larger than (Xs + Xi) / 2. As described above, since the range in which the determination based on the height threshold Thh is performed can be formulated and automatically determined, manual adjustment work is unnecessary.

ところで、ベッド30の周辺には、様々な装置が配置されることがあり、たとえば、図21に示すように、ベッド30の上方に対象者40ではない物体41が重なって配置されていることがある。この種の物体41としては、たとえば、照明スタンド、モニタ装置、種々の医療装置がある。   By the way, various devices may be arranged around the bed 30. For example, as illustrated in FIG. 21, an object 41 that is not the target person 40 may be arranged above the bed 30 so as to overlap. is there. Examples of this type of object 41 include an illumination stand, a monitor device, and various medical devices.

このような物体41がベッド30に重なっている場合、対象者40を検知する領域から除外する必要がある。そのため、看護師あるいは介護士が装置を起動させ、ベッド30の位置をベッド認識部21に認識させる際に、物体41の領域をベッド30の領域から除外する処理も行うことが好ましい。すなわち、距離画像センサ10の視野において、ベッド30に物体41が重複している領域を、図22のように、マスク領域42として除外した状態で記憶しておけばよい。マスク領域42は、人認識部22が対象者40を認識する際には、ベッド30の範囲外の領域として扱うことになり、物体41を対象者40と誤認するのを防止できる。   When such an object 41 overlaps the bed 30, it is necessary to exclude it from the area where the target person 40 is detected. Therefore, when the nurse or caregiver starts up the apparatus and causes the bed recognition unit 21 to recognize the position of the bed 30, it is preferable to perform processing for excluding the area of the object 41 from the area of the bed 30. That is, the area where the object 41 overlaps the bed 30 in the visual field of the distance image sensor 10 may be stored in a state where it is excluded as the mask area 42 as shown in FIG. The mask area 42 is handled as an area outside the range of the bed 30 when the person recognition unit 22 recognizes the target person 40, and can prevent the object 41 from being misidentified as the target person 40.

マスク領域42は、ベッド認識部21がベッド30の位置を抽出した直後に設定する。すなわち、ベッド認識部21は、看護師あるいは介護士が装置を操作することにより、ベッド30の位置を認識した直後にマスク領域42の有無を判断する処理を行う。ベッド認識部21は、図23に示すように、ベッド30の範囲内であって分割領域38ごとに求めた基準の高さ(ベッド面の高さ)に対して規定の除外閾値よりも上方に物体41が存在するとき、その物体41の存在範囲をマスク領域42とする。除外閾値は、実状に即して適宜に設定される。このようにして設定されたマスク領域42は、対象者40を認識する際に除外される領域として扱うためにベッド認識部21において記憶される。   The mask area 42 is set immediately after the bed recognition unit 21 extracts the position of the bed 30. That is, the bed recognizing unit 21 performs a process of determining the presence or absence of the mask region 42 immediately after recognizing the position of the bed 30 by a nurse or caregiver operating the apparatus. As shown in FIG. 23, the bed recognizing unit 21 is within the range of the bed 30 and above the specified exclusion threshold with respect to the reference height (bed surface height) obtained for each divided region 38. When the object 41 exists, the existence range of the object 41 is set as a mask area 42. The exclusion threshold is appropriately set according to the actual situation. The mask area 42 set in this way is stored in the bed recognition unit 21 to be treated as an area that is excluded when the subject person 40 is recognized.

上述の動作では、分割領域38ごとの基準の高さとしてベッド面の高さを用いているが、ベッド認識部21にベッド30の位置を認識させるときには、対象者40がベッド30に存在するから、後述する臥床検知面Pd(図24参照)を基準の高さに用いることが好ましい。臥床検知面Pdは、対象者40がベッド30の上で対象者40が仰臥している状態における基準の高さである。このように、基準の高さとして臥床検知面Pdを用いると、対象者40の存在する領域をマスク領域42と誤認するのを防止できる。ただし、臥床検知面Pdをベッド面から一定高さに規定している場合は、臥床検知面Pdを基準の高さに用いることと、ベッド面を基準の高さに用いることとは等価である。   In the above-described operation, the height of the bed surface is used as the reference height for each divided region 38. However, when the bed recognition unit 21 recognizes the position of the bed 30, the target person 40 exists in the bed 30. It is preferable to use a bed detection surface Pd (see FIG. 24) described later at a reference height. The bed detection surface Pd is a reference height in a state where the subject 40 is lying on the bed 30. As described above, when the bed detection surface Pd is used as the reference height, it is possible to prevent the area where the subject 40 exists from being mistaken as the mask area 42. However, when the bed detection surface Pd is defined at a certain height from the bed surface, using the bed detection surface Pd as a reference height is equivalent to using the bed surface as a reference height. .

なお、マスク領域42については大きさを評価し、規定した閾値を超える大きさのマスク領域42が存在する場合には、テーブルなどが置かれた状態と判断する。この場合、対象者40を認識する際の信頼性を保つことができず、また、対象者40が物体41に接触する可能性があるから、マスク領域42を設定する代わりに物体41の設置不良として報知部24から報知することが好ましい。   It should be noted that the size of the mask area 42 is evaluated, and if there is a mask area 42 having a size exceeding a specified threshold, it is determined that a table or the like is placed. In this case, the reliability at the time of recognizing the target person 40 cannot be maintained, and there is a possibility that the target person 40 may come into contact with the object 41. It is preferable to notify from the notification unit 24.

以下では、人認識部22により対象者40を認識する技術について説明する。上述したように、ベッド認識部21ではベッド面を検出しているから、人認識部22はベッド面を基準に用いて複数段階の検知面を設定する。ここでは、ベッド30の上での状態として、臥床の状態、上半身を起こした起き上がりの状態、立ち上がった起立の状態の3状態を想定する。それぞれの状態を検出するには、図24のように、ベッド面Pbとして規定される分割領域38ごとの高さを基準に用いて、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psを設定する。   Below, the technique which recognizes the subject 40 by the person recognition part 22 is demonstrated. As described above, since the bed recognition unit 21 detects the bed surface, the person recognition unit 22 sets a plurality of detection surfaces using the bed surface as a reference. Here, as the state on the bed 30, three states are assumed: a bedbed state, a rising state where the upper body is raised, and a standing state where the body is raised. In order to detect each state, as shown in FIG. 24, the height of each divided region 38 defined as the bed surface Pb is used as a reference, and the bed detection surface Pd, the rising detection surface Pr, and the standing detection surface Ps are defined. Set.

臥床検知面Pd、起き上がり検知面Pr、起立検知面Psは、それぞれベッド面PbをZ方向に所定量だけ変位させて設定してある。すなわち、ベッド面Pbは、分割領域38ごとにZ値が定められているから、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psも分割領域38ごとに上方に所定距離だけ離間させて定められる。また、臥床検知面Pd、起き上がり検知面Pr、起立検知面Psの順にベッド面Pbからの距離が大きくなる。一例を示すと、臥床検知面Pdをベッド面Pbから10cm上方、起き上がり検知面Prをベッド面Pbから30cm上方、起立検知面Psをベッド面Pbから60cm上方などに設定する。臥床検知面Pd、起き上がり検知面Pr、起立検知面Psは、ベッド30の上での人の位置を検出するための閾値として用いる。   The bed detection surface Pd, the rising detection surface Pr, and the standing detection surface Ps are set by displacing the bed surface Pb by a predetermined amount in the Z direction. That is, since the bed surface Pb has a Z value determined for each divided region 38, the bed detection surface Pd, the rising detection surface Pr, and the standing-up detection surface Ps are also determined to be spaced apart by a predetermined distance upward for each divided region 38. It is done. Further, the distance from the bed surface Pb increases in the order of the bed detection surface Pd, the rising detection surface Pr, and the standing detection surface Ps. For example, the bed detection surface Pd is set 10 cm above the bed surface Pb, the rising detection surface Pr is set 30 cm above the bed surface Pb, and the standing detection surface Ps is set 60 cm above the bed surface Pb. The bed detection surface Pd, the rising detection surface Pr, and the standing detection surface Ps are used as thresholds for detecting the position of a person on the bed 30.

人認識部22では、ベッド30の領域内において、臥床検知面Pdよりも上方に物体が存在し、起き上がり検知面Prよりも上方に物体が存在しなければ、対象者40が臥床の状態であると判定する。また、起き上がり検知面Prよりも上方に物体が存在し、起立検知面Psよりも上方に物体が存在しなければ、対象者40が上半身を起こした起き上がりの状態と判定する。起き上がり検知面Prはベッド面の上方に設定されるから、適正な起き上がり検知面Prを設定しておけば、寝返りや布団の浮き上がりを起き上がりと判定する誤検知はほとんど生じない。また、起立検知面Psよりも上方に物体が存在する場合には、対象者40がベッド30の上で立ち上がっていると判断される。   In the person recognition unit 22, in the area of the bed 30, if there is an object above the bed detection surface Pd and no object exists above the rising detection surface Pr, the target person 40 is in the bed position. Is determined. Further, if there is an object above the rising detection surface Pr and no object above the standing detection surface Ps, it is determined that the subject 40 is in a rising state where the upper body is raised. Since the rising detection surface Pr is set above the bed surface, if an appropriate rising detection surface Pr is set, there is almost no erroneous detection that determines turning over or lifting of a futon as rising. Further, when an object is present above the standing detection surface Ps, it is determined that the target person 40 is standing on the bed 30.

上述のように、人認識部22では、ベッド面Pbを基準に設定した検知面を用いて対象者40の状態を検知している。この処理は、たとえば、ベッド30に対象者40が居ない状態での画像との差分画像を用いる場合に比較すると処理が単純である上に、背景画像を撮像する手間もかからないという利点がある。また、差分画像を用いた場合に、布団などの物体も差分として検出されるから、対象者40との区別が困難であるが、検知面を用いて対象者40の状態を判定すれば、この問題は生じない。   As described above, the person recognition unit 22 detects the state of the target person 40 using the detection surface set with the bed surface Pb as a reference. This process is advantageous in that, for example, the process is simple compared to a case where a difference image from the image in the state where the subject 40 is not present in the bed 30 is used, and that it does not take time and effort to capture a background image. In addition, when a difference image is used, since an object such as a futon is also detected as a difference, it is difficult to distinguish it from the target person 40, but if the state of the target person 40 is determined using the detection surface, this There is no problem.

上述の例では、3状態を区別して検出するために、ベッド面Pbの上に3段階の検知面を設定しているが、検知面を3段階に設定することは必須ではなく、1段階または2段階に設定することや、4段階以上の検知面を設定することも可能である。たとえば、システムの使用開始の状態を臥床の状態とする場合には、臥床の状態は必ずしも検知しなくてもよい。すなわち、臥床ではない状態、すなわち、起き上がりの状態や起立の状態を検出できればよく、この場合には2段階の検知面を設定すればよいことになる。   In the above-described example, in order to distinguish and detect the three states, a three-step detection surface is set on the bed surface Pb. However, it is not essential to set the detection surface in three steps. It is possible to set in two steps, or to set four or more detection surfaces. For example, when the state of the start of use of the system is set to the bed state, the bed state may not necessarily be detected. That is, it is only necessary to detect a state that is not a bed, that is, a rising state or a standing state, and in this case, a two-step detection surface may be set.

また、上述の動作において、検知面に対する物体の高さ位置のみを用いているが、検知面によって切り取った面積を用いることにより、物体の大きさも併せて判断してもよい。たとえば、臥床の状態では、Z画像内において臥床検知面Pdで切り取られる面積は、起き上がり検知面Prと起立検知面Psで切り取られる面積よりも大きい。また、起き上がりの状態では臥床の状態に比較すると、Z画像内において臥床検知面Pdで切り取られる面積が小さくなり、起き上がり検知面Prで切り取られる面積が増加する。このような面積の関係を用いることにより、対象者40の状態(姿勢)をより正確に把握することが可能になる。   In the above-described operation, only the height position of the object with respect to the detection surface is used, but the size of the object may also be determined by using the area cut out by the detection surface. For example, in the state of the bed, the area cut out by the bed detection surface Pd in the Z image is larger than the area cut out by the rising detection surface Pr and the standing detection surface Ps. In addition, in the rising state, the area cut out on the bed detection surface Pd in the Z image is smaller and the area cut out on the rising detection surface Pr is increased in the Z image. By using such an area relationship, the state (posture) of the target person 40 can be grasped more accurately.

たとえば、ベッド30の範囲内において、起き上がり検知面Prで切り取る面積について、臥床検知面Pdで切り取る面積に対する比率が所定の閾値以上であれば、起き上がりの状態と判定すればよい。この閾値を適正に設定すれば、対象者40が腕を伸ばして伸びをすることにより起き上がり検知面Prを腕が横切ったとしても、上記比率が閾値よりも小さくなるから、起き上がりの状態として検出されるのを防止することができる。   For example, if the ratio of the area cut by the rising detection surface Pr within the range of the bed 30 to the area cut by the bed detection surface Pd is equal to or greater than a predetermined threshold value, the rising state may be determined. If this threshold value is set appropriately, even if the arm 40 crosses the rising detection surface Pr due to the subject 40 extending his / her arm, the ratio is smaller than the threshold value, so that it is detected as a rising state. Can be prevented.

たとえば、図25(a)、図26(a)の白抜きの領域は、それぞれ臥床検知面Pdにおいて対象者40の存在する領域を示し、図25(b)、図26(b)の白抜きの領域は、それぞれ起き上がり検知面Prにおいて対象者40の存在する領域を示している。図25、図26において、(a)図での白抜きの領域の面積をE1、(b)図での白抜きの領域の面積をE2として、比率E2/E1を求め、この比率E2/E1を適宜の閾値と比較すると、起き上がりの状態(図25)とそれ以外の状態(図26)とを区別することができる。   For example, the white areas in FIGS. 25 (a) and 26 (a) indicate areas where the subject 40 exists on the bed detection surface Pd, and the white areas in FIGS. 25 (b) and 26 (b). These areas indicate areas where the subject 40 exists on the rising detection surface Pr. In FIGS. 25 and 26, the ratio E2 / E1 is obtained by setting E1 as the area of the white area in FIG. 25A and E2 as the area of the white area in FIG. 25B, and this ratio E2 / E1. Can be distinguished from the rising state (FIG. 25) and the other states (FIG. 26).

同様にして、ベッド30の範囲内において、起立検知面Psで切り取る面積について、臥床検知面Pdで切り取る面積に対する比率が所定の閾値以上であれば、対象者40がベッド30の上で立ち上がっている起立の状態と判定する。対象者40が起き上がりの状態において起立検知面Psを超える部分があったとしても、起立している状態に比べると、起立検知面Psを横切る面積は小さいと考えられるから、起立の状態と起き上がりの状態とを区別することができる。   Similarly, within the range of the bed 30, if the ratio of the area cut by the standing detection surface Ps to the area cut by the bed detection surface Pd is equal to or greater than a predetermined threshold, the subject 40 stands on the bed 30. Judged to be standing. Even if there is a portion that exceeds the standing detection surface Ps in the state where the subject 40 is standing up, the area crossing the standing detection surface Ps is considered to be small compared to the state where the subject 40 is standing up. The state can be distinguished.

たとえば、図27(a)、図28(a)の白抜きの領域は、それぞれ臥床検知面Pdにおいて対象者40の存在する領域を示し、図27(c)、図28(c)の白抜きの領域は、起立検知面Psにおいて対象者40の存在する領域を示している。なお、図示例では、図27(c)において白抜きの領域はなく、対象者40は存在しない。また、図27(b)、図28(b)の白抜きの領域は、起き上がり検知面Prにおいて対象者40が存在する領域を示している。ここで、図27、図28において、(a)図での白抜きの領域の面積をE1、(c)図での白抜きの領域の面積をE3として、比率E3/E1を求め、この比率E3/E1を適宜の閾値と比較すると、起き上がりの状態(図27)と起立の状態(図28)とを区別することができる。   For example, the white areas in FIGS. 27 (a) and 28 (a) indicate areas where the subject 40 exists on the bed detection surface Pd, and the white areas in FIGS. 27 (c) and 28 (c). This area indicates an area where the subject 40 exists on the standing-up detection surface Ps. In the illustrated example, there is no white area in FIG. 27C, and the target person 40 does not exist. Moreover, the white area | region of FIG.27 (b) and FIG.28 (b) has shown the area | region where the subject 40 exists in the rising detection surface Pr. 27 and 28, the ratio E3 / E1 is obtained by assuming that the area of the white area in FIG. 27A is E1, and the area of the white area in FIG. When E3 / E1 is compared with an appropriate threshold, it is possible to distinguish the rising state (FIG. 27) and the standing state (FIG. 28).

上述した処理では、人認識部22が対象者40を認識するにあたって、起き上がり検知面Pr、起立検知面Psを固定値とする場合を例示した。しかしながら、実使用に際しては、対象者40の体格に個体差があるから、起き上がり検知面Prおよび起立検知面Psは可変であることが好ましい。   In the above-described processing, when the person recognition unit 22 recognizes the target person 40, the case where the rising detection surface Pr and the standing detection surface Ps are fixed values is exemplified. However, in actual use, since there are individual differences in the physique of the subject 40, it is preferable that the rising detection surface Pr and the standing detection surface Ps are variable.

たとえば、体格(身長)の小さい対象者40が起き上がった場合の高さと、体格の大きい対象者40が起き上がった場合の高さとは異なる。したがって、起き上がり検知面Prを体格の小さい対象者40に合うように設定していると、体格の大きい対象者40では寝返りなどの際に胴の位置の高さの変化によって起き上がりの状態として誤検知する可能性がある。逆に、起き上がり検知面Prを体格の大きい対象者40に合うように設定していると、体格の小さい対象者40が起き上がっても検知しない可能性がある。   For example, the height when the subject 40 with a small physique (height) rises is different from the height when the subject 40 with a large physique rises. Therefore, if the rising detection surface Pr is set to match the subject 40 with a small physique, the subject 40 with a large physique is erroneously detected as a rising state due to a change in the height of the torso when turning over. there's a possibility that. Conversely, if the rising detection surface Pr is set so as to match the subject 40 with a large physique, there is a possibility that even if the subject 40 with a small physique gets up, it will not be detected.

このような誤検知や検知の失敗を防止するために、本実施形態の人認識部22は、起き上がり検知面Prと起立検知面Psとを調節する機能を備える。すなわち、システムの使用を開始する際に、人認識部22は、対象者40の体格を示す指標のうち少なくとも身長の入力を促し、入力された体格(身長)に基づいて、起き上がり検知面Prと起立検知面Psとを自動的に設定する。身長は、胴囲や座高と相関があるから、体格を表す指標としては身長を用いる。ただし、体格に関する評価の精度を高める場合は、胴囲と座高との少なくとも一方を身長と併せて体格を表す指標に用いてもよい。   In order to prevent such erroneous detection and detection failure, the person recognition unit 22 of the present embodiment has a function of adjusting the rising detection surface Pr and the standing detection surface Ps. That is, when the use of the system is started, the person recognition unit 22 prompts the input of at least the height among the indices indicating the physique of the subject 40, and the rising detection surface Pr is determined based on the inputted physique (height). The standing detection surface Ps is automatically set. Since height correlates with waist circumference and sitting height, height is used as an indicator of physique. However, when improving the accuracy of evaluation related to the physique, at least one of the waist circumference and the sitting height may be used as an index representing the physique together with the height.

体格を表す指標は厳密な値である必要はなく、身長は、たとえば10cm刻みでよい。したがって、人認識部22に与える身長は、130cm台、140cm台、…などの値でよい。人認識部22は、上述したように、対象者40が起き上がり検知面Prや起立検知面Psを横切る面積を評価することにより対象者40の大きさや、対象者40の状態を評価している。そのため、得られた面積を評価するための閾値を、体格に応じて調節することにより、面積から得られる情報を精度よく評価することが可能になる。   The index representing the physique need not be a strict value, and the height may be in increments of 10 cm, for example. Therefore, the height given to the person recognition unit 22 may be a value such as 130 cm, 140 cm, and so on. As described above, the person recognition unit 22 evaluates the size of the target person 40 and the state of the target person 40 by evaluating the area where the target person 40 rises and crosses the detection surface Pr and the standing detection surface Ps. Therefore, by adjusting the threshold value for evaluating the obtained area according to the physique, it is possible to accurately evaluate information obtained from the area.

すなわち、対象者40の体格に応じた閾値を設定することにより、体格が異なる対象者40について誤った状態を検知することが防止される。たとえば、対象者40が臥床状態で腕を天井に向かって振り上げた状態を起き上がりの状態として誤検知しないために、体格が小さい対象者40の腕の断面積に対する閾値と、体格が大きい対象者40の腕の断面積に対する閾値とを個別に設定することが好ましい。腕の断面積に対する閾値を体格別に設定しておくことにより、状態の検知精度が向上し、誤報や失報が排除されて対象者40の起き上がりや起立の状態が精度よく検知されることになる。   That is, by setting a threshold according to the physique of the subject 40, it is possible to prevent an erroneous state from being detected for the subject 40 having a different physique. For example, in order not to falsely detect a state in which the subject 40 swings his arm up toward the ceiling in the bedded state as a rising state, the threshold for the cross-sectional area of the arm 40 of the subject 40 having a small physique and the subject 40 having a large physique It is preferable to individually set a threshold for the cross-sectional area of each arm. By setting the threshold for the cross-sectional area of the arm according to the physique, the detection accuracy of the state is improved, the false alarm and the false alarm are eliminated, and the rising or standing state of the subject 40 is accurately detected. .

上述のように、起き上がり検知面Prや起立検知面Psを対象者40が横切る面積を評価することによって、起き上がり検知面Prや起立検知面Psを横切るか否かだけで対象者40の状態を判断する場合よりも、判断結果の精度を高めることが可能になる。すなわち、2種類の方法を用いて物体(対象者40)の状態を判断するから、物体の状態を精度よく検知することが可能になる。   As described above, by evaluating the area where the subject 40 crosses the rising detection surface Pr and the standing detection surface Ps, the state of the subject 40 is determined only by whether or not the rising detection surface Pr and the standing detection surface Ps are crossed. It is possible to increase the accuracy of the determination result than when doing so. That is, since the state of the object (target person 40) is determined using two types of methods, the state of the object can be accurately detected.

なお、人認識部22は、身長と座高とについて、たとえば、図29(a)に符号Aで示す関係を用い、身長と胴囲または上述した面積との関係について、たとえば、図29(b)に符号Bで示す関係を用いる。符号A,Bで表される関係は、個体差を考慮しない代表的な値を用いている。図29において体格は身長で表され、身長を複数に区分(図示例は4区分)することにより体格が区分されている。すなわち、図29(a)では符号Th11〜Th14で示されているように、区分ごとに起き上がり検知面Prの高さが規定されている。また、図29(b)では符号Th21〜Th24で示されているように、区分ごとに起立検知面Psの高さあるいは面積に対する閾値が規定されている。したがって、人認識部22に体格としての身長を与え、図29(a)と図29(b)とに示すような関係を用いることにより、体格に応じた起き上がり検知面Pr、起立検知面Ps、面積に対する閾値が自動的に決定される。   Note that the person recognition unit 22 uses, for example, the relationship indicated by the symbol A in FIG. 29A for height and sitting height, and for example, for the relationship between height and waist or the area described above, for example, FIG. ) Is represented by the symbol B. The relationship represented by the symbols A and B uses typical values that do not consider individual differences. In FIG. 29, the physique is represented by a height, and the physique is divided by dividing the height into a plurality of divisions (in the illustrated example, four divisions). That is, in FIG. 29A, as indicated by reference numerals Th11 to Th14, the height of the rising detection surface Pr is defined for each section. In addition, in FIG. 29B, as indicated by reference numerals Th21 to Th24, a threshold for the height or area of the standing detection surface Ps is defined for each section. Therefore, by giving a height as a physique to the human recognition unit 22 and using a relationship as shown in FIGS. 29 (a) and 29 (b), the rising detection surface Pr, the standing detection surface Ps according to the physique, A threshold for the area is automatically determined.

また、起き上がり検知面Prや起立検知面Psで切り取る面積に対する閾値を、体格に応じて設定するから、図25〜図28を用いて説明した面積の比率E2/E1を用いなくとも、起き上がりや起立を精度よく検知可能になる。   In addition, since the threshold for the area to be cut off by the rising detection surface Pr and the standing detection surface Ps is set according to the physique, the rising or rising is not required without using the area ratio E2 / E1 described with reference to FIGS. Can be accurately detected.

ところで、ベッド30の範囲内の人の状態(姿勢)ではなく、ベッド30の範囲外の人の状態は床面の高さを基準に用いて検出することができる。すなわち、図30に示すように、床52からの高さにより倒れ閾値Thfを定めておき、Z画像においてベッド30の範囲外となる画素が倒れ閾値Thfよりも大きいZ値を持つときに、対象者40の少なくとも一部がベッド30の範囲外に出ていると判定することができる。倒れ閾値Thfは、床52よりも高いがベッド面Pbよりも低い値に設定する。たとえば、床52から10cmに設定すればよい。   By the way, not the state (posture) of a person within the range of the bed 30 but the state of a person outside the range of the bed 30 can be detected using the height of the floor as a reference. That is, as shown in FIG. 30, when the fall threshold value Thf is determined based on the height from the floor 52 and a pixel outside the range of the bed 30 in the Z image has a Z value larger than the fall threshold value Thf, It can be determined that at least a part of the person 40 is out of the range of the bed 30. The fall threshold value Thf is set to a value higher than the floor 52 but lower than the bed surface Pb. For example, the floor 52 may be set to 10 cm.

上述の処理では、ベッド30の範囲外に出ていることを倒れ閾値Thfのみで判定しているが、ベッド30の範囲外では差分画像を併せて用いることにより対象者40がベッド30の範囲外に出ていることを検知してもよい。これには、システムの使用開始時に撮像した距離画像から得られたZ画像を背景画像として記憶しておき、その後に得られるZ画像を背景画像から減算した差分画像を二値化する。   In the above-described processing, it is determined only by the fall threshold Thf that the person is out of the range of the bed 30, but the target person 40 is out of the range of the bed 30 by using the difference image outside the range of the bed 30. May be detected. For this purpose, a Z image obtained from a distance image taken at the start of use of the system is stored as a background image, and a difference image obtained by subtracting the Z image obtained thereafter from the background image is binarized.

システムの使用開始時に、対象者40は臥床の状態であるからベッド30の範囲外には存在していない。そのため、背景画像においてベッド30の範囲外には物体は存在しない。これに対して、対象者40がベッド30の範囲外に出た状態のZ画像を背景画像から減算した画像では、ベッド30の範囲外に物体が存在している。したがって、差分画像を二値化した画像においてベッド30の範囲外の領域において変化した領域の面積(画素数)を規定の閾値と比較し、面積が閾値以上であると、対象者40がベッド30の範囲外に出たと判定することができる。差分画像においてベッド30の範囲外の値は、実質的に床52からの高さに相当するから、二値化の閾値は倒れ閾値Thfを用いればよい。   At the start of use of the system, the subject 40 is in a bedded state and therefore does not exist outside the range of the bed 30. Therefore, no object exists outside the range of the bed 30 in the background image. On the other hand, in the image obtained by subtracting the Z image in a state where the subject 40 is out of the range of the bed 30 from the background image, an object is present outside the range of the bed 30. Therefore, in the image obtained by binarizing the difference image, the area (number of pixels) of the region changed in the region outside the range of the bed 30 is compared with a predetermined threshold value. It can be determined that it has gone out of the range. Since the value outside the range of the bed 30 in the difference image substantially corresponds to the height from the floor 52, the fall threshold value Thf may be used as the binarization threshold value.

また、システムの使用開始を指示する際に、使用開始を指示する看護師あるいは介護士は、ヘッドボードの近傍の領域に存在すると考えられる。ただし、この領域は対象者40を検出する領域外であり、また、差分画像を二値化したときには床52とともに除去されるので、背景画像に含めても問題は生じない。   In addition, when instructing the start of use of the system, it is considered that the nurse or caregiver instructing the start of use exists in an area near the headboard. However, this area is outside the area for detecting the target person 40, and when the difference image is binarized, it is removed together with the floor 52, so that no problem occurs even if it is included in the background image.

上述したように、ベッド認識部21によりベッド30の位置が認識され、人認識部22によりベッド30に対する対象者40の姿勢が検出される。すなわち、ベッド30と対象者40とが分離されるから、次に、行動判定部23において、対象者40の動作が分類される。   As described above, the position of the bed 30 is recognized by the bed recognition unit 21, and the posture of the subject 40 with respect to the bed 30 is detected by the person recognition unit 22. That is, since the bed 30 and the subject person 40 are separated, the behavior determination unit 23 classifies the action of the subject person 40.

分類する動作としては、対象者40がベッド30の端部に腰を掛けている状態(以下、「腰掛け」という)がある。「腰掛け」は、ベッド30の4辺のいずれかについて、ベッド30の範囲内と範囲外との領域に対象者40が跨って存在している状態として検出する。ベッド認識部21では、ベッド30の範囲内と範囲外との領域を分離することができ、人認識部23では、ベッド30の範囲内と範囲外との領域における人の存在を検出することができる。   As an operation to be classified, there is a state in which the subject 40 is sitting on the end of the bed 30 (hereinafter referred to as “sitting”). “Sitting” is detected as a state in which the target person 40 is present straddling the areas inside and outside the range of the bed 30 on any of the four sides of the bed 30. The bed recognizing unit 21 can separate the areas inside and outside the range of the bed 30, and the person recognizing unit 23 can detect the presence of a person in the areas inside and outside the range of the bed 30. it can.

このことを利用して、ベッド30の範囲内と範囲外とにおいて人の存在領域が連続ないし近接している場合に、同一の人がベッド30の端部に「交差」していると判断する。そして、この場合を「腰掛け」と判定する。ここに、「近接」は、ベッド30の範囲内と範囲外とにおける人の存在領域の輪郭線間の距離を求め、求めた距離が規定した範囲内であることを意味する。輪郭線間の距離はベッド30の着目している辺に直交する方向の複数本の直線上で求めた平均値を用いればよい。   Using this, when the person's existence area is continuous or close to the inside of the bed 30 and outside the range, it is determined that the same person “crosses” the end of the bed 30. . Then, this case is determined as “sitting”. Here, “proximity” means that the distance between the contour lines of the person's existence area in and out of the range of the bed 30 is obtained, and the obtained distance is within the specified range. The distance between the contour lines may be an average value obtained on a plurality of straight lines in a direction orthogonal to the side of the bed 30 that is focused on.

また、ベッド30の範囲内と範囲外とに占める人の面積の全体に対して、ベッド30の範囲外に占める人の面積の比率を求める。この比率について適宜の基準範囲を設定し、比率が基準範囲内であれば「腰掛け」と判定してもよい。この場合、対象者40の体型などに応じて「腰掛け」の判定精度を高めるように、面積の比率に対する基準範囲を調節することが可能である。   Further, the ratio of the area of the person who occupies outside the range of the bed 30 to the whole area of the person who occupies the area within and outside the range of the bed 30 is obtained. An appropriate reference range may be set for this ratio, and if the ratio is within the reference range, it may be determined as “sitting”. In this case, it is possible to adjust the reference range with respect to the ratio of the area so as to increase the determination accuracy of “sitting” according to the body shape of the subject 40 and the like.

さらに、上述した両者の判定を組み合わせることによって、「腰掛け」と判定することも可能である。すなわち、交差している状態において、面積の比率を判定すれば、ベッド30の範囲内と範囲外とにおいて検出された人が対象者40である可能性が高くなり、判定の信頼度が向上する。   Furthermore, it is also possible to determine “sitting” by combining both determinations described above. That is, if the area ratio is determined in the crossed state, the possibility that the person detected within and outside the range of the bed 30 is the target person 40 increases, and the reliability of the determination is improved. .

ところで、ベッド30には落下防止用の柵を設けている場合がある。とくに、ベッド30から落下する可能性が高い対象者40に対しては柵を設けることが必要になる。このような柵を設けている場合であっても、ベッド30に出入りするためにベッド30の少なくとも1箇所には柵のない出入口を設けることになる。   By the way, the bed 30 may be provided with a fall prevention fence. In particular, it is necessary to provide a fence for the subject 40 who is likely to fall from the bed 30. Even in the case where such a fence is provided, an entrance without a fence is provided in at least one place of the bed 30 in order to enter and exit the bed 30.

このように柵を設けている場合には、Z画像において出入口の位置を図示しない入力装置によってあらかじめ登録しておく。ベッド30に対する柵の取付位置は、複数箇所(たとえば、6箇所)から選択することが多いから、入力装置としてはディップスイッチなどを用いて柵の取付位置を選択する構成を採用すればよい。   When the fence is provided in this way, the position of the entrance / exit in the Z image is registered in advance by an input device (not shown). Since the attachment position of the fence with respect to the bed 30 is often selected from a plurality of places (for example, six places), the input device may be configured to select the attachment position of the fence using a dip switch or the like.

入力装置により登録された出入口以外の領域において上述した「交差」が検出された場合には、柵を乗り越えている状態(以下、「乗り越え」という)と判定する。   When the above-mentioned “intersection” is detected in a region other than the entrance / exit registered by the input device, it is determined that the vehicle is over the fence (hereinafter referred to as “over”).

「乗り越え」の判定には、上述した「腰掛け」と同様に、ベッド30の範囲内と範囲外とに占める面積を用いることもできる。すなわち、出入口以外の場所で、ベッド30の範囲内と範囲外とに占める人の面積の全体に対して、ベッド30の範囲外に占める人の面積の比率を求める。この比率について適宜の基準範囲を設定し、比率が基準範囲を超えていると「乗り越え」と判定する。この場合、基準範囲を適宜に設定しておけば、柵の外に腕を投げ出している状態と「乗り越え」とを区別することが可能になる。   In the determination of “override”, the area occupied within and outside the range of the bed 30 can be used as in the above-described “stool”. That is, the ratio of the area of the person who occupies outside the range of the bed 30 to the whole area of the person who occupies the area outside and within the range of the bed 30 at a place other than the entrance is obtained. An appropriate reference range is set for this ratio, and if the ratio exceeds the reference range, it is determined that “override”. In this case, if the reference range is set appropriately, it is possible to distinguish between the state where the arm is thrown out of the fence and the “override”.

行動判定部23においては、対象者40が「離床」の初期行動として、ベッド30から腰を上げてベッド30から離れたときの動作(以下、「離床初期」という)を検出することも可能である。この場合、ベッド30の範囲内と範囲外との領域に占める人の面積を用い、「腰掛け」や「乗り越え」と同様に、ベッド30の範囲内と範囲外とに占める人の面積の合計を人の全体の面積とする。人の全体の面積に対するベッド30の範囲外における人の面積の比率を求め、この値が1に近い値になる場合(つまり、ベッド30の範囲内では人が検出されないか、検出されても微小である場合)、「離床初期」と判定する。言い換えると、1に近い基準範囲を設定し、前記比率が基準範囲を超えるときに「離床初期」と判定する。   In the action determination unit 23, it is also possible to detect an action (hereinafter referred to as “beginning of bed leaving”) when the target person 40 stands up from the bed 30 and leaves the bed 30 as an initial action of “getting out of bed”. is there. In this case, the area of the person occupying the area within and outside the range of the bed 30 is used, and the total area of the person occupying the area within and outside the range of the bed 30 is calculated in the same manner as “stool” and “override” The total area of the person. The ratio of the area of the person outside the range of the bed 30 to the total area of the person is obtained, and when this value is close to 1 (that is, the person is not detected within the range of the bed 30 or is small even if detected) ), It is determined that “the bed is early”. In other words, a reference range close to 1 is set, and when the ratio exceeds the reference range, it is determined as “beginning of bed leaving”.

「離床初期」を検出することにより、対象者40を追跡することなく離床の初期段階を検出することが可能になる。対象者40を追跡する技術を用いると、何らかの原因で追跡が途切れることがあるが、上述の技術により、時間経過に関係なく「離床初期」を検出することが可能になる。   By detecting “the early stage of getting out of bed”, it is possible to detect the initial stage of getting out without tracking the subject 40. When the technique for tracking the subject person 40 is used, the tracking may be interrupted for some reason. However, the technique described above makes it possible to detect the “initial stage of bed leaving” regardless of the passage of time.

ところで、ベッド30から対象者40が落下した場合、あるいはベッド30から対象者40が離床しようとして転倒した場合には、ただちに報知する必要がある。以下では、これらの状態をまとめて「転倒」という。行動判定部23では、「転倒」を検出する際に、状態が継続している時間を計測する。すなわち、ベッド30の範囲外においてのみ、床52から規定の高さ(たとえば、30cm)以下の物体が検出されている場合に、当該物体を人と判定する。行動判定部23では、人が検出されている状態が規定した判定時間に達するまで継続しているときに「転倒」と判定する。判定時間は、たとえば10秒程度に設定すればよい。   By the way, when the target person 40 falls from the bed 30 or when the target person 40 falls from the bed 30 in an attempt to get out of the bed, it is necessary to notify immediately. Hereinafter, these states are collectively referred to as “falling”. The behavior determination unit 23 measures the time during which the state continues when detecting “falling”. That is, when an object having a specified height (for example, 30 cm) or less is detected from the floor 52 only outside the range of the bed 30, the object is determined to be a person. The action determination unit 23 determines “falling” when the state in which the person is detected continues until the specified determination time is reached. The determination time may be set to about 10 seconds, for example.

上述した「腰掛け」「乗り越え」「離床初期」「転倒」は、時間経過とは無関係に特定の状態に着目して判定しているが、対象者40の行動履歴を追跡すれば、判定精度をさらに高めることができる。すなわち、行動判定部23において、人認識部22で検出された対象者40が占める領域の代表点(たとえば、重心)の位置を追跡する。   The above-mentioned “sitting”, “passing over”, “being out of bed”, and “falling” are determined by paying attention to a specific state regardless of the passage of time. It can be further increased. That is, the behavior determination unit 23 tracks the position of the representative point (for example, the center of gravity) of the area occupied by the target person 40 detected by the person recognition unit 22.

ここに、人認識部22では、対象者40について、ベッド30の範囲内での臥床、起き上がり、立ち上がりの各状態を検知面を用いて判定し、またベッド30の範囲外における存在を検知面に相当する倒れ閾値Thfを用いて判定している。したがって、各検知面で切り取ることにより得られた対象者40の存在領域については、ベッド30の範囲内と範囲外とにおいてそれぞれ重心を求めることが可能である。ただし、対象者40が占める領域は3次元で検出して重心を求めてもよく、また、ベッド30の範囲内と範囲外とにおいてX値の最頻値とY値の最頻値とを、それぞれ追跡する代表点のX値とY値とに用いることも可能である。   Here, the person recognition unit 22 uses the detection surface to determine whether the subject 40 is lying on the bed 30, rising up, or standing up within the range of the bed 30, and the presence of the bed 30 outside the range is used as the detection surface. Judgment is made using the corresponding fall threshold value Thf. Therefore, it is possible to obtain the center of gravity within the range of the bed 30 and outside the range of the target person 40 obtained by cutting off each detection surface. However, the area occupied by the target person 40 may be detected three-dimensionally to obtain the center of gravity, and the mode value of the X value and the mode value of the Y value are within and outside the range of the bed 30. It can also be used for the X value and Y value of the representative point to be tracked.

ベッド30の範囲内と範囲外との人の領域を統合して人の位置を判断している場合に、規定した時間内における代表点の移動距離を適宜の閾値と比較すれば、代表点の位置移動が連続的に生じているか否かを判断することができる。したがって、連続性のない位置移動であればノイズとして排除することができる。このように対象者40の代表点の位置を追跡すれば、対象者40の身体の一部分の移動や寝具の移動のように、対象者40の移動ではないノイズを排除することが可能になる。   When a person's position is determined by integrating the person's area within and outside the range of the bed 30, if the movement distance of the representative point within the specified time is compared with an appropriate threshold, It can be determined whether or not the position movement is continuously occurring. Accordingly, any position movement without continuity can be eliminated as noise. By tracking the position of the representative point of the target person 40 in this way, it is possible to eliminate noise that is not the movement of the target person 40, such as movement of a part of the body of the target person 40 or movement of the bedding.

さらに、対象者40の代表点は、ベッド30の範囲内を起点としているから、代表点のが、ベッド30の範囲内に存在する状態からベッド30の端部に移動し、さらにベッド30の範囲外に出るという移動経路を辿る場合に、離床と判断することができる。この条件を付加することによって、ベッド30の範囲外を起点とする移動経路は、対象者40ではない人(たとえば、看護師、介護士、見舞客など)によると判定することが可能になる。すなわち、ベッド30の範囲外を起点とした移動経路を追跡している場合には、行動判定部23では、離床と判定しないようにする。   Furthermore, since the representative point of the subject 40 starts from within the range of the bed 30, the representative point moves from the state existing within the range of the bed 30 to the end of the bed 30, and further the range of the bed 30. It can be determined that the user is getting out of bed when following a movement route of going out. By adding this condition, it is possible to determine that the movement route starting from outside the range of the bed 30 is based on a person who is not the target person 40 (for example, a nurse, a caregiver, a visitor, etc.). That is, when a movement route starting from outside the range of the bed 30 is being tracked, the behavior determination unit 23 does not determine that the person is getting out of bed.

ただし、対象者40が離床の後にベッド30に戻るという動作では、対象者40がベッド30に戻ったことを検出する必要がある。そこで、ベッド30の範囲外を起点とする移動経路で代表点がベッド30の範囲内に達した後、ベッド30の範囲内に存在する状態か「腰掛け」の状態が継続する時間が規定時間に達したことをもってベッド30に戻ったと判定する。この判定後は、対象者40の移動経路を追跡する際の起点をベッド30の範囲内に更新する。すなわち、対象者40がベッド30に戻れば、自動的に初期の状態に復帰させることが可能になる。   However, in the operation in which the subject person 40 returns to the bed 30 after getting out of bed, it is necessary to detect that the subject person 40 has returned to the bed 30. Therefore, after the representative point reaches within the range of the bed 30 on the movement route starting from outside the range of the bed 30, the time during which the state existing within the range of the bed 30 or the “sitting” state continues is within the specified time. It is determined that it has returned to the bed 30 when it has reached. After this determination, the starting point for tracking the movement route of the target person 40 is updated within the range of the bed 30. That is, when the subject person 40 returns to the bed 30, it is possible to automatically return to the initial state.

ところで、上述のような検知対象か検知対象外かを自動判断する技術は、装置を使用する環境や対象者40によっては不要であることもある。このような場合に備えて、検知対象か検知対象外かの自動判断を行うか行わないかの選択を可能にしておくのが望ましい。また、検知対象外の物体を追跡した場合、自動的に検知対象外と確定して報知をまったく行わないようにするのではなく、装置側で確認の報知を行ってから所定時間内に報知の解除が行われなければ、他装置に離床の報知を行うようにしてもよい。   By the way, the technology for automatically determining whether or not to be detected as described above may be unnecessary depending on the environment in which the apparatus is used and the target person 40. In preparation for such a case, it is desirable to be able to select whether or not to automatically determine whether or not to detect. In addition, when an object that is not a detection target is tracked, the notification is not automatically made and the notification is not performed at all. If the release is not performed, the other apparatus may be notified of getting out of bed.

報知部24は、行動監視処理部20で検出した対象者40の動作に応じた報知を行う。ここに、報知部24は、対象者40に合わせて、対象者40のどの動作に対してどのように報知するかを設定する機能を有している。たとえば、対象者40が患者や高齢者であると、起き上がりの状態や腰掛けの状態であっても看護師や介護士に報知しなければならない場合もある。   The notification unit 24 performs notification according to the operation of the target person 40 detected by the behavior monitoring processing unit 20. Here, the notification unit 24 has a function of setting how to notify which operation of the subject person 40 according to the subject person 40. For example, if the target person 40 is a patient or an elderly person, it may be necessary to notify a nurse or caregiver even if the subject 40 is in a standing state or sitting.

本実施形態の構成では、距離画像センサ10を用いて対象者40を撮像するだけで、対象者40の各種動作を判別することができる。しかも、どの動作に対して報知を行うかも任意に設定することが可能になる。どの動作で報知を行うかは、報知部24にディップスイッチなどを設けて選択すればよい。   In the configuration of the present embodiment, it is possible to discriminate various operations of the subject person 40 simply by imaging the subject person 40 using the distance image sensor 10. In addition, it is possible to arbitrarily set which operation is notified. Which operation is to be notified may be selected by providing the notification unit 24 with a dip switch or the like.

報知部24は、ベッド30を設けた部屋に配置することができるが、ナースセンタに報知することが望ましい。たとえば、報知部24において、ナースコールボタンと分岐して用いる接点出力を発生させる機能を設けておけば、ナースコールボタンを押さないかもしくは押せない患者でも離床を知らせることが可能である。   The notification unit 24 can be arranged in the room provided with the bed 30, but it is desirable to notify the nurse center. For example, if the notification unit 24 is provided with a function for generating a contact output that is branched off from the nurse call button, even a patient who does not or cannot press the nurse call button can be notified of getting out of bed.

報知部24は、ナースコールボタンのような操作装置と関連付けて動作させてもよい。すなわち、報知部24において、行動判定部23の判定結果に加えて人が操作する操作装置からの入力を受け付けるようにしてもよい。この場合、行動判定部23による判定結果と操作装置による入力との組み合わせにより、行動判定部23による判定結果の報知の有無を切り換える。   The notification unit 24 may be operated in association with an operation device such as a nurse call button. That is, the notification unit 24 may accept an input from an operating device operated by a person in addition to the determination result of the behavior determination unit 23. In this case, the presence / absence of notification of the determination result by the behavior determination unit 23 is switched depending on the combination of the determination result by the behavior determination unit 23 and the input by the operation device.

たとえば、絶対安静など静止状態が要求されている対象者40には、対象者40が移動したことが行動判定部23に検出されたときと、ナースコールボタンが押されたときとの論理和で、報知部24がナースセンタに報知する動作を選択すればよい。また、移動が許容されている対象者40には、対象者40が移動したことが行動判定部23に検出された時点ではナースセンタに報知せずに仮報知状態とする動作を選択すればよい。この場合、報知部24は、仮報知状態から所定時間内にナースコールボタンが押されると仮報知状態を解除して元の状態に復帰し、仮報知状態から所定時間内にナースコールボタンが押されないとナースセンタに報知する動作を行う。   For example, the subject 40 who is required to be in a stationary state such as absolute rest is logically ORed when the behavior determining unit 23 detects that the subject 40 has moved and when the nurse call button is pressed. The operation that the notification unit 24 notifies the nurse center may be selected. In addition, for the target person 40 who is allowed to move, an operation for setting the temporary notification state without notifying the nurse center when the action determination unit 23 detects that the target person 40 has moved may be selected. . In this case, when the nurse call button is pressed within a predetermined time from the temporary notification state, the notification unit 24 releases the temporary notification state and returns to the original state, and the nurse call button is pressed within the predetermined time from the temporary notification state. If not, an operation to notify the nurse center is performed.

上述のように、報知部24において、距離画像に基づく判定結果だけではなく、ナースコールボタンのような操作装置からの入力を併せて用いることにより、対象者40の動作に応じた望ましい報知が可能になる。ここに、操作装置は、ナースコールボタンに限定されず、後述するように、ベッドサイド端末のタッチパネルなどであってもよい。   As described above, in the notification unit 24, not only the determination result based on the distance image but also the input from the operation device such as the nurse call button can be used to perform desired notification according to the operation of the target person 40. become. Here, the operation device is not limited to the nurse call button, and may be a touch panel of a bedside terminal or the like as will be described later.

また、建物内に敷設したナースコール通信網や構内ネットワーク(LAN)などによる通信機能を報知部24に設け、行動監視処理部20の判定結果をナースセンタに通知すれば、対象者40の動作の内容を遠隔監視することが可能になる。この場合、対象者40の各種動作状態のすべてを状態信号として出力し、報知受け側の機器(ナースコール親機など)で所望動作のみを知らせるようにマスクしてもよい。また、ナースコール親機と連動した構内PHS交換機や情報端末向け無線送信機などに対象者40の動作状態情報を重畳させることで、PHSやページャなどを用いて看護師や介護士がナースセンタに居なくても対象者40の行動を把握し、迅速な対応をとることが可能になる。   In addition, if a communication function by a nurse call communication network or a local area network (LAN) laid in the building is provided in the notification unit 24 and the determination result of the behavior monitoring processing unit 20 is notified to the nurse center, the operation of the target person 40 can be performed. The contents can be remotely monitored. In this case, all the various operation states of the target person 40 may be output as state signals and masked so that only a desired operation is notified by a notification receiving device (such as a nurse call parent device). In addition, by superimposing the operation status information of the target person 40 on a private PHS exchange linked to the nurse call master unit or a wireless transmitter for information terminals, nurses and caregivers can use the PHS or pager to reach the nurse center. Even if he / she is not present, it is possible to grasp the behavior of the target person 40 and take a quick response.

なお、上述した実施形態において、ベッド30の周囲にベッド周りカーテンが存在している場合を想定しているが、上述した行動監視処理部20の機能は、ベッド周りカーテンの有無にかかわらず利用可能である。すなわち、ベッド周りカーテンの有無によらず、ベッド30の位置を確定する技術を採用することが可能であり、また、ベッド周りカーテンの有無によらず、体格に応じた判定条件(検知面の高さや面積に対する閾値)を自動的に設定することが可能である。   In the above-described embodiment, it is assumed that a bed-surrounding curtain exists around the bed 30, but the above-described function of the behavior monitoring processing unit 20 can be used regardless of the presence or absence of the bed-surrounding curtain. It is. That is, it is possible to adopt a technique for determining the position of the bed 30 regardless of the presence / absence of the curtain around the bed, and the determination condition (high detection surface height) according to the physique irrespective of the presence / absence of the curtain around the bed. It is possible to automatically set a threshold for the sheath area.

10 距離画像センサ
20 行動監視処理部
21 ベッド認識部
30 ベッド
37 フットボード
40 対象者(物体)
41 物体
45 観測板
60 距離変動補正部
P0,P1,P2 マーカ
P10,P11,P12 マーカ
DESCRIPTION OF SYMBOLS 10 Distance image sensor 20 Action monitoring process part 21 Bed recognition part 30 Bed 37 Foot board 40 Target person (object)
41 Object 45 Observation plate 60 Distance fluctuation correction unit P0, P1, P2 marker P10, P11, P12 marker

Claims (7)

投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサと、
前記距離画像を用いて前記ベッドの位置を認識するベッド認識部を備え前記ベッドに関連した人の特定の行動を監視する行動監視処理部と、
前記距離画像センサにより事前に生成された背景距離画像と前記距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を前記行動監視処理部に与える距離変動補正部とを備える
ことを特徴とする監視装置。
A distance image sensor arranged to generate a distance image in which a pixel value is a distance value to an object using a time difference between light projection and reception and to include a bed to be monitored in a visual field region;
A behavior monitoring processing unit that monitors a specific behavior of a person related to the bed, comprising a bed recognition unit that recognizes the position of the bed using the distance image;
The variation rate of the distance value regarding the pixel at the same position of the background distance image generated in advance by the distance image sensor and the distance image generated by the distance image sensor is calculated, and the variation rate is calculated from the pixels within the reference range. A monitoring apparatus, comprising: a distance fluctuation correction unit that provides a distance image obtained by correcting a distance value using a representative value of the obtained fluctuation rate to the behavior monitoring processing unit.
前記ベッドはフットボードから上に配置された観測板を備え、
前記距離変動補正部は、前記観測板に対応した領域の画素を用いて前記変動率を算出する
ことを特徴とする請求項1記載の監視装置。
The bed comprises an observation board arranged above the footboard,
The monitoring apparatus according to claim 1, wherein the distance variation correction unit calculates the variation rate using pixels in a region corresponding to the observation plate.
前記距離変動補正部は、前記ベッド認識部が抽出した前記ベッドの範囲内の画素を用いて前記変動率を算出する
ことを特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, wherein the distance variation correction unit calculates the variation rate using a pixel within the range of the bed extracted by the bed recognition unit.
前記ベッドは、フットボードにおける左右方向の中心位置および前記フットボードにおける他の位置に配置される複数個のマーカを備え、
前記ベッド認識部は、前記マーカの位置を基準に用いて前記ベッドの位置を算出する
ことを特徴とする請求項1〜3のいずれか1項に記載の監視装置。
The bed includes a plurality of markers arranged at a center position in the left-right direction on the footboard and other positions on the footboard,
The monitoring apparatus according to any one of claims 1 to 3, wherein the bed recognition unit calculates the position of the bed using the position of the marker as a reference.
前記ベッドは、フットボードにおける左右方向の中心位置および前記ベッドの両側縁に配置される3個以上のマーカを備え、
前記ベッド認識部は、前記マーカの位置を基準に用いて前記ベッドの位置を算出する
ことを特徴とする請求項1〜3のいずれか1項に記載の監視装置。
The bed includes a center position in the left-right direction on the footboard and three or more markers arranged on both side edges of the bed,
The monitoring apparatus according to any one of claims 1 to 3, wherein the bed recognition unit calculates the position of the bed using the position of the marker as a reference.
前記行動監視処理部は、前記ベッドを使用する人に関して与えられる体格を示す指標を用いて前記特定の行動を監視するために、前記ベッドの上方に規定する高さに関する閾値を自動的に設定する
ことを特徴とする請求項1〜5のいずれか1項に記載の監視装置。
The behavior monitoring processing unit automatically sets a threshold value related to a height defined above the bed in order to monitor the specific behavior using an index indicating a physique given to a person using the bed. The monitoring device according to any one of claims 1 to 5, wherein
コンピュータを、
投受光の時間差を用いて画素値が物体までの距離値である距離画像を生成するとともに監視対象であるベッドを視野領域に含むように配置される距離画像センサから得られた前記距離画像を用いて前記ベッドの位置を抽出するベッド認識部を備え前記ベッドに関連した人の特定の行動を監視する行動監視処理部と、
前記距離画像センサにより事前に生成された背景距離画像と前記距離画像センサにより生成された距離画像との同位置の画素に関する距離値の変動率を算出し、変動率が基準範囲内である画素から求めた変動率の代表値を用いて距離値を補正した距離画像を前記行動監視処理部に与える距離変動補正部
として機能させるためのプログラム。
Computer
Using the distance image obtained from a distance image sensor that generates a distance image whose pixel value is a distance value to an object using a time difference between light projection and light reception and includes a bed to be monitored in a visual field region An action monitoring processing unit for monitoring a specific action of a person related to the bed, comprising a bed recognition unit for extracting the position of the bed;
The variation rate of the distance value regarding the pixel at the same position of the background distance image generated in advance by the distance image sensor and the distance image generated by the distance image sensor is calculated, and the variation rate is calculated from the pixels within the reference range. A program for causing a distance image obtained by correcting a distance value using a representative value of the obtained variation rate to function as a distance variation correction unit that provides the behavior monitoring processing unit.
JP2011219397A 2011-10-03 2011-10-03 Monitoring device, and program Pending JP2013078433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011219397A JP2013078433A (en) 2011-10-03 2011-10-03 Monitoring device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011219397A JP2013078433A (en) 2011-10-03 2011-10-03 Monitoring device, and program

Publications (1)

Publication Number Publication Date
JP2013078433A true JP2013078433A (en) 2013-05-02

Family

ID=48525362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011219397A Pending JP2013078433A (en) 2011-10-03 2011-10-03 Monitoring device, and program

Country Status (1)

Country Link
JP (1) JP2013078433A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014514A (en) * 2013-07-04 2015-01-22 パイオニア株式会社 Identification device
WO2015118953A1 (en) * 2014-02-07 2015-08-13 Nkワークス株式会社 Information processing device, information processing method, and program
WO2015125544A1 (en) * 2014-02-18 2015-08-27 Nkワークス株式会社 Information processing device, information processing method, and program
WO2015125545A1 (en) * 2014-02-18 2015-08-27 Nkワークス株式会社 Information processing device, information processing method, and program
WO2015133195A1 (en) * 2014-03-06 2015-09-11 Nkワークス株式会社 Information processing device, information processing method, and program
WO2015141268A1 (en) * 2014-03-20 2015-09-24 Nkワークス株式会社 Information processing apparatus, information processing method, and program
JP2016031673A (en) * 2014-07-29 2016-03-07 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
WO2016170573A1 (en) * 2015-04-20 2016-10-27 ヤマハ発動機株式会社 Viscous fluid feeding apparatus and component mounting apparatus
JP2017091122A (en) * 2015-11-09 2017-05-25 富士通株式会社 Image processing program, image processing apparatus, and image processing method
JP2017517737A (en) * 2014-06-11 2017-06-29 ソフトキネティク センサーズ エヌブイ TOF camera system and method for measuring distance with the system
JP2017228042A (en) * 2016-06-21 2017-12-28 グローリー株式会社 Monitoring device, monitoring system, monitoring method and monitoring program
WO2019077863A1 (en) * 2017-10-18 2019-04-25 ソニーセミコンダクタソリューションズ株式会社 Identification device and electronic apparatus
JP2019144996A (en) * 2018-02-23 2019-08-29 エイアイビューライフ株式会社 Information processing device
WO2019188348A1 (en) * 2018-03-29 2019-10-03 パナソニックIpマネジメント株式会社 Distance information acquisition device, multipath detection device, and multipath detection method
JP2019208671A (en) * 2018-05-31 2019-12-12 キング通信工業株式会社 Watching device
JP2020031754A (en) * 2018-08-28 2020-03-05 株式会社エスト Bed-leaving detection system
EP3671530A1 (en) 2018-12-17 2020-06-24 Koninklijke Philips N.V. Device, system and method for object recognition
JP2020109582A (en) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 Information processing device
WO2020149126A1 (en) * 2019-01-15 2020-07-23 エイアイビューライフ株式会社 Information processing device
CN111656457A (en) * 2018-05-30 2020-09-11 松下知识产权经营株式会社 Monitoring assistance device and monitoring assistance method for assisting operation of a monitor who monitors by sequentially patrolling a plurality of subjects
CN112178874A (en) * 2020-11-05 2021-01-05 珠海格力电器股份有限公司 Control method of air conditioner, air conditioner and computer readable storage medium
CN114543281A (en) * 2022-02-18 2022-05-27 青岛海信日立空调系统有限公司 Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014514A (en) * 2013-07-04 2015-01-22 パイオニア株式会社 Identification device
WO2015118953A1 (en) * 2014-02-07 2015-08-13 Nkワークス株式会社 Information processing device, information processing method, and program
JPWO2015118953A1 (en) * 2014-02-07 2017-03-23 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
CN105960664A (en) * 2014-02-07 2016-09-21 诺日士精密株式会社 Information processing device, information processing method, and program
CN105960663A (en) * 2014-02-18 2016-09-21 诺日士精密株式会社 Information processing device, information processing method, and program
WO2015125544A1 (en) * 2014-02-18 2015-08-27 Nkワークス株式会社 Information processing device, information processing method, and program
WO2015125545A1 (en) * 2014-02-18 2015-08-27 Nkワークス株式会社 Information processing device, information processing method, and program
JPWO2015125544A1 (en) * 2014-02-18 2017-03-30 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JPWO2015125545A1 (en) * 2014-02-18 2017-03-30 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
CN106415654A (en) * 2014-02-18 2017-02-15 诺日士精密株式会社 Information processing device, information processing method, and program
WO2015133195A1 (en) * 2014-03-06 2015-09-11 Nkワークス株式会社 Information processing device, information processing method, and program
CN105940434A (en) * 2014-03-06 2016-09-14 诺日士精密株式会社 Information processing device, information processing method, and program
JPWO2015133195A1 (en) * 2014-03-06 2017-04-06 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
CN105940428A (en) * 2014-03-20 2016-09-14 诺日士精密株式会社 Information processing apparatus, information processing method, and program
WO2015141268A1 (en) * 2014-03-20 2015-09-24 Nkワークス株式会社 Information processing apparatus, information processing method, and program
JPWO2015141268A1 (en) * 2014-03-20 2017-04-06 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP2017517737A (en) * 2014-06-11 2017-06-29 ソフトキネティク センサーズ エヌブイ TOF camera system and method for measuring distance with the system
US10175765B2 (en) 2014-07-29 2019-01-08 Sony Interactive Entertainment Inc. Information processing device, information processing method, and computer program
JP2016031673A (en) * 2014-07-29 2016-03-07 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
CN107530727A (en) * 2015-04-20 2018-01-02 雅马哈发动机株式会社 Viscous fluid feedway and element fixing apparatus
JPWO2016170573A1 (en) * 2015-04-20 2017-11-16 ヤマハ発動機株式会社 Viscous fluid supply device and component mounting device
WO2016170573A1 (en) * 2015-04-20 2016-10-27 ヤマハ発動機株式会社 Viscous fluid feeding apparatus and component mounting apparatus
JP2017091122A (en) * 2015-11-09 2017-05-25 富士通株式会社 Image processing program, image processing apparatus, and image processing method
US9904854B2 (en) 2015-11-09 2018-02-27 Fujitsu Limited Image processing device and image processing method
JP2017228042A (en) * 2016-06-21 2017-12-28 グローリー株式会社 Monitoring device, monitoring system, monitoring method and monitoring program
WO2019077863A1 (en) * 2017-10-18 2019-04-25 ソニーセミコンダクタソリューションズ株式会社 Identification device and electronic apparatus
JPWO2019077863A1 (en) * 2017-10-18 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 Identification device and electronic equipment
US11341771B2 (en) 2017-10-18 2022-05-24 Sony Semiconductor Solutions Corporation Object identification electronic device
JP2019144996A (en) * 2018-02-23 2019-08-29 エイアイビューライフ株式会社 Information processing device
JP7039011B2 (en) 2018-02-23 2022-03-22 エイアイビューライフ株式会社 Information processing equipment
WO2019188348A1 (en) * 2018-03-29 2019-10-03 パナソニックIpマネジメント株式会社 Distance information acquisition device, multipath detection device, and multipath detection method
JPWO2019188348A1 (en) * 2018-03-29 2021-03-25 ヌヴォトンテクノロジージャパン株式会社 Distance information acquisition device, multipath detection device and multipath detection method
CN111656457A (en) * 2018-05-30 2020-09-11 松下知识产权经营株式会社 Monitoring assistance device and monitoring assistance method for assisting operation of a monitor who monitors by sequentially patrolling a plurality of subjects
CN111656457B (en) * 2018-05-30 2024-04-09 松下知识产权经营株式会社 Monitoring support device and monitoring support method for supporting work of monitor for monitoring by sequentially visiting a plurality of subjects
JP7090889B2 (en) 2018-05-31 2022-06-27 キング通信工業株式会社 Watching device
JP2019208671A (en) * 2018-05-31 2019-12-12 キング通信工業株式会社 Watching device
JP2020031754A (en) * 2018-08-28 2020-03-05 株式会社エスト Bed-leaving detection system
WO2020127014A1 (en) 2018-12-17 2020-06-25 Koninklijke Philips N.V. Device, system and method for object recognition
EP3671530A1 (en) 2018-12-17 2020-06-24 Koninklijke Philips N.V. Device, system and method for object recognition
JP2020109582A (en) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 Information processing device
WO2020145145A1 (en) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 Information processing device
JP2020110422A (en) * 2019-01-15 2020-07-27 エイアイビューライフ株式会社 Information processing device
WO2020149126A1 (en) * 2019-01-15 2020-07-23 エイアイビューライフ株式会社 Information processing device
CN112178874B (en) * 2020-11-05 2022-01-07 珠海格力电器股份有限公司 Control method of air conditioner, air conditioner and computer readable storage medium
CN112178874A (en) * 2020-11-05 2021-01-05 珠海格力电器股份有限公司 Control method of air conditioner, air conditioner and computer readable storage medium
CN114543281A (en) * 2022-02-18 2022-05-27 青岛海信日立空调系统有限公司 Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit
CN114543281B (en) * 2022-02-18 2023-08-18 青岛海信日立空调系统有限公司 Sleeping tool position detection method and device based on radar equipment and air conditioner indoor unit

Similar Documents

Publication Publication Date Title
JP2013078433A (en) Monitoring device, and program
JP5771778B2 (en) Monitoring device, program
JP6150207B2 (en) Monitoring system
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
US10045716B2 (en) Systems and methods for dynamically identifying a patient support surface and patient monitoring
US20020044682A1 (en) Method and apparatus for subject physical position and security determination
JP4058286B2 (en) Monitoring device
JP2017523402A (en) Detecting the movement and / or position of the monitored object
US20130338525A1 (en) Mobile Human Interface Robot
JP2752335B2 (en) Patient monitoring device in hospital room
JP2011086286A (en) Watching system on bed and inside room
Yang et al. Fall detection for multiple pedestrians using depth image processing technique
JP6504156B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2011002339A (en) Object detection device
TW201705095A (en) Apparatus to prevent falling and operation method thereof
TW201415415A (en) Target object detection device, method for detecting target object, and program
JP3939224B2 (en) Area monitoring device
JP5288416B2 (en) Moving body motion posture detection device
JP2008110215A (en) Monitoring apparatus
WO2012002904A1 (en) Device and method for detection of abnormal spatial states of a human body
US11256925B2 (en) Monitoring system and monitoring method thereof
JP6978080B2 (en) Private room watching device
US20230172489A1 (en) Method And A System For Monitoring A Subject
JP5694834B2 (en) Object recognition method and object recognition apparatus
JP6922914B2 (en) Watching system, watching device, watching method, and watching program