JPH0894400A - Image processor and applied apparatus using the same - Google Patents

Image processor and applied apparatus using the same

Info

Publication number
JPH0894400A
JPH0894400A JP22663594A JP22663594A JPH0894400A JP H0894400 A JPH0894400 A JP H0894400A JP 22663594 A JP22663594 A JP 22663594A JP 22663594 A JP22663594 A JP 22663594A JP H0894400 A JPH0894400 A JP H0894400A
Authority
JP
Japan
Prior art keywords
signal
output
human body
area
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22663594A
Other languages
Japanese (ja)
Other versions
JP3453870B2 (en
Inventor
秀行 ▲吉▼田
Hideyuki Yoshida
Masaaki Sato
正章 佐藤
Takehiko Shida
武彦 志田
Kison Naka
基孫 中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP22663594A priority Critical patent/JP3453870B2/en
Publication of JPH0894400A publication Critical patent/JPH0894400A/en
Application granted granted Critical
Publication of JP3453870B2 publication Critical patent/JP3453870B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Air Conditioning Control Device (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

PURPOSE: To accurately divide a plurality of persons to individual areas when the detected one human body area is the superposition of the plurality of the persons by processing an infrared image obtained from a two-dimensional infrared sensor, and accurately detecting the area of the body in the detecting area. CONSTITUTION: The image processor comprises a sensor 1 for measuring the temperatures of a person and an environment in a detecting area to output a thermal image signal, a background temperature calculator 2 for calculating the background temperature from the image signal of the output of the sensor 1, a human body area detector 3 for detecting the human body area in the image based on the output signal of the calculator 2 and the image signal, a person area divider 4 for dividing the human body area to the personal areas of the individual areas according to the output signal of the detector 3 and the image signal, and an image information detector 5 for outputting the detailed personal information of the person or the environmental information signal from the output signal of the divider 4 and the image signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明の画像処理装置は、主に赤
外線センサから得られる熱画像から人の情報を検出する
画像処理装置に関するものであり、空調関連機器、監視
システム、住宅関連機器、インテリジェントビルデイン
グシステム(IBS)等の多数の産業分野に利用でき
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The image processing apparatus of the present invention relates mainly to an image processing apparatus for detecting human information from a thermal image obtained from an infrared sensor. It can be used in many industrial fields such as Intelligent Building Systems (IBS).

【0002】[0002]

【従来の技術】本発明が解決しようとする分野は、赤外
線センサの熱画像を用いて、そこから得られる人間の情
報を用いる機器制御に関するものである。従来より赤外
線センサを用いて人の位置検出を行ない空調制御を行な
うものがあった。例えば、特開平6−117836号公
報記載の構成が知られている。以下に簡単にその構成を
説明する。検出エリア内の人間および環境の温度を赤外
線センサで計測する。赤外線センサの出力である熱画像
はブロックに分割され、ブロック毎の平均温度から切り
出し温度を決定し人体領域を検出する。ニューラルネッ
トまたはパターン認識で人体領域の形状や大きさによっ
て、人数や足元位置などの個人情報信号と環境情報信号
を出力する。個人情報信号と環境情報信号から個人別の
快適度を検出して、空調機器の制御が行なわれる。
The field to be solved by the present invention relates to equipment control using a thermal image of an infrared sensor and using human information obtained therefrom. Conventionally, there has been a device that detects the position of a person and controls the air conditioning by using an infrared sensor. For example, the structure described in Japanese Patent Laid-Open No. 6-17883 is known. The configuration will be briefly described below. Infrared sensors measure the temperature of people and the environment in the detection area. The thermal image output from the infrared sensor is divided into blocks, and the cut-out temperature is determined from the average temperature of each block to detect the human body region. Neural nets or pattern recognition are used to output personal information signals such as the number of people and foot positions and environmental information signals according to the shape and size of the human body region. The comfort level of each individual is detected from the personal information signal and the environmental information signal to control the air conditioning equipment.

【0003】また、空気調和機以外でも監視システムな
どで人間に関する正確な情報が要求されているが、人間
に関する情報を検出する方法は、可視監視カメラを設置
し人がモニタリングするか、ビデオなどに記録すること
が一般的である。また、画像処理を用いた監視システム
も存在するが、照度や色などの問題で検出困難な場合も
多い。さらに、赤外線カメラを用いる監視システムも存
在するが、解像度の高い熱画像を得るには検出素子数を
多く必要とするか、冷却装置を必要とするものが一般的
で、複雑な処理と高いコストが要求される。
In addition to the air conditioners, accurate information about human beings is required in surveillance systems and the like. A method of detecting information about human beings is to install a visible surveillance camera for human monitoring or to use video. It is common to record. Although there are monitoring systems that use image processing, detection is often difficult due to problems such as illuminance and color. In addition, there are also surveillance systems that use infrared cameras, but they generally require a large number of detection elements or a cooling device to obtain a high-resolution thermal image, which requires complicated processing and high cost. Is required.

【0004】[0004]

【発明が解決しようとする課題】しかし、従来の技術で
示した赤外線の熱画像を用いた空気調和機の制御装置
は、人体と背景が分離されていない固定した領域毎の平
均温度に対応して、あらかじめ定められた切り出し温度
幅で人体領域の検出を行なっていた。このため、室内温
度が高くなると正確な人体領域の検出ができなくなるこ
とがあった。また、複数人が近くにいる場合には、人数
検出や個々人の位置などに関する正確な情報を検出する
ことは困難であった。
However, the control device of the air conditioner using the infrared thermal image shown in the prior art corresponds to the average temperature of each fixed area where the human body and the background are not separated. Then, the human body region is detected within a predetermined cutting temperature range. Therefore, when the room temperature becomes high, the human body region may not be accurately detected. Further, when a plurality of people are close to each other, it is difficult to detect the number of people and to accurately detect the position of each person.

【0005】上記従来の技術の第1の課題は、外界の熱
分布に関係なく、赤外線センサの熱画像から人体温度を
切り出す温度があらかじめ設定してあるために生じる問
題である。第2の課題は、画像の読み取りセンサの分解
能の低さに起因する問題である。画像の解像度が低いと
複数人が近くにいる場合には、人数や個々人の位置を正
確に検出することが難しい。
The first problem of the prior art is the problem that occurs when the temperature for cutting out the human body temperature from the thermal image of the infrared sensor is set in advance, regardless of the heat distribution in the external environment. The second problem is a problem caused by the low resolution of the image reading sensor. When the resolution of the image is low, it is difficult to accurately detect the number of people and the position of each person when a plurality of people are nearby.

【0006】本発明は、このような従来の問題を解決す
るものであり、赤外線画像から検出エリア内の人体の領
域を正確に検出すること、赤外線画像から人体の領域を
検出した時に、1つの人体の領域が複数の人間の重なり
である場合に、1人1人を正確に個人の領域に分割する
ことを目的とする。
The present invention solves such a conventional problem by accurately detecting the area of the human body in the detection area from the infrared image, and by detecting the area of the human body from the infrared image. An object of the present invention is to accurately divide each person into individual areas when the human body area is an overlap of a plurality of people.

【0007】[0007]

【課題を解決するための手段】本発明における第1の技
術的解決手段は、上記の目的を達成するために、画像処
理装置に関して、少なくとも検出エリア内の人間および
環境の温度を熱画像信号として出力するセンサ部と、前
記センサ部からの出力である熱画像信号を処理し、熱画
像信号から背景温度を算出する背景温度算出部と、前記
背景温度算出部の出力信号と熱画像信号を基に熱画像内
の人体領域を検出する人体領域検出部と、前記人体領域
検出部の出力信号より詳細な人間の個人情報信号もしく
は環境情報信号を出力する画像情報検出部で構成する。
In order to achieve the above-mentioned object, a first technical solution in the present invention is, for an image processing apparatus, at least the temperature of a person and the environment in a detection area as a thermal image signal. A sensor unit for outputting, a background temperature calculation unit that processes a thermal image signal output from the sensor unit and calculates a background temperature from the thermal image signal, and an output signal and a thermal image signal of the background temperature calculation unit In addition, it is composed of a human body area detecting section for detecting a human body area in the thermal image and an image information detecting section for outputting a more detailed human personal information signal or environment information signal than the output signal of the human body area detecting section.

【0008】また、第2の技術的解決手段は、前記人体
領域検出部の出力である人体領域を1人1人の領域であ
る個人領域に分割する人間領域分割部を付加することに
より構成されている。
The second technical solution is constituted by adding a human area dividing section for dividing the human body area output from the human body area detecting section into individual areas which are areas of each person. ing.

【0009】[0009]

【作用】本発明の画像処理装置は、前記の構成によって
次のような作用を有する。第1の作用として本発明にお
いては、2次元赤外線センサの出力である熱画像信号か
ら背景と考えられる領域の温度を算出し、この背景温度
から人体領域の切り出し温度を決定し、より正確な人体
領域検出ができる。
The image processing apparatus of the present invention has the following operations due to the above-mentioned configuration. As a first action, in the present invention, the temperature of the region considered to be the background is calculated from the thermal image signal output from the two-dimensional infrared sensor, and the cut-out temperature of the human body region is determined from this background temperature to obtain a more accurate human body. Area detection is possible.

【0010】また、第2の作用としては、人間領域分割
部において1人の人間は1つの極大値を持つものとし
て、熱画像信号の極大値に基づいて、複数人が存在する
1つの人体領域を1人1人の個人領域に分割することに
より、人体の一部分が重なりあっている場合も正確に人
数を検出することができる。
As a second action, it is assumed that one human has one maximum in the human region dividing section, and one human body region in which a plurality of people exist based on the maximum of the thermal image signal. Is divided into individual areas for each person, the number of people can be accurately detected even when part of the human body overlaps.

【0011】1人の人間を1つの極大値を持つものとし
た根拠は、赤外線センサの検知エリアに1人の人間がい
た場合、肌が露出している部分が服を着ている部分より
も温度が高く検出される。また、肌が露出している顔や
手などの部分のうち、顔の部分が一番高い温度を検出す
る。画素数の少ない赤外線センサを用いている場合に
は、熱画像上では1人1人の顔の温度が熱画像上の極大
値を示すためである。
The reason why one person has one maximum value is that when there is one person in the detection area of the infrared sensor, the exposed skin portion is more than the clothing portion. High temperature is detected. Also, of the exposed parts of the face or hands, the face part detects the highest temperature. This is because when an infrared sensor having a small number of pixels is used, the temperature of the face of each person on the thermal image has a maximum value on the thermal image.

【0012】[0012]

【実施例】【Example】

(実施例1)以下、本発明の画像処理装置の第1の実施
例について、図面を参照して説明する。図1は本実施例
の画像処理装置の構成図である。1はセンサ部で熱画像
信号を出力する。2は背景温度算出部で熱画像信号から
背景温度信号を検出する。3は人体領域検出部で人体領
域を検出する。4は人間領域分割部で人体領域を個人領
域に分割する。5は画像情報検出部で検出エリア内の人
数や着衣量などを熱画像から推定する。
(First Embodiment) A first embodiment of the image processing apparatus of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of the image processing apparatus of this embodiment. Reference numeral 1 denotes a sensor unit that outputs a thermal image signal. Reference numeral 2 denotes a background temperature calculation unit that detects the background temperature signal from the thermal image signal. Reference numeral 3 denotes a human body area detection unit that detects a human body area. Reference numeral 4 denotes a human region dividing unit which divides the human body region into individual regions. An image information detection unit 5 estimates the number of people in the detection area and the amount of clothing from the thermal image.

【0013】次に、図1の各部の説明をする。最初にセ
ンサ部1の説明をする。外界6は人間のいる領域で、セ
ンサ部1に含まれる2次元赤外線センサ14で走査し
て、熱画像情報として検出可能なエリアの温度を検出
し、熱画像信号8を出力する。
Next, each part of FIG. 1 will be described. First, the sensor unit 1 will be described. The outside world 6 is an area in which a person exists, and the two-dimensional infrared sensor 14 included in the sensor unit 1 scans it to detect the temperature of an area that can be detected as thermal image information, and outputs a thermal image signal 8.

【0014】次に、背景温度算出部2の説明をする。1
5は2次元赤外線センサ14で検出した熱画像信号8の
2階微分を算出し、2階微分画像信号を出力する2階微
分算出手段、16は2階微分算出手段からの出力である
2階微分画像信号から熱画像信号8の凹凸を検出し、人
間領域の温度が30度として、人間領域の温度が室内温
度より高い場合は背景温度である凹部の温度を算出し室
内温度より低い場合は背景領域である凸部の温度を算出
し、背景温度信号9を出力する背景領域温度算出手段で
ある。
Next, the background temperature calculation unit 2 will be described. 1
Reference numeral 5 is a second-order differential calculating means for calculating a second-order differential of the thermal image signal 8 detected by the two-dimensional infrared sensor 14 and outputting a second-order differential image signal, and 16 is a second-order differential output of the second-order differential calculating means. The unevenness of the thermal image signal 8 is detected from the differential image signal, the temperature of the human region is set to 30 degrees, and when the temperature of the human region is higher than the indoor temperature, the temperature of the concave portion which is the background temperature is calculated. It is a background area temperature calculating means for calculating the temperature of the convex portion which is the background area and outputting the background temperature signal 9.

【0015】次に、人体領域検出部3の説明をする。1
7は背景温度算出部2の出力である背景温度信号9か
ら、人間領域の温度Tmanが室内温度Troomより
高い場合は背景温度Tbackとしきい値θを足した温
度を切り出し温度とし、室内温度Troomより低い場
合は背景温度からしきい値θを引いた温度を切り出し温
度とし、切り出し温度信号を出力する切り出し温度決定
手段、18は前記切り出し温度決定手段17で決定した
切り出し温度信号により、 Tman≧Troom ならば、 Tback+θ<G Tman<Troom ならば、 Tback−θ>G で求められる画素Gを人体領域として検出し、人体領域
信号10を出力する人体検出手段である。
Next, the human body area detecting section 3 will be described. 1
Reference numeral 7 is a background temperature signal 9 which is an output of the background temperature calculation unit 2, and when the temperature Tman in the human region is higher than the room temperature Troom, the temperature obtained by adding the background temperature Tback and the threshold value θ is set as the cut-out temperature. If the temperature is low, the temperature obtained by subtracting the threshold value θ from the background temperature is set as the cutout temperature, and the cutout temperature determining means for outputting the cutout temperature signal, 18 is the cutout temperature signal determined by the cutout temperature determining means 17, and if Tman ≧ Troom For example, if Tback + θ <G Tman <Troom, the human body detection unit detects the pixel G obtained by Tback−θ> G as the human body region and outputs the human body region signal 10.

【0016】次に、画像情報検出部5の説明をする。1
9は人間領域分割部4の出力である個人領域信号11か
ら検出エリア内の人数を検出し、人数信号を出力する人
数検出手段である。
Next, the image information detecting section 5 will be described. 1
Reference numeral 9 is a person number detecting means for detecting the number of persons in the detection area from the personal area signal 11 output from the human area dividing unit 4 and outputting the number of people signal.

【0017】図2は人間領域分割部4の詳しい内部構成
を示すブロック図である。20は熱画像信号から熱画像
の極大値を検出し、極大値信号を出力する極大値検出手
段、21は前記極大値検出手段の出力である極大値信号
と人体領域信号から、極大値から人体領域を示す画素の
距離によって人体領域を個人領域に分割し、個人領域信
号を出力する極大値個人領域分割手段である。
FIG. 2 is a block diagram showing a detailed internal structure of the human area dividing section 4. Reference numeral 20 is a maximum value detecting means for detecting a maximum value of the thermal image from the thermal image signal and outputting the maximum value signal, and 21 is a maximum value signal and a human body region signal output from the maximum value detecting means, and a maximum value to a human body. It is a maximum value personal area dividing unit that divides the human body area into individual areas according to the distance of pixels indicating the area and outputs a personal area signal.

【0018】次に、以上のように構成された本実施例の
動作について説明する。まず、全体の動作について説明
する。外界6は人間がいる領域で、センサ部1に含まれ
る2次元赤外線センサ14で走査して、熱画像情報とし
て検出可能なエリアの温度を検出する。人の居住するエ
リアとして室内を示す場合もある。外界6の熱分布が2
次元赤外線センサ14により走査され、熱画像信号8と
して背景温度算出部2に入力される。背景温度算出部2
でセンサ部1の出力である熱画像信号8より背景領域を
検出し、背景温度を算出する。熱画像信号8と熱画像信
号8の背景領域の温度である背景温度信号9は、人体領
域検出部3に入力される。人体領域検出部3で熱画像信
号8と背景領域信号9に基づいて人体領域を検出し、人
体領域信号10を出力する。人間領域分割部4で熱画像
信号8と人体領域検出部3で出力された人体領域信号1
0に基づいて、人体領域から1人1人の領域である個人
領域に分割し、個人領域信号11を出力する。熱画像信
号8と背景温度信号9と個人領域信号11が画像情報検
出部5に入力される。画像情報検出部5では、熱画像信
号8と背景温度信号9と個人領域信号11から、検出エ
リア内の人数や着衣量などの個人情報信号12と、背景
温度や人間以外の発熱体の位置などの環境情報信号13
を出力する。
Next, the operation of this embodiment configured as described above will be described. First, the overall operation will be described. The outside world 6 is an area where a human is present, and the two-dimensional infrared sensor 14 included in the sensor unit 1 scans the area to detect the temperature of an area that can be detected as thermal image information. The room may also be referred to as an area where people live. The heat distribution of the outside world 6 is 2
It is scanned by the three-dimensional infrared sensor 14 and input to the background temperature calculation unit 2 as the thermal image signal 8. Background temperature calculation unit 2
At, the background area is detected from the thermal image signal 8 which is the output of the sensor unit 1, and the background temperature is calculated. The thermal image signal 8 and the background temperature signal 9 that is the temperature of the background region of the thermal image signal 8 are input to the human body region detection unit 3. The human body region detection unit 3 detects a human body region based on the thermal image signal 8 and the background region signal 9, and outputs a human body region signal 10. Thermal image signal 8 in human region dividing section 4 and human body region signal 1 output in human body region detecting section 3
Based on 0, the human body region is divided into individual regions, which are regions for each person, and a personal region signal 11 is output. The thermal image signal 8, the background temperature signal 9 and the personal area signal 11 are input to the image information detection unit 5. In the image information detection unit 5, from the thermal image signal 8, the background temperature signal 9 and the personal area signal 11, the personal information signal 12 such as the number of people and the amount of clothes in the detection area, the background temperature and the position of the non-human heating element, etc. Environmental information signal 13
Is output.

【0019】次に、上記実施例の動作の細部について説
明する。最初に背景温度算出部2の動作について説明す
る。従来は、熱画像信号8から背景温度を検出する場
合、室内に人間以外の発熱がなく、室内温度が25度以
下であるとすれば、26度から34度の温度の画素を検
出することにより人体の領域を検出し、それ以外の領域
を背景として背景温度を検出していた。しかし、以上の
ような構成では2次元の熱画像から背景温度の算出が正
確に行なえない場合があった。例えば、室内の温度分布
が床や各壁面によって温度が違う場合がある。また、人
の切り出しを温度範囲を用いずに人の境界線より人間を
検出する方法もあるが、良好なエッジの検出ができない
と正確な検出は困難である。
Next, details of the operation of the above embodiment will be described. First, the operation of the background temperature calculation unit 2 will be described. Conventionally, in the case of detecting the background temperature from the thermal image signal 8, if there is no heat generation other than human beings in the room and the room temperature is 25 degrees or lower, by detecting the pixels of the temperature of 26 degrees to 34 degrees, The human body area is detected, and the background temperature is detected with the other area as the background. However, with the above configuration, the background temperature may not be accurately calculated from the two-dimensional thermal image. For example, the temperature distribution in the room may vary depending on the floor and each wall surface. There is also a method of detecting a person from the boundary line of the person without using the temperature range for cutting out the person, but accurate detection is difficult if a good edge cannot be detected.

【0020】そこで、本実施例では人間を発熱物体とし
て捉え、人間領域の温度が周囲温度に対して、周囲温度
より低い場合は凸になり、周囲温度が高い場合は凹にな
ることを利用する。熱画像信号8の2階微分を算出する
2階微分算出手段15で、熱画像信号内の凹凸を見つけ
る。人間領域の温度が30度であるとして、この温度が
周囲温度より高い場合は凹の部分、周囲温度より低い場
合は凸の部分を背景領域として、背景領域温度算出手段
16で背景温度を算出する。
Therefore, in this embodiment, a human being is regarded as a heat generating object, and when the temperature of the human region is lower than the ambient temperature, it is convex, and when the ambient temperature is high, it is concave. . The second-order differential calculating means 15 for calculating the second-order differential of the thermal image signal 8 finds irregularities in the thermal image signal. Assuming that the temperature of the human region is 30 degrees, the background region temperature calculation means 16 calculates the background temperature by setting the concave portion when the temperature is higher than the ambient temperature and the convex portion when the temperature is lower than the ambient temperature as the background region. .

【0021】ここで、熱画像内の大きな凹凸を捉える方
法として、画像処理でよく知られた移動平均法の1つで
ある多項式適合法を用いる。画像の微分は多項式適合法
の重み係数を変更することによって求められ、同時に画
像の平滑化も行なわれる。この多項式適合法の微分を2
回行なうことにより、雑音を除去しながら熱画像の2階
微分を求める。この2階微分画像信号から、熱画像上の
人間にあたる凹凸を見つけて、その凹凸の部分の温度を
基準に領域を切り出す方法を用いた。また、多項式適合
法の他に、4近傍型または8近傍型のラプラシアンオペ
レータを用いて、熱画像の2階微分を求め、熱画像上の
凹凸を捉えることもできる。
Here, a polynomial fitting method, which is one of well-known moving average methods in image processing, is used as a method for capturing large irregularities in a thermal image. The image differential is obtained by changing the weighting factor of the polynomial fitting method, and at the same time the image is smoothed. The derivative of this polynomial fitting method is 2
By performing the operation twice, the second derivative of the thermal image is obtained while removing noise. From this second-order differential image signal, the method of finding the unevenness corresponding to a person on the thermal image and cutting out the region based on the temperature of the uneven part was used. In addition to the polynomial fitting method, it is also possible to obtain the second derivative of the thermal image by using a Laplacian operator of the four-neighbor type or the eight-neighbor type to capture the irregularities on the thermal image.

【0022】次に、人体領域検出部3の動作を説明す
る。本実施例では背景温度信号9から、人間の領域が室
内温度より高い場合は背景温度信号9としきい値θを足
したものよりも大きい部分の熱画像信号8を人体領域と
して検出し、室内温度より低い場合は背景温度信号9か
らしきい値θを引いたものよりも小さい部分の熱画像信
号8を人体領域として検出する。
Next, the operation of the human body area detecting section 3 will be described. In the present embodiment, when the human area is higher than the indoor temperature, the thermal image signal 8 of a portion larger than the sum of the background temperature signal 9 and the threshold value θ is detected as the human body area from the background temperature signal 9, and the indoor temperature is detected. If it is lower, the thermal image signal 8 of a portion smaller than the background temperature signal 9 minus the threshold value θ is detected as the human body region.

【0023】次に、人間領域分割部4の動作を説明す
る。2次元赤外線センサ14で検出した熱画像信号8
と、人体領域検出部3の出力である人体領域信号10か
ら、個人領域を検出する。従来は、検出エリア内に複数
の人間が存在している場合、人体領域検出部3で1人1
人が切り出されなければ、複数の人間が1つの人体領域
に存在していても、1人だけがその人体領域に存在して
いるものと認識していた。そこで、本実施例では、複数
の人間が1つの人体領域に存在している場合、人間が2
次元熱画像上で1つの極大値を持つものとして1つの人
体領域を個人領域に分割する。
Next, the operation of the human area dividing section 4 will be described. Thermal image signal 8 detected by the two-dimensional infrared sensor 14
Then, the personal area is detected from the human body area signal 10 output from the human body area detecting unit 3. Conventionally, when a plurality of persons are present in the detection area, one person is detected by the human body area detection unit 3.
If a person is not cut out, even if a plurality of humans exist in one human body area, only one person recognizes that they exist in that human body area. Therefore, in this embodiment, when a plurality of humans exist in one human body region, the number of humans is two.
One human body region is divided into individual regions assuming that it has one maximum value on the three-dimensional thermal image.

【0024】人間領域分割部4の動作の詳細な説明を図
2を参照しながら行う。人体領域検出部3で検出した1
つの人体領域に、複数の人間が存在しているものとす
る。1人の人間は1つの極大値を持つものとして、極大
値検出手段20で熱画像信号8から極大値を算出し極大
値信号を出力する。人体領域内にある極大値は1人の人
間であるとして、極大値検出手段20で出力された極大
値信号と人体領域検出部3で出力された人体領域信号に
基づいて、極大値個人領域分割手段21で個人領域に分
割する。極大値個人領域分割手段21で熱画像上の距離
を用いて、極大値からの人体領域の距離が近いものは、
この極大値が示す人間の個人領域であるとして分割す
る。ここで、熱画像の縦横比が1でない場合には、熱画
像の縦横比を用いて、距離の重み付けを行い、この重み
によって1つの人体領域を個人領域に分割する。
A detailed description of the operation of the human area dividing section 4 will be given with reference to FIG. 1 detected by the human body area detection unit 3
It is assumed that multiple humans exist in one human body area. Assuming that one person has one maximum value, the maximum value detecting means 20 calculates the maximum value from the thermal image signal 8 and outputs the maximum value signal. Assuming that the maximum value in the human body area is one person, the maximum value personal area division is performed based on the maximum value signal output by the maximum value detecting means 20 and the human body area signal output by the human body area detecting unit 3. The means 21 divides the personal area. If the distance of the human body region from the maximum value is short by using the distance on the thermal image by the maximum value personal region dividing means 21,
It is divided as the human personal area indicated by this maximum value. Here, when the aspect ratio of the thermal image is not 1, the distance is weighted using the aspect ratio of the thermal image, and one human body region is divided into individual regions by this weighting.

【0025】次に人数検出手段19の動作について説明
する。従来は、画像から画像内の人数を検出する場合
は、画像より人間らしい部分の領域を検出し、その領域
の形状から人間かどうかを判断し、その数がいくつある
かによって、人数の算出を行なっていた。しかし、この
方法では画像から領域の形状認識が正確に行なえないと
人数の良好な検出は難しい。また人間が重なった場合
も、人数算出が難しくなる。そこで、本実施例では人体
領域検出部3と人間領域分割部4により人数を求めてい
る。
Next, the operation of the person number detecting means 19 will be described. Conventionally, when detecting the number of people in an image from an image, the area of a part that is more human than the image is detected, it is determined whether or not a person is a person based on the shape of that area, and the number of people is calculated based on how many there are. Was there. However, with this method, it is difficult to detect the number of people properly unless the shape of the region can be accurately recognized from the image. Also, when humans overlap, it becomes difficult to calculate the number of people. Therefore, in this embodiment, the number of persons is calculated by the human body area detection unit 3 and the human area division unit 4.

【0026】まず、人体領域検出部3で人体領域を検出
する。2次元赤外線センサ14で検出可能なエリアに複
数人が重なっていて、人体領域検出部3で1つの人体領
域しか検出できなかった場合には、人間領域分割部4の
動作により、1人1人の個人領域に分割される。この個
人領域の数が検知エリア内の人数を示している。
First, the human body region detecting section 3 detects the human body region. When a plurality of people are overlapped in the area detectable by the two-dimensional infrared sensor 14 and only one human body area can be detected by the human body area detecting unit 3, the operation of the human body area dividing unit 4 causes one person Is divided into personal areas. The number of personal areas indicates the number of people in the detection area.

【0027】(実施例2)以下、本発明の画像処理装置
の第2の実施例について、図面を参照して説明する。第
1の実施例においては、人体領域分割部4はセンサ部1
の出力である熱画像信号8の極大値を求めて、この極大
値信号と人体領域検出部3の出力である人体領域信号1
0から、1つの人体領域を個人領域に分割させていた。
本実施例においては、センサ部1の出力である熱画像信
号8の縦方向および横方向の微分をとり、縦方向および
横方向の極小値を見つけ、この極小値のつながりを1つ
の人体領域を個人領域に分割する境界線とするものであ
る。
(Second Embodiment) A second embodiment of the image processing apparatus of the present invention will be described below with reference to the drawings. In the first embodiment, the human body region dividing unit 4 is the sensor unit 1.
Of the thermal image signal 8 which is the output of the human body region signal 1 output from the human body region detection unit 3 and the maximum value signal.
From 0, one human body area was divided into individual areas.
In the present embodiment, the vertical and horizontal differentials of the thermal image signal 8 that is the output of the sensor unit 1 are taken to find the local minimum values in the vertical and horizontal directions, and the connection of these local minimum values is taken as one human body region. This is a boundary line that divides the personal area.

【0028】図3は人間領域分割部4の詳しい内部構成
を示すブロック図である。22は熱画像信号の縦方向お
よび横方向の微分をとり、縦方向および横方向の極小値
を求め、極小値信号を出力する極小値検出手段、23は
前記極小値検出手段の出力である極小値信号を連結し、
極小値連結信号を出力する極小値連結手段、24は前記
極小値連結手段の出力である極小値連結信号を個人領域
の境界線として、人体領域信号から個人領域を分割し、
個人領域信号を出力する極小値個人領域分割手段であ
る。
FIG. 3 is a block diagram showing a detailed internal structure of the human area dividing section 4. 22 is a minimum value detecting means for obtaining a minimum value in the vertical direction and the horizontal direction by differentiating the thermal image signal in the vertical and horizontal directions to output a minimum value signal; and 23 is a minimum value which is the output of the minimum value detecting means. Concatenate the value signals,
A minimum value connecting means for outputting a minimum value connecting signal; 24 divides the personal area from the human body area signal using the minimum value connecting signal output from the minimum value connecting means as a boundary line of the personal area;
It is a minimum value personal area dividing means for outputting a personal area signal.

【0029】人体領域分割部4の動作の詳細な説明を図
3を参照しながら行う。人体領域検出部3で検出した1
つの人体領域に複数の人間が存在しているものとする。
1人の人間は1つの極大値を持つものとして、他の人間
の境界には縦横それぞれに、極小値が存在する。そこ
で、本実施例では、縦横それぞれの微分をとり、極小値
を見つけ、この極小値のつながりを人間の境界線として
1つの人体領域を個人領域に分割する。
A detailed description of the operation of the human body region dividing section 4 will be given with reference to FIG. 1 detected by the human body area detection unit 3
It is assumed that multiple humans exist in one human body area.
It is assumed that one person has one maximum value, and the boundaries of other humans have minimum values in the vertical and horizontal directions. Therefore, in this embodiment, the vertical and horizontal differentials are obtained to find the minimum value, and one human body region is divided into individual regions using the connection of these minimum values as a human boundary line.

【0030】図3の人体領域分割部4では、熱画像信号
8に縦方向および横方向の微分オペレータをかけて、縦
方向および横方向の極小値を極小値検出手段22で検出
する。極小値検出手段22の出力である極小値信号は、
熱画像の形状によっては、連続した線を示さない。そこ
で、熱画像の縦横比に注意しながら、極小値の画素間の
距離に応じて極小値の連結を行う。極小値信号を入力と
する極小値連結手段23で極小値信号を連結し、1つの
人体領域を1人1人の領域に分割する境界線として極小
値連結信号を出力する。この極小値連結信号が示す個人
領域の境界線と人体領域検出部3の出力である人体領域
信号に基づいて、極小値個人領域分割手段24で1つの
人体領域を個人領域に分割する。
In the human body region dividing section 4 of FIG. 3, the thermal image signal 8 is subjected to a vertical and horizontal differential operator, and the vertical and horizontal minimum values are detected by the minimum value detecting means 22. The minimum value signal output from the minimum value detecting means 22 is
Depending on the shape of the infrared image, it does not show continuous lines. Therefore, while paying attention to the aspect ratio of the thermal image, the minimum values are connected according to the distance between the pixels having the minimum value. The minimum value connection means 23, which receives the minimum value signal, connects the minimum value signals and outputs the minimum value connection signal as a boundary line that divides one human body region into one person region. Based on the boundary line of the personal area indicated by the minimum value connection signal and the human body area signal output from the human body area detection unit 3, the minimum value personal area dividing means 24 divides one human body area into individual areas.

【0031】ここで、用いた微分オペレータは、雑音を
除去しながら、熱画像の微分をとる平滑化機能を持つP
rewittオペレータ、Sobelオペレータであ
る。
The differential operator used here has a smoothing function P that takes the differential of the thermal image while removing noise.
They are a rewitt operator and a Sobel operator.

【0032】(実施例3)次に、本発明の画像処理装置
を用いた具体的な実施例として監視装置を示す。
(Embodiment 3) Next, a monitoring apparatus will be shown as a specific embodiment using the image processing apparatus of the present invention.

【0033】従来監視システムでは人が可視画像を常時
監視することが行なわれている。これは可視画像から人
の認識を行なう技術の開発は行なわれているが、実用化
に至ったものが少ないためである。しかし、可視画像か
ら移動物体を検出する技術は実用化されているものが多
い。ただし、動きによって捉えられる物体には人以外の
ものも含まれるため、移動物体から人を正確に捉えるこ
とは難しい。また、動きが少ない人の検出は不可能であ
る。これに対して、赤外線画像は発熱物体として人間を
捉えることが容易であるが、人以外の発熱物体も同時に
検出されてしまう。
In the conventional monitoring system, a person constantly monitors a visible image. This is because the technology for recognizing a person from a visible image has been developed, but few have been put to practical use. However, many techniques for detecting a moving object from a visible image have been put into practical use. However, it is difficult to accurately capture a person from a moving object because the objects captured by the movement include objects other than the person. In addition, it is impossible to detect a person who moves little. On the other hand, although it is easy for an infrared image to capture a person as a heat-generating object, a heat-generating object other than a person is also detected at the same time.

【0034】そこで、本実施例では可視画像処理から移
動物体を検出する装置と赤外線センサを用いた画像処理
から発熱物体を検出する本発明の画像処理装置を併用す
ることで人間または環境情報の検出精度を向上させた監
視装置を示す。
Therefore, in the present embodiment, the apparatus for detecting a moving object from visible image processing and the image processing apparatus of the present invention for detecting a heat-generating object from image processing using an infrared sensor are used together to detect human or environmental information. 2 shows a monitoring device with improved accuracy.

【0035】以下、本発明の一実施例について図面を参
照して説明する。図4は本発明の一実施例における監視
装置の概略ブロック図である。25は可視画像のセンサ
部(カメラ)で可視画像信号30を出力する。26は可
視画像処理部で可視画像信号29から差分画像信号31
を出力する。27は可視画像情報検出部で差分画像信号
31から移動物体信号32を出力する。28は監視情報
検出部で可視画像情報検出部27の出力である移動物体
信号31と本発明の画像処理装置の出力である個人情報
信号12と環境情報信号13から不審者警告信号33と
異常信号34を出力する。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 4 is a schematic block diagram of a monitoring device according to an embodiment of the present invention. Reference numeral 25 denotes a visible image sensor unit (camera) that outputs a visible image signal 30. Reference numeral 26 denotes a visible image processing unit, which converts a visible image signal 29 to a differential image signal 31.
Is output. A visible image information detection unit 27 outputs the moving object signal 32 from the differential image signal 31. Reference numeral 28 denotes a monitoring information detection unit, a moving object signal 31 output from the visible image information detection unit 27, a personal information signal 12 output from the image processing apparatus of the present invention, and an environment information signal 13 to a suspicious person warning signal 33 and an abnormal signal. 34 is output.

【0036】ここで、画像情報検出部5は足元位置推測
手段35と姿勢判定推測手段36を付加したものとす
る。それぞれの手段は画像情報検出部5の入力である人
体領域信号10または個人領域信号11に基づいて、ニ
ューラルネットワークまたはパターン認識を用いて足元
位置、姿勢を推測する。各手段の出力は画像情報検出部
5の出力である個人情報信号12に付加して出力する。
Here, it is assumed that the image information detecting section 5 additionally includes a foot position estimating means 35 and a posture determination estimating means 36. Each means estimates the foot position and posture by using a neural network or pattern recognition based on the human body region signal 10 or the personal region signal 11 which is the input of the image information detection unit 5. The output of each means is added to the personal information signal 12 which is the output of the image information detection unit 5 and output.

【0037】次に、以上のように構成された上記実施例
について説明する。カメラ25で外界6から可視光29
を可視画像信号30を出力する。可視画像信号30を可
視画像処理部26で時間的に連続した差分をとることに
より、差分画像信号31を出力する。可視画像情報検出
部27において、差分画像信号31から移動物体の有
無、移動物体の数、移動物体の位置を移動物体信号32
として出力する。監視画像情報検出部28において、前
記移動物体信号32と本発明の画像処理装置の出力であ
る個人情報信号12と環境情報信号13から、検知エリ
ア内に移動物体と発熱物体が数、位置ともに対応が取れ
ているか調べ、人体を検出する。人体が検出された位置
が立ち入り禁止領域であり、人体の位置が変化しなくな
れば、不審者警告信号33と異常信号34を出力する。
また、検知エリア内に人体の温度よりもはるかに高温な
領域が存在すれば、火事の可能性があるとして異常信号
34を出力する。
Next, the above-mentioned embodiment constructed as described above will be explained. The visible light 29 from the outside world 6 by the camera 25
To output a visible image signal 30. The difference image signal 31 is output by taking the temporally continuous difference of the visible image signal 30 in the visible image processing unit 26. In the visible image information detection unit 27, the presence / absence of a moving object, the number of moving objects, and the position of the moving object are calculated from the difference image signal 31 as a moving object signal 32.
Output as. In the monitoring image information detection unit 28, the moving object signal 32 and the personal information signal 12 and the environmental information signal 13 output from the image processing apparatus of the present invention correspond to the moving object and the heat-generating object in the number and position in the detection area. Check whether or not it is taken and detect the human body. The position where the human body is detected is the off-limit area, and when the position of the human body does not change, the suspicious person warning signal 33 and the abnormal signal 34 are output.
Further, if there is a region having a temperature much higher than the temperature of the human body in the detection area, the abnormal signal 34 is output because there is a possibility of fire.

【0038】(実施例4)次に、本発明の画像処理装置
を用いた具体的な実施例として個人認識装置を示す。以
下、本実施例について図面を参照して説明する。図5は
本実施例における個人識別装置の概略ブロック図であ
る。図5は実施例3の概略ブロック図である図4に示し
た監視情報検出部28を個人識別部37に入れ換え、入
力にカメラ部25の出力である可視画像信号30を付加
し、個人識別信号38を出力するものである。また、個
人識別部37は個人情報記憶手段39と個人認識手段4
0を持つ。
(Embodiment 4) Next, a personal recognition apparatus will be shown as a specific embodiment using the image processing apparatus of the present invention. Hereinafter, the present embodiment will be described with reference to the drawings. FIG. 5 is a schematic block diagram of the personal identification device in this embodiment. FIG. 5 is a schematic block diagram of the third embodiment. The monitoring information detection unit 28 shown in FIG. 4 is replaced with the personal identification unit 37, the visible image signal 30 output from the camera unit 25 is added to the input, and the personal identification signal is added. 38 is output. Further, the personal identification section 37 includes a personal information storage means 39 and a personal recognition means 4
Has 0.

【0039】個人識別部37の動作を説明する。個人情
報記憶手段39は人間の位置と姿勢と体格と着衣の色な
どを記憶する。個人認識手段40は個人情報記憶手段3
9に記憶されている個人の特徴に基づき、ニューラルネ
ットワークまたはパターン認識により個人の識別または
追尾を行なうことができる。このことより、室内に誰が
いるのかを識別することが可能になる。この個人認識装
置から個人視聴率測定装置などの応用がある。
The operation of the personal identification section 37 will be described. The personal information storage means 39 stores the position, posture, physique, color of clothes, etc. of the person. The personal recognition means 40 is the personal information storage means 3
Based on the characteristics of the individual stored in 9, the individual can be identified or tracked by a neural network or pattern recognition. This makes it possible to identify who is in the room. There are applications from this personal recognition device to a personal audience rating measuring device.

【0040】(実施例5)次に、本発明の画像処理装置
を用いた具体的な実施例として看護装置を示す。
(Embodiment 5) Next, a nursing apparatus will be shown as a specific embodiment using the image processing apparatus of the present invention.

【0041】以下、本実施例について図面を参照して説
明する。図6は本実施例における看護装置の概略ブロッ
ク図である。41は非看護者状態判別部で画像情報検出
部5の出力である個人情報信号12と環境情報信号13
に基づいて、非看護者状態信号42を出力する。ここ
で、画像情報検出部5に姿勢判定推測手段36と着衣量
推測手段43と皮膚温度推測手段44を付加したものと
する。それぞれの手段は画像情報検出部5の入力である
人体領域信号10または個人領域信号11に基づいて、
ニューラルネットワークまたはパターン認識を用いて、
姿勢、着衣量、皮膚温度を推測する。各手段の出力は画
像情報検出部5の出力である個人情報信号12に付加し
て出力する。
The present embodiment will be described below with reference to the drawings. FIG. 6 is a schematic block diagram of the nursing device in this embodiment. Reference numeral 41 is a non-nurse state determination unit, which is an output of the image information detection unit 5 and is a personal information signal 12 and an environmental information signal
And outputs a non-nurse status signal 42 based on Here, it is assumed that the image information detection unit 5 is additionally provided with a posture determination estimation unit 36, a clothing amount estimation unit 43, and a skin temperature estimation unit 44. Each means is based on the human body region signal 10 or the personal region signal 11 which is the input of the image information detection unit 5,
Using neural networks or pattern recognition
Estimate posture, amount of clothing, and skin temperature. The output of each means is added to the personal information signal 12 which is the output of the image information detection unit 5 and output.

【0042】非看護者状態判別部41の動作の説明をす
る。画像情報検出部5の出力である個人情報信号12か
ら非看護者の姿勢を判別し、非看護者が在床している
か、目を覚ましているか、体を起こしているか、眠って
いるかなどの状態を出力する。また、着衣量や皮膚温度
から寝具がずれていないか、体温が通常より高くないか
などの状態を出力する。環境情報信号13からは、室内
の温度が非看護者にとって不快でないか、空調をいれる
必要があるかなどの室内の状況を出力する。この看護装
置は非看護者の状態や室内の状況などを出力するため、
看護する人が24時間そばにいなくても看護できる。
The operation of the non-nurse status determination section 41 will be described. The posture of the non-nurse is discriminated from the personal information signal 12 output from the image information detection unit 5, and whether the non-nurse is in bed, awake, awaking, sleeping, etc. Output status. In addition, the state such as whether the bedding does not deviate from the clothing amount or the skin temperature or whether the body temperature is higher than usual is output. The environment information signal 13 outputs the indoor condition such as whether the room temperature is not uncomfortable for the non-nurse or whether air conditioning is required. Since this nursing device outputs the status of non-nurses and the situation inside the room,
You can care even if the caregiver is not around for 24 hours.

【0043】(実施例6)次に、本発明の画像処理装置
を用いた具体的な実施例として空気調和機を示す。以
下、本実施例について図面を参照して説明する。図7は
本実施例における空気調和機の概略ブロック図である。
45は室温センサで室内の温度を室温信号51として出
力する。46は湿度センサで室内の湿度を湿度信号52
として出力する。47は外気温センサで室外の気温を外
気温信号53として出力する。48は風向・風量情報で
空調機の吹き出し口から出される風の風向・風量信号5
4を出力する。49は制御指標決定部で本発明の画像処
理装置の出力である個人情報信号12と環境情報信号1
3と、室温センサ45の出力である室温信号51と、湿
度センサ46の出力である湿度信号52と、外気温セン
サ47の出力である外気温信号53と、風向・風量情報
48の出力である風向・風量信号54を入力として、室
内にいる各人間の活動量と快適度を制御信号55として
出力する。50は空調制御部で前記制御指標決定部49
の出力である制御信号55から空調機の制御を行なう。
(Embodiment 6) Next, an air conditioner will be shown as a specific embodiment using the image processing apparatus of the present invention. Hereinafter, the present embodiment will be described with reference to the drawings. FIG. 7 is a schematic block diagram of the air conditioner in this embodiment.
A room temperature sensor 45 outputs the room temperature as a room temperature signal 51. Reference numeral 46 is a humidity sensor, which indicates the indoor humidity by a humidity signal 52.
Output as. An outdoor temperature sensor 47 outputs the outdoor temperature as an outdoor temperature signal 53. Reference numeral 48 denotes wind direction / volume information, which is the wind direction / volume signal 5 of the wind emitted from the outlet of the air conditioner.
4 is output. Reference numeral 49 is a control index determination unit, which is the output of the image processing apparatus of the present invention and is the personal information signal 12 and the environmental information signal 1.
3, the room temperature signal 51 that is the output of the room temperature sensor 45, the humidity signal 52 that is the output of the humidity sensor 46, the outside air temperature signal 53 that is the output of the outside air temperature sensor 47, and the output of the wind direction / air volume information 48. The wind direction / air volume signal 54 is input, and the activity amount and comfort level of each person in the room are output as a control signal 55. Reference numeral 50 is an air-conditioning control unit, which is the control index determination unit 49.
The air conditioner is controlled from the control signal 55 which is the output of the.

【0044】制御指標決定部49の説明をする。56は
活動量検出手段で制御指標決定部49に入力される個人
情報信号12のうち、個人の足元位置の変化から得られ
る移動量や立位、座位、臥位といった姿勢の変化から活
動量を検出する。57は快適度検出手段で制御指標決定
部49に入力される個人情報信号12と環境情報信号1
3と室内温度信号51と湿度信号52と外気温信号53
と風向・風量信号54に基づいて、PMV(ISO 7
730−1984)などの快適度を検出し、快適度に応
じた制御信号55を空調制御部50に出力する。
The control index determination unit 49 will be described. In the personal information signal 12 input to the control index determination unit 49 by the activity amount detection means 56, the activity amount is calculated from the movement amount obtained from the change in the individual foot position and the change in posture such as standing, sitting or lying down. To detect. Reference numeral 57 is a comfort level detecting means, and the personal information signal 12 and the environmental information signal 1 are input to the control index determining section 49.
3, indoor temperature signal 51, humidity signal 52, and outside air temperature signal 53
And PMV (ISO 7
730-1984) and the like, and outputs a control signal 55 corresponding to the comfort level to the air conditioning controller 50.

【0045】ここで、画像情報検出部5は足元位置推測
手段35と姿勢推測手段36と着衣量推測手段43の構
成を有するものとする。それぞれの手段は画像情報検出
部5の入力である人体領域信号10または個人領域信号
11に基づいて、ニューラルネットワークまたはパター
ン認識を用いて足元位置、姿勢、着衣量を推測する。各
手段の出力は画像情報検出部5の出力である個人情報信
号12に付加して出力する。
Here, it is assumed that the image information detecting section 5 has a structure of a foot position estimating means 35, a posture estimating means 36, and a clothing amount estimating means 43. Based on the human body region signal 10 or the personal region signal 11 input to the image information detection unit 5, each means estimates the foot position, posture, and amount of clothing by using a neural network or pattern recognition. The output of each means is added to the personal information signal 12 which is the output of the image information detection unit 5 and output.

【0046】活動量検出手段56の動作の説明をする。
快適度としてPMVを制御指標とする場合、人間の状態
として活動量が重要な要素であることは知られている。
活動量を検出するために、画像情報検出部5の出力であ
る個人情報信号12を用いて、在室者毎の足元位置と姿
勢を記憶し、時間経過とともに在室者毎の動きを検出す
る。動きがある場合はその移動速度から、動きがない場
合は姿勢の違いから活動量を対応付け、活動量を検出す
る。
The operation of the activity amount detecting means 56 will be described.
When PMV is used as a control index as the degree of comfort, it is known that the amount of activity is an important factor as a human state.
In order to detect the amount of activity, the personal information signal 12 output from the image information detection unit 5 is used to store the foot position and posture of each person in the room, and the movement of each person in the room is detected over time. . If there is a movement, the movement amount is associated with the moving speed, and if there is no movement, the activity amount is detected from the difference in posture, and the activity amount is detected.

【0047】快適度検出手段57の動作の説明をする。
快適度の指標の一つであるPMVを算出する場合、空気
温度と輻射温度と湿度と気流と代謝量と着衣量を必要と
するが、人間に関する物理量である代謝量や着衣量は測
定することは困難である。そこで、本実施例では環境情
報信号13、室温信号51、湿度信号52、風向・風量
信号54と画像情報検出部5において着衣量を推測し、
活動量検出手段56において活動量から代謝量を推測す
ることにより、個人毎の快適度PMVを算出する。本画
像処理装置より正確な人数情報が個人情報信号12から
出力されるので、より正確な室内の人体による内部発熱
が検出でき、室内の熱負荷に応じた補正を加えられる。
この補正より室内の代表となるPMVを算出し、空調制
御部50に出力する。
The operation of the comfort level detecting means 57 will be described.
When calculating PMV, which is one of the indicators of comfort level, air temperature, radiation temperature, humidity, air flow, metabolic rate, and clothing amount are required, but the metabolic rate and clothing amount, which are physical quantities related to humans, must be measured. It is difficult. Therefore, in this embodiment, the amount of clothing is estimated by the environment information signal 13, the room temperature signal 51, the humidity signal 52, the wind direction / air volume signal 54, and the image information detection unit 5,
The activity level detection means 56 estimates the metabolic rate from the activity level to calculate the comfort level PMV for each individual. Since the accurate information on the number of people is output from the personal information signal 12 from the image processing apparatus, more accurate internal heat generation by the human body in the room can be detected, and the correction according to the heat load in the room can be added.
A PMV that is a representative of the room is calculated from this correction and is output to the air conditioning control unit 50.

【0048】本実施例では、画像処理装置の出力である
個人情報信号12と環境情報信号13と室温信号51と
湿度信号52と外気温信号53と風向・風量情報54か
ら個人別の快適度を検出し、室内の代表となる快適度を
求め、室内の温度や風量および風向きの制御を行なうこ
とにより、個人の快適度の向上が図れる。また、画素数
が少ない画像処理装置を用いるためコストが安価となり
用いられやすい。
In the present embodiment, the comfort level of each individual is calculated from the personal information signal 12, the environment information signal 13, the room temperature signal 51, the humidity signal 52, the outside air temperature signal 53, and the wind direction / air volume information 54 which are the outputs of the image processing apparatus. It is possible to improve the comfort level of an individual by detecting the detected comfort level that is representative of the room and controlling the room temperature, air volume, and wind direction. In addition, since an image processing device having a small number of pixels is used, the cost is low and it is easy to use.

【0049】本発明の画像処理装置は、このほかにも各
種の機器に用いることができる。
The image processing apparatus of the present invention can be used in various other devices.

【0050】[0050]

【発明の効果】以上のように本発明は、赤外線画像の背
景温度を基に人体領域の切り出し温度を決定することに
より、人体領域検出部が赤外線画像から検出エリア内の
人体の領域を正確に検出することができる。
As described above, according to the present invention, the human body region detecting section accurately determines the region of the human body in the detection area from the infrared image by determining the cutting temperature of the human body region based on the background temperature of the infrared image. Can be detected.

【0051】また、赤外線画像から人体の領域を検出し
た時に、1つの人体の領域が複数の人間の重なりである
場合に、人間領域分割部において、1つの人体領域を1
人1人の正確な個人領域に分割することができる。
Further, when a human body region is detected from an infrared image and one human body region overlaps a plurality of humans, one human body region is divided into 1 by the human region dividing unit.
It can be divided into the exact personal areas of one person.

【0052】このように本発明は、赤外線画像から検出
エリア内の人間の領域および一人一人の人間を正確に検
出できるので、これを用いた監視装置や看護装置などで
は、人の労力を軽減することができ、空気調和機などで
は、在室者の状況に合った制御が可能になる。
As described above, according to the present invention, since the human area in the detection area and each person can be accurately detected from the infrared image, the labor of the person can be reduced in the monitoring device and the nursing device using the same. Therefore, in an air conditioner or the like, control suitable for the situation of the person in the room becomes possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における画像処理装置の
構成図
FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】同実施例における人間領域分割部の構成図FIG. 2 is a configuration diagram of a human area dividing unit in the same embodiment.

【図3】本発明の第2の実施例における人間領域分割部
の構成図
FIG. 3 is a configuration diagram of a human area dividing unit according to a second embodiment of the present invention.

【図4】本発明の第3の実施例における監視装置の構成
FIG. 4 is a configuration diagram of a monitoring device according to a third embodiment of the present invention.

【図5】本発明の第4の実施例における個人認識装置の
構成図
FIG. 5 is a configuration diagram of a personal recognition device according to a fourth embodiment of the present invention.

【図6】本発明の第5の実施例における看護装置の構成
FIG. 6 is a configuration diagram of a nursing device according to a fifth embodiment of the present invention.

【図7】本発明の第6の実施例における空気調和機の制
御装置の構成図
FIG. 7 is a configuration diagram of a control device for an air conditioner according to a sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 センサ部 2 背景温度算出部 3 人体領域検出部 4 人間領域分割部 5 画像情報検出部 6 外界 7 外界の熱分布 8 熱画像信号 9 背景温度信号 10 人体領域信号 11 個人領域信号 12 個人情報信号 13 環境情報信号 14 2次元赤外線センサ 15 2階微分算出手段 16 背景領域温度算出手段 17 切り出し温度決定手段 18 人間検出手段 19 人数検出手段 20 極大値検出手段 21 極大値領域分割手段 22 極小値検出手段 23 極小値連結手段 24 極小値領域分割手段 25 カメラ 26 可視画像処理部 27 可視画像情報検出部 28 監視情報検出部 29 可視光 30 可視画像信号 31 差分画像信号 32 移動物体信号 33 不審者警告信号 34 異常信号 35 足元位置推測手段 36 姿勢判定推測手段 37 個人識別部 38 個人識別信号 39 個人情報記憶手段 40 個人認識手段 41 非看護者状態判別部 42 非看護者状態信号 43 着衣量推測手段 44 皮膚温度推測手段 45 室温センサ 46 湿度センサ 47 外気温センサ 48 風向・風量情報 49 制御指標決定部 50 空調制御機 51 室温信号 52 湿度信号 53 外気温信号 54 風向・風量信号 55 制御信号 56 活動量検出手段 57 快適度検出手段 DESCRIPTION OF SYMBOLS 1 Sensor part 2 Background temperature calculation part 3 Human body region detection part 4 Human region division part 5 Image information detection part 6 Outside world 7 Thermal distribution of outside world 8 Thermal image signal 9 Background temperature signal 10 Human body region signal 11 Personal area signal 12 Personal information signal 13 environment information signal 14 two-dimensional infrared sensor 15 second-order differential calculation means 16 background area temperature calculation means 17 cutout temperature determination means 18 human detection means 19 human number detection means 20 maximum value detection means 21 maximum value area dividing means 22 minimum value detection means 23 minimum value connecting means 24 minimum value region dividing means 25 camera 26 visible image processing unit 27 visible image information detecting unit 28 monitoring information detecting unit 29 visible light 30 visible image signal 31 differential image signal 32 moving object signal 33 suspicious person warning signal 34 Abnormal signal 35 Foot position estimation means 36 Posture determination estimation means 37 Personal identification section 3 Individual identification signal 39 Personal information storage means 40 Individual recognition means 41 Non-nurse status determination unit 42 Non-nurse status signal 43 Clothes amount estimation means 44 Skin temperature estimation means 45 Room temperature sensor 46 Humidity sensor 47 Outside temperature sensor 48 Wind direction / air volume information 49 Control Index Determining Section 50 Air Conditioning Controller 51 Room Temperature Signal 52 Humidity Signal 53 Outside Air Temperature Signal 54 Wind Direction / Air Volume Signal 55 Control Signal 56 Activity Level Detection Means 57 Comfort Level Detection Means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G01D 21/02 G01J 1/02 W 9309−2G G01V 8/10 8/12 G06M 11/00 D (72)発明者 中 基孫 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G01D 21/02 G01J 1/02 W 9309-2G G01V 8/10 8/12 G06M 11/00 D ( 72) Inventor Nakamoto Son 3-10-1 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd.

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 検出エリア内の人間および環境の温度を
計測して赤外線画像(以降、熱画像信号と呼ぶ)を出力
するセンサ部と、前記センサ部の出力である熱画像信号
から背景領域の温度を算出し、背景温度信号を出力する
背景温度算出部と、前記背景温度算出部の出力である背
景温度信号と、センサ部の出力である熱画像信号に基づ
いて、センサ部の出力である熱画像信号の中から人体部
分の領域を検出し、人体領域信号を出力する人体領域検
出部と、前記人体領域検出部の出力である人体領域信号
と、センサ部の出力である熱画像信号と、背景温度算出
部の出力である背景温度信号に基づいて、人間の個人情
報信号または環境情報信号を出力する画像情報検出部を
有することを特徴とする画像処理装置。
1. A sensor unit for measuring the temperature of a human being and an environment in a detection area and outputting an infrared image (hereinafter referred to as a thermal image signal), and a thermal image signal output from the sensor unit to detect a background region. A background temperature calculation unit that calculates the temperature and outputs a background temperature signal, a background temperature signal that is the output of the background temperature calculation unit, and an output of the sensor unit based on the thermal image signal that is the output of the sensor unit. A human body region detection unit that detects a human body region from the thermal image signal and outputs a human body region signal, a human body region signal that is the output of the human body region detection unit, and a thermal image signal that is the output of the sensor unit. An image processing apparatus comprising an image information detection unit that outputs a human personal information signal or an environment information signal based on the background temperature signal output from the background temperature calculation unit.
【請求項2】 背景温度算出部が、センサ部の出力であ
る熱画像信号を2階微分し、2階微分画像信号を出力す
る2階微分算出手段と、前記2階微分算出手段の出力で
ある2階微分画像信号と、センサ部の出力である熱画像
信号に基づいて、熱画像信号の凹部(または凸部)であ
る領域を背景と考え、その平均温度を算出し、背景温度
信号を出力する背景領域温度算出手段を有することを特
徴とする請求項1記載の画像処理装置。
2. The background temperature calculation unit uses a second-order differential calculation unit that performs second-order differentiation of the thermal image signal output from the sensor unit and outputs a second-order differential image signal, and an output of the second-order differential calculation unit. Based on a certain second-order differential image signal and the thermal image signal output from the sensor unit, the region that is the concave (or convex) portion of the thermal image signal is considered as the background, the average temperature is calculated, and the background temperature signal is calculated. The image processing apparatus according to claim 1, further comprising a background area temperature calculation unit that outputs the background area temperature.
【請求項3】 人体領域検出部が、背景温度算出部の出
力である背景温度信号に基づいて人体の切り出し温度を
定め、切り出し温度信号を出力する切り出し温度決定手
段と、前記切り出し温度決定手段の出力である切り出し
温度信号と、センサ部の出力である熱画像信号に基づい
て、人体領域を検出し、人体領域信号を出力する人体検
出手段を有することを特徴とする請求項1または2記載
の画像処理装置。
3. A human body region detection unit determines a human body cutout temperature based on a background temperature signal output from a background temperature calculation unit, and outputs a cutout temperature signal, and a cutout temperature determination unit, and the cutout temperature determination unit. 3. A human body detecting means for detecting a human body region based on a cutout temperature signal which is an output and a thermal image signal which is an output of the sensor unit, and outputting a human body region signal. Image processing device.
【請求項4】 人体領域検出部の出力である人体領域信
号と、センサ部の出力である熱画像信号に基づいて、人
体領域を個人領域に分割し、個人領域信号を出力する人
間領域分割部と、前記人間領域分割部の出力である個人
領域信号と、センサ部の出力である熱画像信号と、背景
温度算出部の出力である背景温度信号に基づいて、少な
くとも検出エリア内の人数を個人情報信号として出力す
る画像情報検出部を付加することを特徴とする請求項1
から3のいずれかに記載の画像処理装置。
4. A human region dividing unit that divides a human body region into individual regions based on a human body region signal output from a human body region detecting unit and a thermal image signal output from a sensor unit, and outputs a personal region signal. Based on the personal area signal which is the output of the human area dividing section, the thermal image signal which is the output of the sensor section, and the background temperature signal which is the output of the background temperature calculation section, at least the number of people in the detection area 2. An image information detecting section for outputting as an information signal is added.
The image processing device according to any one of 1 to 3.
【請求項5】 人間領域分割部が、センサ部の出力であ
る熱画像信号から極大値を算出し、極大値信号を出力す
る極大値検出手段と、前記極大値検出手段の出力である
極大値信号と、人体領域検出部の出力である人体領域信
号に基づいて人間領域を分割し、個人領域信号を出力す
る極大値個人領域分割手段を有することを特徴とする請
求項4記載の画像処理装置。
5. A human region dividing unit calculates a maximum value from a thermal image signal output from a sensor unit and outputs a maximum value signal, and a maximum value output from the maximum value detecting unit. 5. The image processing apparatus according to claim 4, further comprising local maximum value personal area dividing means for dividing the human area based on the signal and the human body area signal output from the human body area detecting unit and outputting the individual area signal. .
【請求項6】 人間領域分割部が、センサ部の出力であ
る熱画像信号から極小値を検出し、極小値信号を出力す
る極小値検出手段と、前記極小値検出手段の出力である
極小値信号を連結し、極小値連結信号を出力する極小値
連結手段と、前記極小値連結手段の出力である極小値連
結信号と、人体領域検出部の出力である人体領域信号に
基づいて人体領域を分割し、個人領域信号を出力する極
小値個人領域分割手段を有すること特徴とする請求項4
記載の画像処理装置。
6. A human region dividing unit detects a minimum value from a thermal image signal output from a sensor unit and outputs a minimum value signal, and a minimum value output from the minimum value detecting unit. A human body region is connected based on the minimum value connection means for connecting the signals and outputting the minimum value connection signal, the minimum value connection signal which is the output of the minimum value connection means, and the human body region signal which is the output of the human body region detection unit. 5. A minimum value personal area dividing means for dividing and outputting a personal area signal is provided.
The image processing device described.
【請求項7】 画像情報検出部が、人間領域分割部の出
力である個人領域信号に基づいて検出エリア内の人数を
検出し、人数信号を出力する人数検出手段を有すること
を特徴とする請求項1から6のいずれかに記載の画像処
理装置。
7. The image information detecting section has a person number detecting means for detecting the number of persons in the detection area based on the personal area signal output from the human area dividing section and outputting the number of people signal. Item 7. The image processing device according to any one of items 1 to 6.
【請求項8】 請求項1から7のいずれかに記載の画像
処理装置を有する監視装置。
8. A monitoring device comprising the image processing device according to claim 1.
【請求項9】 請求項1から7のいずれかに記載の画像
処理装置に、画像処理装置から得られる人間に関する特
徴量を学習し、個人の識別を行なう個人識別部を付加し
たことを特徴とする個人識別装置。
9. An image processing apparatus according to any one of claims 1 to 7, further comprising a personal identification section for learning a characteristic amount of a human obtained from the image processing apparatus and for identifying an individual. Personal identification device.
【請求項10】 請求項1から7のいずれかに記載の画
像処理装置を有する看護装置。
10. A nursing device comprising the image processing device according to claim 1.
【請求項11】 請求項1から7のいずれかに記載の画
像処理装置を有する空気調和機の制御装置。
11. An air conditioner control device comprising the image processing device according to claim 1. Description:
【請求項12】 請求項1から7のいずれかに記載の画
像処理装置を用いた応用機器。
12. An applied device using the image processing device according to claim 1.
JP22663594A 1994-09-21 1994-09-21 Image processing device and applied equipment using the image processing device Expired - Fee Related JP3453870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22663594A JP3453870B2 (en) 1994-09-21 1994-09-21 Image processing device and applied equipment using the image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22663594A JP3453870B2 (en) 1994-09-21 1994-09-21 Image processing device and applied equipment using the image processing device

Publications (2)

Publication Number Publication Date
JPH0894400A true JPH0894400A (en) 1996-04-12
JP3453870B2 JP3453870B2 (en) 2003-10-06

Family

ID=16848275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22663594A Expired - Fee Related JP3453870B2 (en) 1994-09-21 1994-09-21 Image processing device and applied equipment using the image processing device

Country Status (1)

Country Link
JP (1) JP3453870B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222359A (en) * 2004-02-06 2005-08-18 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2005301719A (en) * 2004-04-13 2005-10-27 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
JP2010054203A (en) * 2008-08-26 2010-03-11 Panasonic Electric Works Co Ltd Luminaire
JP2010159887A (en) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp Air conditioning device
CN102176067A (en) * 2010-12-29 2011-09-07 神华集团有限责任公司 Method for obtaining underground coal-fire change information
JP2011190972A (en) * 2010-03-12 2011-09-29 Mitsubishi Electric Corp Air conditioning control system
JP2011241991A (en) * 2010-05-14 2011-12-01 Mitsubishi Electric Building Techno Service Co Ltd Air conditioner controller
JP2012042131A (en) * 2010-08-19 2012-03-01 Mitsubishi Electric Corp Air conditioner
WO2012123808A1 (en) * 2011-03-17 2012-09-20 パナソニック株式会社 Object detection device
JP2014130001A (en) * 2014-02-10 2014-07-10 Mitsubishi Electric Corp Air conditioner
JP2015052435A (en) * 2013-09-09 2015-03-19 日立アプライアンス株式会社 Air conditioner
WO2015037334A1 (en) * 2013-09-10 2015-03-19 日立アプライアンス株式会社 Air conditioner monitoring system
JP5820074B2 (en) * 2012-07-18 2015-11-24 旭化成エレクトロニクス株式会社 Information processing apparatus, information processing method, and information processing program
JP2015216635A (en) * 2014-05-09 2015-12-03 三菱電機株式会社 Method and system for tracking object in environment
JP2017172828A (en) * 2016-03-22 2017-09-28 日立ジョンソンコントロールズ空調株式会社 Air conditioner
JP2018059672A (en) * 2016-10-05 2018-04-12 日立ジョンソンコントロールズ空調株式会社 Air conditioner
JP2018087697A (en) * 2018-03-09 2018-06-07 アズビル株式会社 Air conditioning control device and method
JP2018087696A (en) * 2018-03-09 2018-06-07 アズビル株式会社 Air conditioning control device and method
CN108266860A (en) * 2018-01-15 2018-07-10 珠海格力电器股份有限公司 Air conditioning control method, device and air-conditioning
CN108800443A (en) * 2018-05-03 2018-11-13 广东美的制冷设备有限公司 The control method of air conditioner
CN111765611A (en) * 2020-07-06 2020-10-13 珠海格力电器股份有限公司 Multi-unit area temperature control method and device and air conditioning system
JP2020180846A (en) * 2019-04-24 2020-11-05 オムロン株式会社 Temperature monitoring device, area setting device, temperature monitoring method, and area setting method
JPWO2019221244A1 (en) * 2018-05-16 2021-05-27 パナソニックIpマネジメント株式会社 Object detection system, sensor system, air conditioning system, object detection method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727727B2 (en) * 2018-09-25 2023-08-15 Nec Corporation Information processing apparatus

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222359A (en) * 2004-02-06 2005-08-18 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2005301719A (en) * 2004-04-13 2005-10-27 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
JP2010054203A (en) * 2008-08-26 2010-03-11 Panasonic Electric Works Co Ltd Luminaire
JP2010159887A (en) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp Air conditioning device
JP2011190972A (en) * 2010-03-12 2011-09-29 Mitsubishi Electric Corp Air conditioning control system
JP2011241991A (en) * 2010-05-14 2011-12-01 Mitsubishi Electric Building Techno Service Co Ltd Air conditioner controller
JP2012042131A (en) * 2010-08-19 2012-03-01 Mitsubishi Electric Corp Air conditioner
CN102176067A (en) * 2010-12-29 2011-09-07 神华集团有限责任公司 Method for obtaining underground coal-fire change information
US9189685B2 (en) 2011-03-17 2015-11-17 Panasonic Intellectual Property Management Co., Ltd. Object detection device
JP2012194121A (en) * 2011-03-17 2012-10-11 Panasonic Corp Object detection device
WO2012123808A1 (en) * 2011-03-17 2012-09-20 パナソニック株式会社 Object detection device
JP5820074B2 (en) * 2012-07-18 2015-11-24 旭化成エレクトロニクス株式会社 Information processing apparatus, information processing method, and information processing program
JP2015052435A (en) * 2013-09-09 2015-03-19 日立アプライアンス株式会社 Air conditioner
WO2015037334A1 (en) * 2013-09-10 2015-03-19 日立アプライアンス株式会社 Air conditioner monitoring system
JPWO2015037334A1 (en) * 2013-09-10 2017-03-02 ジョンソンコントロールズ ヒタチ エア コンディショニング テクノロジー(ホンコン)リミテッド Air conditioner monitoring system
JP2014130001A (en) * 2014-02-10 2014-07-10 Mitsubishi Electric Corp Air conditioner
JP2015216635A (en) * 2014-05-09 2015-12-03 三菱電機株式会社 Method and system for tracking object in environment
JP2017172828A (en) * 2016-03-22 2017-09-28 日立ジョンソンコントロールズ空調株式会社 Air conditioner
WO2017163883A1 (en) * 2016-03-22 2017-09-28 日立ジョンソンコントロールズ空調株式会社 Air conditioner
CN108474583A (en) * 2016-03-22 2018-08-31 日立江森自控空调有限公司 Air conditioner
JP2018059672A (en) * 2016-10-05 2018-04-12 日立ジョンソンコントロールズ空調株式会社 Air conditioner
CN108266860A (en) * 2018-01-15 2018-07-10 珠海格力电器股份有限公司 Air conditioning control method, device and air-conditioning
JP2018087697A (en) * 2018-03-09 2018-06-07 アズビル株式会社 Air conditioning control device and method
JP2018087696A (en) * 2018-03-09 2018-06-07 アズビル株式会社 Air conditioning control device and method
CN108800443A (en) * 2018-05-03 2018-11-13 广东美的制冷设备有限公司 The control method of air conditioner
JPWO2019221244A1 (en) * 2018-05-16 2021-05-27 パナソニックIpマネジメント株式会社 Object detection system, sensor system, air conditioning system, object detection method and program
JP2020180846A (en) * 2019-04-24 2020-11-05 オムロン株式会社 Temperature monitoring device, area setting device, temperature monitoring method, and area setting method
CN111765611A (en) * 2020-07-06 2020-10-13 珠海格力电器股份有限公司 Multi-unit area temperature control method and device and air conditioning system

Also Published As

Publication number Publication date
JP3453870B2 (en) 2003-10-06

Similar Documents

Publication Publication Date Title
JP3453870B2 (en) Image processing device and applied equipment using the image processing device
US5555512A (en) Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus
Petersen et al. Establishing an image-based ground truth for validation of sensor data-based room occupancy detection
KR102021999B1 (en) Apparatus for alarming thermal heat detection results obtained by monitoring heat from human using thermal scanner
KR101127493B1 (en) Image processing apparatus, image processing method and air conditioning control apparatus
US10816945B2 (en) Human presence detection commissioning techniques
Benezeth et al. Towards a sensor for detecting human presence and characterizing activity
US9715627B2 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
KR101203607B1 (en) Air conditioning control system and air conditioning control method
JP5238679B2 (en) Air conditioning control device, air conditioning control method, and radiation temperature measuring device
EP2971987B1 (en) Energy saving heating, ventilation, air conditioning control system
JPH06117836A (en) Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus
KR101070389B1 (en) System for monitoring patient condition
JPH08178390A (en) Human body activity value calculator and human body activity value/wearing value calculator and air conditioning equipment therewith and human body abnormality communicator
US20080100438A1 (en) Multi-Zone Passageway Monitoring System and Method
US11666247B2 (en) Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up
US10205891B2 (en) Method and system for detecting occupancy in a space
KR101512658B1 (en) A device and method for detecting for fire flame using stereo camera and fuzzy logic
KR101727471B1 (en) Smart counter for human body using
JPH05149791A (en) Room information detecting device
JPH11219437A (en) Number of people counting system
CN115346234A (en) Video surveillance system with cluster size estimation
Maaspuro A low-resolution IR-array as a doorway occupancy counter in a smart building
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system
JP4607394B2 (en) Person detection system and person detection program

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080725

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees