JPH06117836A - Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus - Google Patents

Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus

Info

Publication number
JPH06117836A
JPH06117836A JP5204998A JP20499893A JPH06117836A JP H06117836 A JPH06117836 A JP H06117836A JP 5204998 A JP5204998 A JP 5204998A JP 20499893 A JP20499893 A JP 20499893A JP H06117836 A JPH06117836 A JP H06117836A
Authority
JP
Japan
Prior art keywords
unit
human
image
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5204998A
Other languages
Japanese (ja)
Other versions
JP2978374B2 (en
Inventor
Takayuki Imai
隆行 今井
Kison Naka
基孫 中
Takehiko Shida
武彦 志田
Masaaki Sato
正章 佐藤
邦夫 ▲吉▼田
Kunio Yoshida
Ikuo Akamine
育雄 赤嶺
Makoto Shimizu
真 清水
Yoshiaki Uchida
好昭 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5204998A priority Critical patent/JP2978374B2/en
Publication of JPH06117836A publication Critical patent/JPH06117836A/en
Priority to US08/273,168 priority patent/US5555512A/en
Application granted granted Critical
Publication of JP2978374B2 publication Critical patent/JP2978374B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Air Conditioning Control Device (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To detect personal information and detailed environmental information in a detecting area by providing a sensor section having an infrared image inputting means and image processing section which processes a thermal image having the detected temperature of the sensor section as an image element value. CONSTITUTION:A two-dimensional infrared sensor 11 inputs the heat distribution on the outside (in a room) 4 to an image processing section 2 as a thermal picture 6. A human area detecting section 13 segments a human body part from the image data based on the segmenting temperature of the human body part, calculates a human image element block and its representative points, and detects a feature amount for detecting the position of a person or discriminating the posture of the person from the calculated block and representative points and the surrounding environment of the representative points. An image information detecting section 3 inputs each feature amount 7 and detects the position, posture, etc., of the person. The detection is performed by using a posture detecting means 18 and foot position detecting means 17 respectively constituted of different neural networks. The means 17 selects the output from a neural network for presuming the foot position of the person at every posture based on the output of the means 18 in accordance with the kind of posture (standing, sitting, etc.) of the person.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明の画像処理装置は、主に赤
外線センサから得られる熱画像から人や環境の情報を検
出する画像処理装置に関するものであり、空調関連機
器、監視システム、住宅関連機器、インテリジェントビ
ルデイングシステム(IBS)等の多数の産業分野に利
用できる。また本発明の空気調和機の制御装置は、主に
赤外線センサから得られる人や環境の情報を制御指標と
する空気調和機に利用できる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The image processing apparatus of the present invention mainly relates to an image processing apparatus for detecting information on a person or environment from a thermal image obtained from an infrared sensor. It can be used in many industrial fields such as equipment and intelligent building systems (IBS). Further, the control device for an air conditioner of the present invention can be used for an air conditioner that uses information on a person or environment obtained mainly from an infrared sensor as a control index.

【0002】[0002]

【従来の技術】本発明が解決しようとする第1の分野
は、赤外線センサの熱画像を用いて、そこから得られる
人間を情報を用いる機器制御に関するものである。従来
より赤外線センサを用いて人の位置検出を行い空調制御
を行うものがあった。例えば、特開平2−143047
号公報記載の構成が知られている。以下に簡単にその構
成を説明する。室内を複数の領域に分けて、それら各領
域毎の赤外線を検知する赤外線センサを設け、各領域の
人の検出と、床面に対応する領域の温度を検出する。そ
して、これら人が検出された位置と、人付近の床面の温
度、および室温の関係から、通常時は室温を設定温度に
達するような設定温度制御を行い、風向は人の位置検出
結果に基づき変更する。また、室温が設定温度範囲に入
る場合で、かつ床面温度と室温の差が大きい場合は、床
方向の吹き出しを行い床面を暖める。このことにより、
人の位置する領域に対応する制御と、温度は設定温度に
達しているが、人の足元付近の冷え込みがある場合の不
快感を減らす制御が行われる。
BACKGROUND OF THE INVENTION A first field to be solved by the present invention relates to equipment control using a thermal image of an infrared sensor and human information obtained from the infrared image. Conventionally, there has been a device that detects the position of a person and controls the air conditioning by using an infrared sensor. For example, Japanese Patent Laid-Open No. 2-143047
The configuration described in Japanese Patent Publication is known. The configuration will be briefly described below. The room is divided into a plurality of areas, and an infrared sensor for detecting infrared rays in each area is provided to detect a person in each area and the temperature of the area corresponding to the floor surface. Then, based on the relationship between the detected position of the person, the temperature of the floor near the person, and the room temperature, the set temperature is controlled so that the room temperature reaches the set temperature in the normal time, and the wind direction is the result of detecting the position of the person. Change based on If the room temperature is within the set temperature range and the difference between the floor surface temperature and the room temperature is large, the floor surface is blown to warm the floor surface. By this,
The control corresponding to the area where the person is located and the control for reducing the discomfort when the temperature reaches the set temperature but there is cold around the person's feet are performed.

【0003】また、空気調和機以外でも監視システムな
どで人間に関する正確な情報が要求されているが、人間
に関する情報を検出する方法は、可視監視カメラを設置
し人がモニタリングするか、ビデオなどに記録すること
が一般的である。また、画像処理を用いた監視システム
も存在するが、照度や色などの問題で検出困難な場合も
多い。さらに、赤外線カメラを用いる監視システムも存
在するが、解像度の高い熱画像を得るには検出素子数を
多く必要とするか、冷却装置を必要とするものが一般的
で、複雑な処理と高いコストが要求される。
In addition to the air conditioners, accurate information about human beings is required in surveillance systems and the like. A method of detecting information about human beings is to install a visible surveillance camera for human monitoring or to use video. It is common to record. Although there are monitoring systems that use image processing, detection is often difficult due to problems such as illuminance and color. In addition, there are also surveillance systems that use infrared cameras, but they generally require a large number of detection elements or a cooling device to obtain a high-resolution thermal image, which requires complicated processing and high cost. Is required.

【0004】本発明が解決しようとする第2の分野は空
調の制御指標に関するものである。空調の制御指標に関
しては、近年、温度指標のみではなく、温度以外の快適
感に関連する要素も考慮したPMV(ISO 7730
−1984)などの快適度を制御指標とする空調制御に
関するものがある。例えば、特開平4−84055号公
報の実施例記載の構成が知られている。以下にその構成
を説明する。空気温度、輻射温度、湿度、気流を周囲環
境側要素として測定し、また人間の運動量、着衣量を人
間側要素として推定し、前記人間側要素と環境側要素に
基づいて制御を行うか、これらの要素から快適指標であ
るPMVを計算し、計算したPMVに基づき制御を行
う。この場合、入力要素の導出方法は、各周囲環境側要
素を全て、各々の要素を計測するセンサにより計測する
ことは、製品化を行う上で、コストアップにつながり、
また計測方式の点で計測困難な要素が多いで、容易に計
測可能な情報からニューラルネットワークを用いてPM
Vを推測する。つまりPMV計測のために輻射センサや
気流センサを用いることは製品としてのコストアップに
つながると共に、室内にセンサを配置することは実際、
困難である。また、これらの複数の要素の検出や推定が
行えたとしてもPMVを算出するためには複雑な計算が
必要となる。これらの点を改善するために、計測が比較
的容易な外気温、室温、室温の時間変化、風量、設定温
度、人の位置の6要素を入力とし、そのときのPMVを
教師データとしてあらかじめニューラルネットワークに
学習させることで、前記6種類の入力に対するPMVの
出力を行うニューラルネットワークを構成し、このニュ
ーラルネットワークを用いPMVの推測を行い、推測し
たPMVを空調の制御指標として用いるものである。こ
の場合、学習に用いる教師データは、場合の数が多いた
めに、活動量や着衣量は複数の組み合わせの固定値を用
いたものである。
A second field to be solved by the present invention relates to an air-conditioning control index. Regarding the air-conditioning control index, in recent years, PMV (ISO 7730) that considers not only the temperature index but also factors related to comfort other than temperature has been considered.
-1984) and the like relating to air conditioning control using the degree of comfort as a control index. For example, the configuration described in the embodiment of Japanese Patent Laid-Open No. 4-84055 is known. The configuration will be described below. Air temperature, radiant temperature, humidity, and airflow are measured as ambient environment side elements, and human momentum and clothing amount are estimated as human side elements, and control is performed based on the human side elements and environment side elements. The PMV, which is a comfort index, is calculated from the above elements, and control is performed based on the calculated PMV. In this case, the method of deriving the input elements is to measure all the elements on the ambient environment side with a sensor that measures each element, which leads to an increase in cost in commercialization,
In addition, since there are many factors that are difficult to measure in terms of measurement method, PM can be measured using a neural network from easily measurable information.
Guess V. In other words, using a radiation sensor or an airflow sensor for PMV measurement leads to an increase in the cost of the product, and actually arranging the sensor indoors
Have difficulty. Further, even if these plural elements can be detected or estimated, complicated calculation is required to calculate PMV. In order to improve these points, six elements of outside temperature, room temperature, temporal change of room temperature, air volume, set temperature, and person's position, which are relatively easy to measure, are input, and the PMV at that time is used as teacher data in advance. A neural network that outputs PMVs to the six types of inputs is configured by learning the network, PMVs are estimated using this neural network, and the estimated PMVs are used as an air-conditioning control index. In this case, since the teacher data used for learning has many cases, the activity amount and the clothing amount use fixed values of a plurality of combinations.

【0005】本発明が解決しようとする第3の分野は、
不在時の空調に関するものである。従来より、人検知セ
ンサを設けるか、もしくは空調機操作手段の中に不在ボ
タンを設け、人が不在である空調機が判断したとき、室
温を所定の温度レベルは最低限維持するような制御を行
うものがあった。このことにより不在時の建物躯体の暖
房時の冷えすぎや冷房時の温まりすぎを抑え、入室時の
不快時間の削減につながった。また、不在時や就寝中の
自然室温または最低温度レベルから、設定温度に到るま
でには不快な時間が続くため、入室時刻または起床時刻
には設定温度になるようなタイマーを用いるものもあっ
た。
A third area to be solved by the present invention is:
It is related to air conditioning when not at home. Conventionally, a person detection sensor is provided, or an absent button is provided in the air conditioner operation means, and when an air conditioner in which a person is absent is judged, control is performed to keep the room temperature at a predetermined temperature level to a minimum. There was something to do. As a result, it was possible to prevent the building frame from being overheated when it was absent and from overheating when it was being cooled, which led to a reduction in discomfort when entering the room. In addition, since there is an uncomfortable time until the set temperature is reached from the natural room temperature or the minimum temperature level when the user is absent or sleeping, some timers use the set temperature when entering the room or when waking up. It was

【0006】[0006]

【発明が解決しようとする課題】しかし、従来の技術で
示した赤外線の熱画像を用いた空気調和機の制御装置
は、人の居る方向の検出には有効であるが、室内の個々
人の快適度を正確に算出するための個々人の位置、個々
人の姿勢判断等に関する正確な情報を検出することは困
難であった。
However, the control device of the air conditioner using the infrared thermal image shown in the prior art is effective for detecting the direction in which a person is present, but the comfort of each individual person in the room is reduced. It has been difficult to detect accurate information regarding the position of each individual, the posture determination of each individual, and the like in order to accurately calculate the degree.

【0007】更に、計測範囲があらかじめ固定された場
面のみであるので、想定された室内と形態が異なる室内
の場合は、壁を床と誤認識したりするので正確な床面温
度が検出されないなどの課題があった。
Further, since the measurement range is only fixed in advance, if the interior of the room has a different form from the expected room, the wall may be erroneously recognized as the floor, and the accurate floor temperature cannot be detected. There was a problem.

【0008】つまり、これらの課題は大きく分けて次の
2点の問題となる。 (1)画像の解像度が低い (2)個人や室内環境情報が正確に検出できない (1)は画像の読み取りセンサの分解能に起因する問題
である。画像の解像度が低いと個人や室内環境情報を正
確に検出することが難しい。そこで、本発明では、画像
は室内の一人の人間が複数個以上の画素のかたまりとし
て検出される程度の解像度が望ましい。
That is, these problems are roughly divided into the following two problems. (1) Image resolution is low (2) Individual or indoor environment information cannot be accurately detected (1) is a problem caused by the resolution of the image reading sensor. If the image resolution is low, it is difficult to accurately detect personal and indoor environment information. Therefore, in the present invention, it is desirable that the image has such a resolution that one person in the room can detect it as a group of a plurality of pixels.

【0009】次に、(2)については(1)が問題とな
らない解像度の高い画像においても、個人情報を精度良
く検出し、これらの情報に基づく制御機器を行っていな
いために、生じる問題点である。本発明では、(2)に
関して従来手法の大きな課題として提起したい。
Next, with respect to (2), even in a high-resolution image in which (1) does not pose a problem, personal information is accurately detected, and a control device based on this information is not used, which causes a problem. Is. In the present invention, (2) will be raised as a major problem of the conventional method.

【0010】従来の技術の第2の分野に示した空気調和
機の制御装置に関しては、ニューラルネットを用いて快
適度を推測する方式では、室内全体の平均的な快適度を
推測するもので、個人の快適度を考慮した制御指標では
なかった。快適度算出のための入力要素としては、気流
や輻射など検出するための方法が、各々の要素を計測す
るセンサを配置することも考えられるが、実際の家庭で
複数のセンサを室内に配置することは困難である。ま
た、リモコンなどにこれら周囲環境側要素を計測するセ
ンサを設置することも考えられるが、その場合室内の一
点の環境要素の計測でしかない。また、人間側要素に関
してもすでにいくつかの製品に用いられているように赤
外線センサの出力のピーク値の検出回数から人間側要素
である運動量を推測することも、部屋全体の活動度合い
は検出可能であるが、例えば5人の在室者が室内におり
4人が静止しており、1人が室内を動き廻っている状況
でも活動度合いが高いと推測されるので従来方法では、
個人毎の活動量検出の精度の点で課題がある。また、着
衣量を日射やカレンダ、外気温などから推測する方法も
考えられるが、実際に人体を計測しているものではない
ので、実際に在室している人間の着衣量とかけ離れてい
る場合もあり、やはり精度の点で課題があった。
With respect to the control device for an air conditioner shown in the second field of the prior art, the method of estimating the comfort level using a neural network is to estimate the average comfort level of the entire room. It was not a control index considering the individual comfort level. As an input element for comfort level calculation, a method for detecting airflow, radiation, etc. may be arranged with a sensor that measures each element, but multiple sensors are arranged indoors in an actual home. Is difficult. Further, it is conceivable to install a sensor for measuring these ambient environment side elements on a remote control or the like, but in that case, measurement of only one environmental element in the room is possible. As for human-side elements, as already used in some products, it is also possible to detect the amount of activity that is the human-side element from the number of times the peak value of the output of the infrared sensor is detected. However, for example, it is estimated that the activity is high even in a situation where 5 people are in the room, 4 are stationary, and 1 person is moving around the room.
There is a problem in the accuracy of detecting the amount of activity for each individual. It is also possible to estimate the amount of clothing from solar radiation, calendar, outside temperature, etc., but since it is not actually measuring the human body, when it is far from the amount of clothing of the person actually staying in the room There was also a problem in terms of accuracy.

【0011】従来の技術の第3の分野に示した空気調和
機の制御装置に関しては、不在時に一定の最低限の温度
を保つ制御がされてきたが、それでも入室時もしくは起
床時に設定温度になるまで時間がかかり、その間不快で
あるという問題があった。また、維持する最低温度レベ
ルについても、暖房の場合、高すぎると電気代が不経済
であり、低すぎると設定温度になるまでかなりの時間を
要する問題があった。一方、タイマーについては、時刻
入力形式によるタイマセットおよびタイマリセットの際
の手間の問題があり、時刻設定の変更が少なく、効果の
大きな起床時以外はあまり利用されていないという問題
があった。
The air conditioner control device shown in the third field of the prior art has been controlled to maintain a certain minimum temperature when it is absent, but it still reaches the set temperature when entering or waking up. There was a problem that it took time until it was uncomfortable. Also, regarding the minimum temperature level to be maintained, in the case of heating, there is a problem that if it is too high, the electricity bill is uneconomical, and if it is too low, it takes a considerable time to reach the set temperature. On the other hand, with respect to the timer, there is a problem of time setting and resetting of the timer by the time input format, there are few changes in the time setting, and there is a problem that the timer is not used much except when the user is awakened.

【0012】本発明は、以上のような人体位置検出の精
度、および快適度算出のための入力要素の検出精度、お
よびタイマーセットに関するの利便性の悪さの問題に鑑
み、第1の目的は、赤外線熱画像を用いて検出エリア内
の人間の個人の情報および詳細な環境情報を検出するこ
と、第2の目的は、検出エリア内の人間の情報および室
内の詳細な環境情報を基に、空気調和機のきめ細かな制
御指標を定めること、第3の目的はタイマー操作をなく
することである。
In view of the above-mentioned accuracy of human body position detection, input element detection accuracy for comfort level calculation, and inconvenience of a timer set, the first object of the present invention is to: Detecting human personal information and detailed environmental information in the detection area using an infrared thermal image, and a second purpose is to detect air information based on the human information in the detection area and the detailed environmental information in the room. The third purpose is to determine the fine control index of the harmony machine, and to eliminate the timer operation.

【0013】[0013]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の技術的解決手段は、画像処理装置に関して
は、少なくとも検出エリア内の人間および環境の温度を
計測する赤外線画像(以降、熱画像と呼ぶ)入力手段を
持つセンサ部と、前記センサ部からの出力である検出温
度を画素値とする熱画像を処理し、次段の画像情報検出
部で用いる画像の特徴量を抽出する画像処理部と、ニュ
ーラルネットもしくはパターン認識機構を構成要素に有
し、前記画像処理部からの信号を基に、センサ部からの
出力信号より同等もしくは詳細な人間の個人情報信号も
しくは環境情報信号を、前記ニューラルネットもしくは
パターン認識機構により推測し、出力する画像情報検出
部を有している。
In order to achieve the above-mentioned object, the technical solution of the present invention relates to an image processing apparatus, an infrared image (hereinafter, referred to as an infrared image) for measuring the temperature of at least human and environment in a detection area. Called a thermal image) A sensor unit having input means, and a thermal image having a pixel value of the detected temperature output from the sensor unit is processed to extract the feature amount of the image used in the image information detection unit in the next stage. An image processing unit and a neural network or a pattern recognition mechanism are included in the constituent elements, and based on the signal from the image processing unit, a human personal information signal or an environmental information signal equivalent to or more detailed than the output signal from the sensor unit. It has an image information detection unit for estimating and outputting by the neural network or the pattern recognition mechanism.

【0014】また上記画像処理部に、人間領域検出部で
得られた人間画素ブロックの画素レベルでの補完および
消去を行う人間領域補正部と、人間領域検出部で得られ
た人間画素ブロックの代表点を所定の期間累積する累積
処理部と、累積処理部から得られる人間画素ブロックの
代表点の所定期間の累積から少なくとも床と壁、または
壁と壁の境界である室内代表点を判別し、熱画像上の各
画素と室内の床および壁の対応を関連付ける室内部位判
定部を付加した構成にすることも可能である。。
Further, the image processing unit includes a human region correction unit for complementing and erasing the human pixel block obtained by the human region detection unit at a pixel level, and a representative of the human pixel blocks obtained by the human region detection unit. A cumulative processing unit that accumulates points for a predetermined period, and at least a floor and a wall, or an indoor representative point that is a boundary between the walls, is determined from the cumulative period of the representative points of the human pixel block obtained from the cumulative processing unit, It is also possible to add an indoor part determination unit that associates each pixel on the thermal image with the floor and wall of the room. .

【0015】さらに上記構成以外に赤外線画像から検出
できない検出エリアにおける環境情報を入力するコンソ
ール部と、人が直接監視するための可視画像を検出する
ための可視画像検出部(カメラ)を装備し、熱画像処理
の結果を有効に働かせるシステムとなっている。
Further, in addition to the above-mentioned structure, a console section for inputting environmental information in a detection area that cannot be detected from an infrared image and a visible image detecting section (camera) for detecting a visible image for direct monitoring by a person are equipped. It is a system that makes effective use of the results of thermal image processing.

【0016】また、第2の目的を達成するために、空気
調和機の制御装置に関しては、上記画像処理装置を構成
要素に有し、さらに温度や湿度などを検出するセンサ部
と、前記画像処理装置から得られる個人情報信号と、環
境情報信号から空調を行うための制御指標を決める制御
指標決定部と、空調機器の制御を行う空調制御部を有し
ている。上記制御指標決定部は、前記画像処理装置の個
人情報抽出部の出力である個人情報から個人別または室
内を代表する活動量を検出する活動量検出部と、前記個
人情報と、前記環境情報抽出部から得られる環境情報
と、空気調和機から得られる風向・風量情報と、前記活
動量検出部から得られる活動量から、個人別または代表
となる快適度を検出する快適度検出部を有しており、前
記快適度から空調制御部の制御目標値を出力する。
Further, in order to achieve the second object, in regard to the control device of the air conditioner, the above-mentioned image processing device is included in the constituent elements, and further, a sensor section for detecting temperature, humidity and the like, and the above-mentioned image processing. It has a control index determination unit that determines a control index for performing air conditioning from a personal information signal obtained from the device and an environmental information signal, and an air conditioning control unit that controls the air conditioning equipment. The control index determination unit is an activity amount detection unit that detects an activity amount representing an individual or a room from the personal information output from the personal information extraction unit of the image processing device, the personal information, and the environmental information extraction. It has a comfort level detection unit that detects individual or representative comfort level from the environmental information obtained from the air conditioner, the wind direction / air volume information obtained from the air conditioner, and the activity amount obtained from the activity amount detection unit. Therefore, the control target value of the air conditioning control unit is output from the comfort level.

【0017】また上記制御指標決定部にさらに、活動量
検出部から得られる活動量と、時刻と、環境情報抽出部
の出力である環境情報から生活シーンを推定する生活シ
ーン推定部を付加し、快適度が制御指標とならない過渡
的生活シーンと、在室者が所定の期間部屋に在室してお
り快適度が制御指標として用いることができる安定的生
活シーンを推定し、生活シーンに応じて快適度とシーン
毎に、あらかじめ定められた所定の制御指標の選択を行
う。
Further, a life scene estimating unit for estimating a life scene from the activity amount obtained from the activity amount detecting unit, the time, and the environmental information output from the environmental information extracting unit is added to the control index determining unit. Estimate transitional life scenes in which comfort level does not serve as a control index and stable life scenes in which the occupant stays in the room for a specified period of time and comfort level can be used as a control index. A predetermined predetermined control index is selected for each comfort level and each scene.

【0018】また、第3の目的を達成するために、在室
データ記憶手段と、在室パターン分類手段と、不在時間
の最低維持温度レベルであるベース温度を前記在室パタ
ーン分類手段から得られる部屋の使用状況に応じて定め
るベース温度変換手段の構成からなる不在時制御指標決
定部およびカレンダを有している。
Further, in order to achieve the third object, the occupancy data storage means, the occupancy pattern classification means, and the base temperature which is the minimum maintenance temperature level during the absence time are obtained from the occupancy pattern classification means. It has an absent control index determination unit and a calendar that are configured of a base temperature conversion unit that is determined according to the usage status of the room.

【0019】[0019]

【作用】本発明の画像処理装置は、この構成によって、
最初にセンサ部の赤外線画像入力手段により、熱画像と
して入力される。入力された画像データは人間領域検出
部において人体部分の切り出し温度を基に人体部分の切
り出しと、これら人間画素ブロックとその代表点の算出
を行う。次に、例えば本画像処理装置で検出する信号の
一つである人間の位置と姿勢の検出方法について言え
ば、この人間画素ブロックとその代表点および代表点の
周囲環境から画像処理部で、人の位置検出用の特徴量や
姿勢判定用の特徴量を検出する。次に、画像情報検出部
で前記の各特徴量を入力として、人の位置や姿勢の検出
を行う。人の位置と姿勢の検出は各々別のニューラルネ
ットワークで構成された姿勢検出手段と足元位置検出手
段により行われる。また、足元位置検出手段では、姿勢
の種類により、例えば立位用と座位用と言うように判別
する姿勢の数に合わせて分けて判別を行い、姿勢毎の足
元位置を推測するニューラルネットからの出力を、姿勢
検出手段からの出力によって選択、選別している。この
ような処理を行うことで、より正確な位置検出が可能と
なる。
The image processing apparatus of the present invention has the following structure.
First, the infrared image input means of the sensor unit inputs a thermal image. The input image data is cut out by the human region detection unit based on the cutout temperature of the human body part, and these human pixel blocks and their representative points are calculated. Next, for example, regarding a method of detecting the position and orientation of a human being, which is one of the signals detected by the image processing apparatus, the human pixel block and its representative point The feature amount for position detection and the feature amount for posture determination are detected. Next, the image information detection unit detects the position and posture of a person by inputting each of the feature amounts described above. The position and the posture of the person are detected by the posture detecting unit and the foot position detecting unit which are configured by different neural networks. Further, the foot position detecting means makes a distinction according to the types of postures, for example, according to the number of postures to be discriminated such as standing posture and sitting posture, and from the neural network that estimates the foot position for each posture. The output is selected and selected according to the output from the attitude detecting means. By performing such processing, more accurate position detection becomes possible.

【0020】また、実際の家庭では、検出対象となる人
体とセンサの間に家具などの障害物がある場合が考えら
れ、その場合、人体が分離され複数の在室者が居ると誤
られるので、人間領域補正部によって、人間画素ブロッ
クとして切り出された画素の周囲を検索し、画素の補完
を行ったり、ノイズと考えられる画素の消去を行う。さ
らに、テレビなどの静止発熱物体の除去を行うために累
積処理部において、切り出された人間画素ブロックの代
表点を所定期間累積し、特定画素だけがあらかじめ設定
した頻度しきい値を越える場合、静止発熱物体があるも
のとし、その熱画像上の位置を記憶し、以降人間領域検
出の際に人間画素ブロックの代表点が静止発熱物体の位
置と一致する場合は、当該人間画素ブロックを人体とし
て扱わない処理を行う。このことにより人体の精度の高
い検出が可能となる。また、累積処理部では前記静止発
熱物体の検出に用いた累積期間より長い期間、人間画素
ブロックの代表点を累積し、空気調和機の設置してある
壁面を除く3方の壁面と床面の境界を特定する代表点を
検出し、室内部位判定部では、その代表点を基に床面お
よび3方向の壁面と熱画像の対応を関連付ける。このこ
とにより環境情報抽出部では広さの異なる部屋でも、床
および3方向の壁の各部位温度が検出されることにな
り、さらに人の足元位置情報を用いることによって個人
毎の精度の良い輻射温度が検出可能となる。
In an actual home, there may be an obstacle such as furniture between the human body to be detected and the sensor. In that case, it is erroneous that the human body is separated and a plurality of people are present in the room. The human area correction unit searches around the pixels cut out as a human pixel block, complements the pixels, and erases pixels considered to be noise. Furthermore, in order to remove stationary heat-generating objects such as a television, the accumulating unit accumulates the representative points of the cut out human pixel blocks for a predetermined period, and when only certain pixels exceed a preset frequency threshold, the It is assumed that there is a heat-generating object, the position on the thermal image is stored, and if the representative point of the human pixel block coincides with the position of the stationary heat-generating object in subsequent detection of the human area, the human pixel block is treated as the human body. Do no processing. This enables highly accurate detection of the human body. Further, the accumulating unit accumulates the representative points of the human pixel block for a period longer than the accumulation period used for detecting the stationary heat-generating object, and the three points of the wall surface and the floor surface excluding the wall surface where the air conditioner is installed The representative point that specifies the boundary is detected, and the indoor part determination unit associates the correspondence between the floor surface and the wall surfaces in the three directions and the thermal image based on the representative point. This allows the environment information extraction unit to detect the temperature of each part of the floor and the wall in the three directions even in rooms of different sizes, and by using the foot position information of the person, radiation with high accuracy can be obtained for each individual. The temperature can be detected.

【0021】また、熱画像の入力手段の検出エリア内の
環境情報、例えば室内であればセンサに対する室内の大
きさや壁面の位置等の構造情報は熱画像から検出するこ
とは難しいために、使用者が直接コンソール部から入力
して正確な位置検出や姿勢の検出の補助情報として用い
ることができる。
Further, since it is difficult to detect environmental information in the detection area of the input means of the thermal image, for example, structural information such as the size of the room or the position of the wall surface relative to the sensor in the thermal image from the thermal image, the user Can be directly input from the console unit and used as auxiliary information for accurate position detection and posture detection.

【0022】次に、本発明の画像処理装置は、熱画像の
処理のみでなく可視画像入力装置(カメラ)を用いたシ
ステムにすることにより、熱画像より得られた人間に関
連情報を、可視画像上に伝達して、可視画像の人の位置
を使用者に提供したりできる。
Next, the image processing apparatus of the present invention is a system using not only thermal image processing but also a visible image input apparatus (camera) so that the human-related information obtained from the thermal image can be visualized. It can be communicated on the image to provide the user with the location of the person in the visible image.

【0023】また、逆の場合として可視画像から得られ
る人の情報、例えば動き情報を用いて熱画像上の人の位
置を検出することも可能であるとともに、熱画像や可視
画像の各処理を行っている画像情報検出部におけるニュ
ーラルネットワークの状態をお互いの情報を教師として
適応的な学習を行い、より性能のアップを図ることがで
きる。
In the opposite case, it is possible to detect the position of the person on the thermal image by using the information of the person obtained from the visible image, for example, the motion information, and the processing of the thermal image and the visible image can be performed. The performance of the neural network in the image information detection unit, which is being performed, can be adaptively learned by using mutual information as teachers.

【0024】さらに、本発明の熱画像処理と可視画像処
理を組み合わせた画像処理装置を複数用いて、その複数
の装置が設置されたエリア内の人間の情報をより正確に
検出することができる。これは、1つの画像処理装置で
は重なった人を正確に分離することが難しいが、複数台
の装置を用いることにより、この課題も解決できる。ま
た、広いエリアにおいて人の追尾が可能となる。
Furthermore, by using a plurality of image processing apparatuses in which the thermal image processing and the visible image processing according to the present invention are combined, it is possible to more accurately detect human information in the area where the plurality of apparatuses are installed. Although it is difficult for one image processing apparatus to accurately separate overlapping persons, this problem can be solved by using a plurality of apparatuses. In addition, people can be tracked in a large area.

【0025】次に、空気調和機の制御装置についてであ
るが、本発明は、この構成によって、最初に、上記画像
処理装置において検出エリア内の人間と環境の情報を検
出する。制御指標決定部では、例えば快適度を制御指標
に用いる場合、前記画像処理装置の個人情報抽出部で抽
出された個人情報と、同環境情報抽出部で算出された環
境情報を基に個人別の快適度を算出し、複数在室者が居
る場合は快適度が低い在室者を優先的に快適にするよう
な、風向、風量、快適度の制御指標を算出する。空調制
御部では制御指標決定部の指示に基づき、例えば、コン
プレッサー周波数の制御、垂直および水平フラップの制
御、室内機送風用ファンの制御を行う。
Next, regarding the control device of the air conditioner, according to the present invention, with this configuration, first, the image processing device detects human and environment information in the detection area. In the control index determination unit, for example, when the comfort level is used as the control index, the individual information based on the personal information extracted by the personal information extraction unit of the image processing device and the environmental information calculated by the environmental information extraction unit The comfort level is calculated, and when there are a plurality of occupants, a control index for the wind direction, the air volume, and the comfort level is calculated so that the occupants having a low comfort level are preferentially made comfortable. The air conditioning control unit controls the compressor frequency, controls the vertical and horizontal flaps, and controls the indoor unit blowing fan, for example, based on the instruction from the control index determination unit.

【0026】また、制御指標決定部では上に快適度を用
いる場合の例を示したが、生活シーン推定部を付加する
ことで、就寝、起床、入室、退室といった快適度が制御
指標とならない過渡的シーンと、人が入室後しばらく経
過した快適度が制御指標となる安定的シーンを判別し、
おのおののシーンに応じて過渡的シーンはあらかじめ定
められた制御指標を、安定的シーンは算出した快適度を
制御指標として用いる。また、シーン推定部のみを制御
指標とする場合は、過渡的シーンの推測に加え、安定的
シーンをさらに、人数と各個人の情報から算出した室内
を代表する活動量に応じて、だんらん、掃除、くつろぎ
などのシーンに分類し、各シーン毎にあらかじめ定めた
制御指標を用いる。
Although the control index determination unit has shown an example in which the comfort level is used above, by adding the life scene estimation unit, the comfort level such as sleeping, waking up, entering the room, leaving the room is not a control index. Distinctive scenes and stable scenes where the degree of comfort after a person enters the room is the control index,
Depending on the scene, the transition scene uses a predetermined control index, and the stable scene uses the calculated comfort level as a control index. In addition, when only the scene estimation unit is used as a control index, in addition to estimating transient scenes, stable scenes are further cleaned according to the number of people and the amount of activity representative of the room calculated from the individual information. , Scenes such as relaxation and the like, and a predetermined control index is used for each scene.

【0027】また、次にこの構成によって、最初に一定
時間間隔で、人数検出部により室内の在室者の有無を在
室者が居る場合を1、居ない場合を0とし検出する。こ
の0、1のデータは部屋への人の出入りで大きく変化す
るので、10分を1単位にし、例えば10分以上継続し
て0の場合のみ0とするなどの補正を行う。在室データ
記憶手段ではこれら補完した1日分の在室データを当日
より一定期間分だけ記憶する。在室パターン分類手段で
はカレンダーからの平日、休日、曜日といった日の属性
の情報を基に、当日と日の属性が同じ日の在室データを
集め、時刻別の在室率(在室パターンと呼ぶ)を求め
る。ベース温度変換手段では、この在室パターンを基本
としてベース温度の値を算出する。空調制御手段では、
人検知手段の出力により、人が在室中は設定温度を目標
値とし、不在時は現在時刻から時刻別のベース温度の値
を目標値し、人の入室が検知された場合は、設定温度に
目標値を切り替える。このことによって、人が入室する
前には室内環境がスタンバイされているので快適性に優
れ、不在が多い時間帯は低めのベース温度なので経済性
にも優れた空調が実現できる。
Further, with this configuration, first, at a fixed time interval, the presence / absence of the person in the room is detected by the number-of-people detection unit as 1 when the person is present and 0 when the person is not present. Since the data of 0 and 1 change greatly when a person goes in and out of the room, 10 minutes is set as a unit, and for example, correction is made to be 0 only when 0 is continued for 10 minutes or more. The occupancy data storage means stores the supplemented occupancy data for one day for a certain period from the current day. The occupancy pattern classification means collects occupancy data for the days with the same attributes of the current day and weekday based on the information of the attributes of the days such as weekdays, holidays, and days of the week from the calendar, and determines the occupancy rate by time (occupancy pattern and Call). The base temperature conversion means calculates the value of the base temperature based on this occupancy pattern. In the air conditioning control means,
With the output of the person detection means, the set temperature is set as the target value while the person is in the room, and the base temperature value at each time from the current time is set as the target value when the person is not present. Switch the target value to. As a result, since the indoor environment is on standby before a person enters the room, it is excellent in comfort, and since the base temperature is low during times when there is a lot of absence, it is possible to realize economical air conditioning.

【0028】[0028]

【実施例】以下、本発明の第1の実施例の画像処理装置
について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to the first embodiment of the present invention will be described below.

【0029】図1は本実施例画像処理装置の構成図であ
る。1はセンサ部で熱画像を計測する。2は画像処理部
で熱画像から人の領域や特徴量を検出する。3は画像情
報検出部で人の姿勢や足元位置などを熱画像から推定す
る。画像情報検出部3は複数のニューラルネットワーク
等により構成されている。
FIG. 1 is a block diagram of the image processing apparatus of this embodiment. A sensor unit 1 measures a thermal image. An image processing unit 2 detects a human region and a feature amount from the thermal image. An image information detection unit 3 estimates the posture and foot position of a person from the thermal image. The image information detection unit 3 is composed of a plurality of neural networks and the like.

【0030】図1の情報の基本的な流れを示す。外界4
は人間がいる領域で、センサ部1に含まれる2次元赤外
線センサ11で走査して、熱画像情報として検出可能な
エリアの温度を検出する。人の居住するエリアとしての
室内を示す場合もある。外界4の熱分布が2次元赤外線
センサ11により走査され、熱画像6として画像処理部
2に入力される。熱画像6には走査エリアの人を含めた
熱分布全てが画像となるために、画像処理部2で人の領
域の検出が行われる。この人の領域から後段の画像情報
検出部3に転送する人の領域の特徴量データを画像処理
部2で作成して、特徴量データ7として画像情報検出部
3に入力される。画像情報検出部3では、特徴量データ
7から姿勢判定や足元位置などの個人情報信号8を推定
する。
The basic flow of information in FIG. 1 is shown. Outside world 4
Is a region where a person is present, and is scanned by the two-dimensional infrared sensor 11 included in the sensor unit 1 to detect the temperature of an area detectable as thermal image information. It may also refer to a room as an area where people live. The heat distribution in the external environment 4 is scanned by the two-dimensional infrared sensor 11 and is input to the image processing unit 2 as a thermal image 6. Since the entire heat distribution including the person in the scanning area becomes an image in the thermal image 6, the image processing unit 2 detects the area of the person. The feature amount data of the person's region to be transferred from this person's region to the subsequent image information detecting unit 3 is created by the image processing unit 2, and is input to the image information detecting unit 3 as feature amount data 7. The image information detection unit 3 estimates a personal information signal 8 such as a posture determination and a foot position from the feature amount data 7.

【0031】以上のように構成された画像処理装置を組
み込んだ空気調和機についてその動作を説明する。最初
に、壁掛け式の空気調和機の本体に設置された、例えば
縦方向に複数素子が並列されている焦電型の1次元赤外
線センサを、一定時間のサンプリングタイミングで室内
を間口方向に走査するような仕組みで構成された2次元
赤外線センサ11を用いて室内の在室者を含めた2次元
の熱画像を得る。図2(a)は第1の実施例における計
測された熱画像の例である。4角形の部屋に3人の人間
が在室しており、各人が異なる姿勢をとっている状況で
ある。21は臥位の在室者の画像ブロック、22は立位
の在室者の画像ブロック、23は椅子座位の在室者の画
像ブロックである。24は床面の画像ブロック、25は
左壁面の画像ブロック、26は奥壁面の画像ブロック、
27は右壁面の画像ブロックである。図2(b)はこの
ときの室内の平面図である。28は臥位の在室者、29
は立位の在室者、30は椅子座位の在室者、31は床、
32は左壁、33は奥壁、34は右壁、35は本画像処
理装置を構成要素に持つ空気調和機、36は空気調和機
35に設置された赤外線2次元センサであり、37は赤
外線2次元センサ36の走査方向と検出範囲である。こ
のように、2次元赤外線センサ36を間口方向に走査す
ることによって、遠い人物は熱画像上、上部に検出さ
れ、近い人物は下部に検出される。また、床や壁につい
ても、空気調和機取付面の壁を除き、大部分が熱画像上
に検出される。
The operation of the air conditioner incorporating the image processing apparatus configured as described above will be described. First, for example, a pyroelectric one-dimensional infrared sensor, which is installed in the main body of a wall-mounted air conditioner and in which a plurality of elements are arranged in parallel in the vertical direction, scans the room in the frontal direction at a sampling timing for a fixed time. Using the two-dimensional infrared sensor 11 configured as described above, a two-dimensional thermal image of a person in the room is obtained. FIG. 2A is an example of the measured thermal image in the first embodiment. There are three people in a quadrangular room, and each person has a different posture. Reference numeral 21 is an image block of a person in a lying position, 22 is an image block of a person in a standing position, and 23 is an image block of a person in a chair sitting position. 24 is an image block on the floor surface, 25 is an image block on the left wall surface, 26 is an image block on the back wall surface,
Reference numeral 27 is an image block on the right wall surface. FIG. 2B is a plan view of the room at this time. 28 is a person in a lying position, 29
Is a standing person, 30 is a chair sitting person, 31 is a floor,
32 is a left wall, 33 is a back wall, 34 is a right wall, 35 is an air conditioner having the image processing device as a constituent element, 36 is an infrared two-dimensional sensor installed in the air conditioner 35, and 37 is an infrared ray. The scanning direction and the detection range of the two-dimensional sensor 36. In this way, by scanning the two-dimensional infrared sensor 36 in the front direction, a distant person is detected in the upper part of the thermal image, and a near person is detected in the lower part. Also, most of the floors and walls are detected on the thermal image except for the wall of the air conditioner mounting surface.

【0032】次に、詳細な図1の説明をする。最初に画
像処理部2の説明をする。2次元赤外線センサ11で検
出した熱画像は、以降の処理を行うために画像記憶部1
2に一度記憶する。次に、人間領域検出部13では図3
に示す構成で、人間の領域の検出を行う。従来は、熱画
像データから人間の領域を検出する場合、室内に人間以
外の発熱がなく、人間以外の室内温度が25℃以下であ
るとすればとすれば、26℃から34℃の温度の画素を
検出することにより人体の領域を検出していた。しか
し、以上のような構成では2次元の熱画像から人間の切
り出しが正確に行えない場合があった。例えば、室内の
温度分布が床や各壁面によって温度が違う場合がある。
また、人の切り出しを温度範囲を用いずに、人の境界線
より人間を検出する方法もあるが、良好なエッジの検出
ができないと正確な検出は困難である。
Next, a detailed description of FIG. 1 will be given. First, the image processing unit 2 will be described. The thermal image detected by the two-dimensional infrared sensor 11 is used by the image storage unit 1 for the subsequent processing.
Remember once in 2. Next, in the human area detection unit 13, FIG.
With the configuration shown in (1), a human area is detected. Conventionally, when detecting a human region from thermal image data, assuming that there is no heat generation other than human beings in the room and the indoor temperature of the non-human beings is 25 ° C. or lower, the temperature range of 26 ° C. to 34 ° C. The area of the human body is detected by detecting pixels. However, with the above-described configuration, it may not be possible to accurately cut out a human from a two-dimensional thermal image. For example, the temperature distribution in the room may vary depending on the floor and each wall surface.
There is also a method of detecting a person from the boundary line of the person without using a temperature range for cutting out the person, but accurate detection is difficult if a good edge cannot be detected.

【0033】そこで、本実施例では画像記憶部12に記
憶された熱画像をM(Mは正の整数)分割して、領域分
けを行い(以降、各領域をブロックと呼ぶ)、熱画像の
各ブロック毎に人間の切り出し温度範囲を決定して人間
の位置を算出するようにし、室内の温度分布に連動し
て、人間の切り出し温度を算出することにより、人間の
検出が容易に算出できるようにした。
Therefore, in this embodiment, the thermal image stored in the image storage unit 12 is divided into M (M is a positive integer) to divide into regions (hereinafter, each region will be referred to as a block), and the thermal image The human cutout temperature range is determined for each block to calculate the human position, and the human cutout temperature is calculated in conjunction with the temperature distribution in the room so that human detection can be easily calculated. I chose

【0034】また、熱画像のもつ特徴である人間や生物
の発熱物体を容易に捕らえる処理を有効に利用できる。
また、人間を発熱物体として捉える場合は、人間の領域
が周囲温度に対して、周囲温度が低い場合は凸になり、
周囲温度が低い場合は凹になる。そこで、熱画像の隣接
する画素をG(n)、G(n+1)をすると D(n) = (G(n)ーG(n-1))/2 のように差分をとり、その差D(n)の絶対値(ABS(D
(n))が ABS(D(n)) > TH 適切なしきい値THよりも多きい場合を人のエリアの境界
として検出して、その境界の内外の温度を基準にして人
の領域を切り出す方法もある。また、熱画像全体に雑音
が多い場合は、熱画像内の大きな凹凸を捉える方法とし
て、画像処理で良く知られた移動平均法の一つとして多
項式平滑化法を用いて雑音を除去しながら熱画素内の人
間にあたる凹凸を見つけて、その凹凸の部分の温度を基
準に領域を切り出す方法もである。この方法は、”科学
計測のための波形データ処理”CQ出版(株)発行等に
掲載されている。
Further, it is possible to effectively use the processing that easily catches a heat-generating object such as a human being or a living thing, which is a feature of the thermal image.
Also, when considering a human as a heat-generating object, the area of the human becomes convex when the ambient temperature is lower than the ambient temperature,
It becomes concave when the ambient temperature is low. Therefore, if the adjacent pixels of the thermal image are G (n) and G (n + 1), the difference is calculated as D (n) = (G (n) -G (n-1)) / 2, Absolute value of difference D (n) (ABS (D
(n)) ABS (D (n))> TH Detects when there is more than the appropriate threshold value TH as the boundary of the human area, and cuts out the human area based on the temperature inside and outside the boundary. There is also a method. When the entire thermal image contains a lot of noise, a polynomial smoothing method is used as one of the well-known moving average methods in image processing as a method for capturing large irregularities in the thermal image while removing noise. There is also a method of finding unevenness corresponding to a person in a pixel and cutting out a region based on the temperature of the uneven part. This method is published in "Waveform data processing for scientific measurement" published by CQ Publishing Co., Ltd.

【0035】また、熱画像の各画素を中心に温度が近い
画素を連結して人の領域を行う方法として”画像解析ハ
ンドブック”東京大学出版会発行等で示している領域分
割法として単純領域拡張法や反復型領域拡張法を用い
て、熱画像面の熱分布の領域を切り出し、その領域のな
かで人の領域と判断できる大きさと温度分布を持つ領域
を人として検出方法もある。
Further, as a method of connecting a pixel of which the temperature is close to that of each pixel of a thermal image to perform a human area, a simple area expansion is used as an area dividing method shown in "Image Analysis Handbook" published by The University of Tokyo Press. There is also a method for detecting a region of the heat distribution on the thermal image plane by using the method or the iterative region expansion method and detecting a region having a size and temperature distribution that can be judged as a human region in the region.

【0036】人間領域検出部13の構成の一例につい
て、図3に基づいて説明する。図3において、40は熱
画像をM個のブロックに分割して、各々のブロックの平
均温度を算出する領域分割代表温度算出手段、41はブ
ロックの平均温度から人間の切り出し温度を決定する切
り出し温度決定手段、42は人間検出手段、43は人間
の領域の代表点を算出する代表点算出手段を示す。
An example of the configuration of the human area detecting section 13 will be described with reference to FIG. In FIG. 3, reference numeral 40 is a region-division representative temperature calculating means for dividing the thermal image into M blocks and calculating an average temperature of each block, and 41 is a cutout temperature for determining a human cutout temperature from the average temperature of the blocks. Determining means, 42 is a human detecting means, and 43 is a representative point calculating means for calculating a representative point of a human area.

【0037】画像記憶部12に記憶された熱画像は、領
域分割代表温度算出手段40で、熱画像をM個のブロッ
クに分割され、各々のブロックの平均温度が算出され
る。算出されたブロックの平均温度は、人間の切り出し
温度範囲を決定する切り出し温度決定手段41に渡され
て、各ブロック毎の切り出し温度範囲が決定される。こ
こで、M個の複数ブロックに分割する理由は、壁が部分
的に温まっていたり、人体の衣服が冷えている場合など
一律的な切り出し温度では人体部分の精度良い切り出し
が困難なことによる。それゆえ、M個に熱画像を分割す
ることにより、背景温度を考慮した切り出しが可能とな
る。次に、切り出し温度範囲と熱画像は、人間の領域を
検出する人間検出手段42に入力されて人間の領域を示
す人間画素ブロックが検出される。代表点算出手段43
では、人間画素ブロックを入力とし、そのブロックの代
表する代表点、例えば温度に重み付けられた重心点画素
とか、足元位置に対応する最下点画素などの代表点を検
出する。また、代表点として演算が少なくてすむように
床面に最も近い画素の座標や床面から最も遠い画素の座
標が用いられることもある。また、重心のY座標の位置
と床面に最も近いXの位置を代表点の位置とすることも
できる。この代表点が分かることにより人間がどの位置
にいるのか、何人居るのかの大まかな決定をすることが
できる。
The thermal image stored in the image storage unit 12 is divided into M blocks by the area division representative temperature calculating means 40, and the average temperature of each block is calculated. The calculated average temperature of the blocks is passed to the cut-out temperature determining means 41 that determines the cut-out temperature range of a human, and the cut-out temperature range of each block is determined. Here, the reason for dividing into a plurality of M blocks is that it is difficult to accurately cut out the human body portion at a uniform cutting temperature such as when the wall is partially warmed or clothes of the human body are cold. Therefore, by dividing the thermal image into M pieces, it is possible to cut out in consideration of the background temperature. Next, the cut-out temperature range and the thermal image are input to the human detection unit 42 for detecting the human region, and the human pixel block indicating the human region is detected. Representative point calculating means 43
Then, using a human pixel block as an input, a representative point representative of the block is detected, for example, a temperature-weighted center-of-gravity point pixel or a representative point such as a lowest point pixel corresponding to a foot position. In addition, the coordinates of the pixel closest to the floor surface or the coordinates of the pixel farthest from the floor surface may be used as the representative point so that the number of calculations is small. Further, the position of the Y coordinate of the center of gravity and the position of X closest to the floor surface can be set as the position of the representative point. By knowing this representative point, it is possible to roughly determine where humans are located and how many people there are.

【0038】図4は、本発明の熱画像データから8個の
ブロックに分割し、各ブロックの平均温度の算出した例
を示す。各ブロック毎に領域分割代表温度算出手段40
で、平均温度T1〜T8が算出される。例えば、ブロック
Nの平均温度TNの値が 20℃ < TN < 22℃ の場合は、ブロックNの人の切り出し温度範囲は、25
℃から34℃というように各ブロック毎に人の切り出し
温度が決定される。つまり人間の露出皮膚温度は、36
℃から37℃であるが、着衣や背景と人体部分が1つの
画素の中に含まれる場合は平均化されてしまい検出温度
は低くなるので、人の切り出し温度は画像の解像度によ
って変化することになる。本発明では、ブロック毎の平
均温度値とブロックの全画像内における位置により適正
な人間の切り出し温度範囲を決定している。
FIG. 4 shows an example in which the thermal image data of the present invention is divided into eight blocks and the average temperature of each block is calculated. Region division representative temperature calculation means 40 for each block
Then, the average temperatures T1 to T8 are calculated. For example, when the value of the average temperature TN of the block N is 20 ° C <TN <22 ° C, the cut-out temperature range of the person in the block N is 25
The cut-out temperature of a person is determined for each block, such as ℃ to 34 ℃. In other words, human exposed skin temperature is 36
The temperature is between ℃ and 37 ℃, but when the clothes, the background and the human body part are included in one pixel, they are averaged and the detected temperature becomes low. Become. In the present invention, an appropriate human cutout temperature range is determined based on the average temperature value of each block and the position of the block in the entire image.

【0039】一方、上記の構成では、人間の領域の抽出
を正しく行うためには、画素が人体を含んでいると判断
する温度範囲を赤外線素子毎に、設定する必要があり、
素子数が多い場合には各検出素子について温度範囲を設
定することが装置の製造上困難であったり、人間と同じ
温度範囲を持つ物体、例えばテレビや暖房機などを人間
と誤ってしまういう課題も有していた。そこで、連続し
た画像により適切な人間切り出し温度範囲を決定する方
法がある。図5に、このような方法を用いた人間領域検
出部13の構成を示す。図3の構成と異なるのは領域分
割代表温度算出手段40の代わりに、差分画像作成手段
50と動物体画像作成手段51と度数分布作成手段52
を設けた点であり、以下は図3の構成と同様である。以
下に、図5を用いながらその動作を説明する。
On the other hand, in the above configuration, in order to correctly extract the human region, it is necessary to set the temperature range in which it is determined that the pixel includes the human body for each infrared element.
When the number of elements is large, it is difficult to set a temperature range for each detection element in manufacturing the device, or an object having the same temperature range as a human, such as a television or a heater, is mistaken for a human. Also had. Therefore, there is a method of determining an appropriate human cutout temperature range based on continuous images. FIG. 5 shows the configuration of the human area detection unit 13 using such a method. The difference from the configuration of FIG. 3 is that instead of the area division representative temperature calculating means 40, a difference image creating means 50, a moving object image creating means 51, and a frequency distribution creating means 52.
Is provided, and the following is the same as the configuration of FIG. The operation will be described below with reference to FIG.

【0040】この構成では、画像記憶部12には連続的
に複数の熱画像を記憶する。差分画像作成手段50で
は、記憶された連続した複数の熱画像の画像間の差分画
像を作成する。動物体画像作成手段51では、複数の熱
画像と検出された差分画像から動物体画像を作成する。
次に、度数分布作成手段52では、前記動物体画像作成
手段51により複数の熱画像の画素値の中で動物体に対
応する画像の画素ブロックが得られるのでこれらの画素
ブロックの温度値の度数分布を作成する。切り出し温度
決定手段53では、内部に設定された適切なしきい値
と、前記度数分布作成手段52から得られた度数分布を
用いて人間領域を検出可能な切り出し温度範囲を決定す
る。そして、以降は図3に示した人間検出手段42と代
表点算出手段43により、人間画素ブロックとその代表
点を算出する。
With this configuration, the image storage unit 12 continuously stores a plurality of thermal images. The difference image creating means 50 creates a difference image between the plurality of stored continuous thermal images. The moving object image creating means 51 creates an moving object image from a plurality of thermal images and the detected difference images.
Next, in the frequency distribution creating means 52, since the moving object image creating means 51 obtains the pixel blocks of the image corresponding to the moving object among the pixel values of the plurality of thermal images, the frequency values of the temperature values of these pixel blocks are obtained. Create a distribution. The cut-out temperature determining means 53 determines a cut-out temperature range in which a human region can be detected, using an appropriate threshold value set inside and the frequency distribution obtained from the frequency distribution creating means 52. Then, thereafter, the human detection unit 42 and the representative point calculation unit 43 shown in FIG. 3 calculate the human pixel block and its representative point.

【0041】次に、図5を参照しながら詳細な処理の手
順を示す。画像記憶部12に記憶された画像は、室内の
温度分布を熱画像として連続的に読み取った画像であ
る。本実施例では、この連続した計測した熱画像をそれ
ぞれ、画像Aと画像Bする。
Next, a detailed processing procedure will be described with reference to FIG. The image stored in the image storage unit 12 is an image obtained by continuously reading the temperature distribution in the room as a thermal image. In the present embodiment, the continuous measured thermal images are referred to as image A and image B, respectively.

【0042】まず、画像A、画像Bは順番で読み取られ
画像とする。画像は、座標(x,y)に存在する画素を
P(x,y)して表現するものとする。画像Aと画像B
から差分画像作成手段50により、差分画像が作成され
る。この場合、画像にノイズ成分を含む場合は、しきい
値hを用いてもよい。つまり、画像1中の座標(x,
y)にある画素値をT1(x,y)、画像B中の同一座
標の画素値をT2(x,y)、しきい値をh、画素値と
して絶対にありえない値をTNとするとき、差分画像中
の同一座標の画素の値dTを、 |T2(x,y)−T1(x,y)|<hならば dT(x,y)=TN |T2(x,y)−T1(x,y)|≧hならば dT(x,y)=T2(x,y)−T1(x,y) (|x|はxの絶対値を求めることを示す) とする処理を各画像中の全ての画素に対して行うことに
より差分画像を作成できる。図6に、画像A,Bからの
差分画像の作成例を示す。2つの画像の差分をとること
で値が正のエリアは移動後のエリアで、負のエリアは移
動前のエリアであることが分かる。TNについては、た
とえば、温度値が摂氏で測られる場合には、TN=−1
000というような絶対0度未満の値にするか、TN=
10000のような非常な高温にすればよい。また、温
度差画像中の各画素は、その温度値がTN以外の値であ
れば、その画素は動物体をとらえたことを示し、温度値
がTNであれば、静止した物体をとらえたことを示して
いる。次に、画像Aと画像Bとの差分画像2から動物体
画像作成手段51により動物体画像が作成される。動物
体画像の作成は次のように行われる。つまり、差分画像
中の各画素の温度差値をdT(x,y)、動物体画像の
同一座標の画素の温度値をV(x,y)とするとき、 dT(x,y)<0 ならば V(x,y)=T1(x,y) dT(x,y)>0 ならば V(x,y)=T2(x,y) dt(x,y)=TNならば V(x,y)=TN というような処理を差分画像中の全画素に対して行うこ
とにより、動物体画像を作成することができる。次に、
動物体画像から度数分布作成手段52により熱画像中の
各画素ごとに温度Tについての度数分布H(x,y,
T)が作成される。度数分布の作成は次のように行われ
る。つまり、動物体画像中の座標(x,y)にある画素
値をV(x,y)、熱画像中の同一座標の画素について
の度数分布をH(x,y,T)とするとき、 H(x,y,V(x,y))←H(x,y,V(x,y))+1 という処理を動物体画像中の全画素に対して行うことに
より、画像中の各画素ごとに温度についての度数分布が
作成できる。
First, the images A and B are read in order to form images. The image is represented by P (x, y) of pixels existing at coordinates (x, y). Image A and image B
From the difference image creating means 50, a difference image is created. In this case, the threshold value h may be used when the image contains a noise component. That is, the coordinates (x,
When the pixel value in y) is T1 (x, y), the pixel value at the same coordinate in the image B is T2 (x, y), the threshold value is h, and an absolutely impossible pixel value is TN, If | T2 (x, y) -T1 (x, y) | <h, the value dT of the pixel at the same coordinates in the difference image is dT (x, y) = TN | T2 (x, y) -T1 ( x, y) | ≧ h, dT (x, y) = T2 (x, y) -T1 (x, y) (| x | indicates that the absolute value of x is determined) A difference image can be created by performing this on all the pixels inside. FIG. 6 shows an example of creating a difference image from the images A and B. By taking the difference between the two images, it can be seen that the area with a positive value is the area after the movement and the negative area is the area before the movement. For TN, for example, if the temperature value is measured in degrees Celsius, TN = -1
Absolutely less than 0 degrees like 000 or TN =
A very high temperature such as 10,000 may be used. Each pixel in the temperature difference image indicates that the pixel has captured a moving object if the temperature value is a value other than TN. If the temperature value is TN, a stationary object has been captured. Is shown. Next, a moving object image is created by the moving object image creating means 51 from the difference image 2 between the image A and the image B. Creation of a moving object image is performed as follows. That is, when the temperature difference value of each pixel in the difference image is dT (x, y) and the temperature value of the pixel of the same coordinate of the moving object image is V (x, y), dT (x, y) <0 If V (x, y) = T1 (x, y) dT (x, y)> 0 If V (x, y) = T2 (x, y) dt (x, y) = TN V ( By performing processing such as x, y) = TN for all pixels in the difference image, a moving object image can be created. next,
A frequency distribution H (x, y,
T) is created. The frequency distribution is created as follows. That is, when the pixel value at the coordinates (x, y) in the moving image is V (x, y) and the frequency distribution for the pixels at the same coordinates in the thermal image is H (x, y, T), H (x, y, V (x, y)) ← H (x, y, V (x, y)) + 1 is applied to all pixels in the image of the moving object to obtain each pixel in the image. A frequency distribution can be created for each temperature.

【0043】以上の熱画像の検出から度数分布の作成ま
での処理を計測されたすべての熱画像に対して行うこと
により、画素ごとに度数分布が構築されていき、十分に
時間が経過すれば、その画素の温度が人間をとらえてい
ると判断できる温度範囲を反映した度数分布となる。た
だし、2次元赤外線センサ2の精度によっては、次に述
べるように度数しきい値を設け、小さな度数の温度値は
除外するようにするとよい。
By performing the above-described processing from the detection of the thermal image to the generation of the frequency distribution on all the measured thermal images, the frequency distribution is constructed for each pixel, and if sufficient time elapses, , The temperature of the pixel has a frequency distribution that reflects the temperature range in which it can be determined that a human is caught. However, depending on the accuracy of the two-dimensional infrared sensor 2, it is advisable to provide a frequency threshold value as described below and exclude a temperature value with a small frequency.

【0044】さらに、画像Aと度数分布と内部に持つ適
切な度数しきい値kから人間を切り出す温度範囲を切り
出し温度決定手段53により決定する。そして、人間検
出手段42で、画像A中の座標(x,y)にある画素の
温度値をT1(x,y)、その画素についての度数分布
をH(x,y,T)、度数しきい値をk、画素毎の温度
切り出し範囲を示す温度切り出し温度決定手段53によ
り、同一座標にある画素の温度値をM1(x,y)とす
るとき、 H(x,y,T1(x,y))<kならば M1(x,y)=TN H(x,y,T1(x,y))≧kならば M1(x,y)=T1(x,y) という処理を画像Aの全画素に対して行うことにより、
画像Aから人間画素ブロックを抽出することができる。
また、画像Bと度数分布と度数しきい値から切り出し温
度決定手段53と人間検出手段42により、画像Bから
人間を表す画素だけを抽出することで、人間画素ブロッ
クが作成される。この処理は、画像Aから人間画素ブロ
ックを抽出する場合と同様に人間領域の抽出が行われ
る。
Further, the temperature range for cutting out a person from the image A, the frequency distribution, and the appropriate frequency threshold value k contained therein is determined by the clipping temperature determining means 53. Then, the human detection means 42 calculates the temperature value of the pixel at the coordinates (x, y) in the image A as T1 (x, y), and the frequency distribution of that pixel as H (x, y, T). When the temperature value of the pixel at the same coordinate is set to M1 (x, y) by the temperature cutout temperature determining means 53 indicating the threshold value k and the temperature cutout range for each pixel, H (x, y, T1 (x, y)) <k, M1 (x, y) = TN H (x, y, T1 (x, y)) ≧ k, M1 (x, y) = T1 (x, y) By doing for all pixels of
Human pixel blocks can be extracted from image A.
Further, a human pixel block is created by extracting only pixels representing a human from the image B by cutting out the temperature B from the image B, the frequency distribution, and the frequency threshold value and the human detecting unit 42. In this process, the human region is extracted in the same manner as when extracting the human pixel block from the image A.

【0045】また、度数しきい値k以上の度数を持つ温
度値の中で、最低値と最高値を選び、画素の温度が最低
値と最高値の間であるならば、画素が人間をとらえてい
ると判断する方法も考えられる。この方法は、装置が動
作開始直後であり、度数分布が画素の温度が人間をとら
えていると判断できる温度範囲を十分には反映していな
いような場合に有効である。以上の本実施例の構成する
と、センサの各検出素子間のばらつきが大きい場合や画
像にノイズが上乗された場合でも、画素ごとに人間をと
らえていると判断できる温度範囲を人間が設定するする
必要がなく、人間領域検出部が装置が使用されるにつれ
て、自動的に人間をとらえていると判断できる温度範囲
を画素ごとに設定することができる。
Further, among the temperature values having the frequency equal to or higher than the frequency threshold value k, the lowest value and the highest value are selected, and if the temperature of the pixel is between the lowest value and the highest value, the pixel catches a human being. There is also a method of determining that This method is effective immediately after the operation of the device, and is effective when the frequency distribution does not sufficiently reflect the temperature range in which it can be determined that the temperature of the pixel catches a human. According to the configuration of the present embodiment as described above, the human can set the temperature range in which it can be determined that the human is captured for each pixel even when there is a large variation between the detection elements of the sensor or when noise is added to the image. It is not necessary to do so, and as the human region detection unit is used, the temperature range in which it can be automatically determined that a human is captured can be set for each pixel.

【0046】なお、本実施例では、連続した画像を2つ
としたが、3つ以上の熱画像を用いる場合でも同様な処
理が行うことができ、差分画像がより多く得られるの
で、度数分布の構築が速くなるという利点がある。
In this embodiment, two consecutive images are used, but the same processing can be performed when three or more thermal images are used, and more differential images can be obtained. It has the advantage of faster construction.

【0047】また、実施例では、2次元に配列された度
数分布を使用したが、例えば、垂直方向に1次元的に検
出素子が配列された検出手段を水平方向に機械的に走査
することで、結果として2次元の熱画像検出手段とする
ような場合には、度数分布を画素ごとに作成する必要は
なく、画像の行ごとに作成すれば良いので、度数分布記
憶手段の記憶容量を少なくすることができ、度数分布か
ら得られる行ごとに共通な温度範囲により熱画像からの
人間の領域の抽出が行われる。水平方向に1次元的に検
出素子が配列された検出手段を垂直方向に機械的に走査
する場合についても同様で、熱画像の列ごとに度数分布
が作成され、度数分布から得られる列ごとに共通な温度
範囲により熱画像からの人間の領域の抽出が行われる。
さらに、単一の検出素子を機械的に水平方向と垂直方向
に走査することで、結果として2次元の熱画像検出手段
とするような場合には、度数分布を画素ごとに作成する
必要はなく、度数分布が1つでよいことはいうまでもな
く、度数分布から得られる全画素に共通な温度範囲によ
り熱画像からの人間の領域の抽出が行われる。
In the embodiment, the two-dimensionally arranged frequency distribution is used, but for example, by mechanically scanning the detecting means in which the detecting elements are arranged one-dimensionally in the vertical direction in the horizontal direction. As a result, in the case of using the two-dimensional thermal image detection means, it is not necessary to create the frequency distribution for each pixel, but it is sufficient to create it for each row of the image, so that the storage capacity of the frequency distribution storage means is reduced. It is possible to extract the human region from the thermal image according to the common temperature range for each row obtained from the frequency distribution. The same applies to the case of mechanically scanning the detecting means in which the detecting elements are arranged one-dimensionally in the horizontal direction in the vertical direction, and a frequency distribution is created for each column of the thermal image, and for each column obtained from the frequency distribution. Extraction of a human region from a thermal image is performed according to a common temperature range.
Further, when a single detection element is mechanically scanned in the horizontal direction and the vertical direction, resulting in a two-dimensional thermal image detecting means, it is not necessary to create a frequency distribution for each pixel. Needless to say, only one frequency distribution is required, and the human region is extracted from the thermal image according to the temperature range common to all pixels obtained from the frequency distribution.

【0048】次に図1の個人情報抽出部14の構成につ
いて図7を参照しながら説明する。個人情報抽出部14
では人間領域検出部から得られる人間画素ブロックとそ
の代表点および、画像記憶部12に記憶されている熱画
像から、画像情報検出部において、より詳細な人間に関
する情報を推測するための特徴量を算出する。60は人
数特徴検出部、61は姿勢判定特徴量検出部、62は位
置判定特徴量検出部、63は皮膚温度判定特徴量検出
部、64は着衣量判定特徴量検出部である。
Next, the configuration of the personal information extraction unit 14 of FIG. 1 will be described with reference to FIG. Personal information extraction unit 14
Then, from the human pixel block obtained from the human area detection unit and its representative point, and the thermal image stored in the image storage unit 12, the image information detection unit determines the feature amount for estimating more detailed information about the human. calculate. Reference numeral 60 is a person feature detection unit, 61 is a posture determination feature amount detection unit, 62 is a position determination feature amount detection unit, 63 is a skin temperature determination feature amount detection unit, and 64 is a clothing amount determination feature amount detection unit.

【0049】最初に、人数の検出方法について説明す
る。従来は、画像から画像内の人数を検出する場合に、
画像より人間らしい部分の領域を検出し、その領域の形
状から人間かどうかを判断し、その数がいくつあるかに
よって、人数の算出を行っていた。しかし、この方法で
は画像から領域の形状認識が正確に行えないと人数の良
好な検出は難しい。また人間が重なった場合も、人数算
出が難しくなる。そこで、本実施例では画素数算出手
段、ブロック形態判定手段、人間画素ブロック計数手段
により人数を求めている。
First, a method of detecting the number of people will be described. Conventionally, when detecting the number of people in an image from an image,
The area of a human part is detected from the image, it is judged from the shape of the area whether it is a human, and the number of people is calculated according to how many there are. However, with this method, it is difficult to detect the number of people well unless the shape of the region is accurately recognized from the image. Also, when humans overlap, it becomes difficult to calculate the number of people. Therefore, in this embodiment, the number of people is calculated by the pixel number calculating means, the block form determining means, and the human pixel block counting means.

【0050】図8に人数検出手段60の構成を示す。図
8において70は画素数算出手段、71はブロック形態
判定手段、72は人間画素ブロック計数手段である。人
間領域検出手段13により検出された室内の人間画素ブ
ロックのブロック数と各ブロックの画素数から、人間の
数を判別する。人数の判断は、検出された画素ブロック
のブロック数を用い。また、人間が重なって検出される
可能性があるので、各画素ブロックの形状を用いて人数
を判断する。この場合、形状判断に、画像情報検出部3
のニューラルネットを用いた人数検出手段を用いる。図
9に人間が重なった場合の人数の簡単な判別方法を示
す。簡単な人数の判別方法として画素ブロックの画素の
個数GAとした場合に、GA < TH1 のときに人数は一人
とし、TH1≦ GA < TH2のときに2人等に分類する。判
別に必要な人数Nに併せてしきい値をN個(TH1,TH2,・・
・,THN)用意する。ただし、TH1,TH2,・・・,THNは正の整数
である。
FIG. 8 shows the configuration of the person number detecting means 60. In FIG. 8, 70 is a pixel number calculating means, 71 is a block form determining means, and 72 is a human pixel block counting means. The number of humans is determined from the number of human pixel blocks in the room detected by the human area detection unit 13 and the number of pixels in each block. The number of detected pixel blocks is used to determine the number of people. Further, since humans may be detected in an overlapping manner, the number of people is determined by using the shape of each pixel block. In this case, the shape information is determined by the image information detection unit 3
The number of people detecting means using the neural network of is used. FIG. 9 shows a simple method of discriminating the number of people when humans overlap. Assuming that the number of pixels in a pixel block is GA as a simple method for determining the number of persons, the number of persons is one when GA <TH1 and two when TH1≤GA <TH2. N threshold values (TH1, TH2, ...
・ 、 THN) Prepare. However, TH1, TH2, ..., THN are positive integers.

【0051】なお、この構成は、可視画像を入力する画
像入力手段でも、エッジ、線や色から人間の領域とその
領域を構成する画素数の判定により人数の判定が行え
る。
With this configuration, the number of people can be determined by the image input means for inputting a visible image by determining the human region and the number of pixels forming the region based on edges, lines and colors.

【0052】次に、上記の画素ブロックからの人数判定
では、しきい値の決定は画像の入力装置、その設置位
置、画質および画像の解像度等により調整が必要であ
る。そこで、この様な調整を簡単にするために、ニュー
ラルネットワーク等の学習機能を持つ利用する方法があ
る。図10にニューラルネットワークの実施例を示す。
73は人数推定用のニューラルネットワークである。ニ
ューラルネットワーク73は、人数特徴検出部60から
得られる人間画素ブロックの画素数と代表点と形態種別
を入力として、出力に人数が算出されるようにする。ニ
ューラルネットワーク73は、各種の工学モデルが適用
できる。例えば、多層型のパーセプトロンを用いた場合
は、学習の方法としてバックプロパゲーション(誤差逆
伝般法)が有名である。この学習は、ニュールネットワ
ークに入力情報とその時の望ましい出力情報を与えて、
内部の状態を調整する。上記の場合であると、特徴信号
2、3と人間画素ブロック代表点とその時の室内の人数
をニューラルネットワークに与えて学習する。この構成
は、学習により内部の状態を調整するためにしきい値の
経験的に決める作業を少なくできる。また、ニューラル
ネットワークの代替として、回帰分析等の統計処理にも
置き換えることもできる。
Next, in the determination of the number of people from the above pixel blocks, it is necessary to determine the threshold value according to the image input device, its installation position, the image quality, the image resolution and the like. Therefore, in order to simplify such adjustment, there is a method of using a learning function such as a neural network. FIG. 10 shows an embodiment of the neural network.
Reference numeral 73 is a neural network for estimating the number of people. The neural network 73 receives the number of pixels of the human pixel block obtained from the number-of-persons characteristic detection unit 60, the representative point, and the form type, and calculates the number of persons in the output. Various engineering models can be applied to the neural network 73. For example, when a multilayer perceptron is used, back propagation (error inverse propagation method) is famous as a learning method. This learning gives the neural network the input information and the desired output information at that time,
Adjust the internal condition. In the above case, the feature signals 2 and 3, the human pixel block representative point and the number of persons in the room at that time are given to the neural network for learning. This configuration can reduce the work of empirically determining the threshold value in order to adjust the internal state by learning. Further, as an alternative to the neural network, it is also possible to replace it with statistical processing such as regression analysis.

【0053】次に、足元位置の検出方法について説明す
る。図11は足元位置を検出するための第1の実施例に
おける構成を示す図である。図11において、90は列
データを抽出する列データ抽出手段、91は足元位置を
検出する足元位置推測手段により構成される。足元位置
推測手段91は、アルゴリズムによる方法、回帰分析等
の統計手法およびニューラルネットワークによる方法等
がある。本実施例では、ニューラルネットワークによる
方法を示す。
Next, a method of detecting the foot position will be described. FIG. 11 is a diagram showing the configuration of the first embodiment for detecting the foot position. In FIG. 11, 90 is a column data extracting means for extracting column data, and 91 is a foot position estimating means for detecting a foot position. The foot position estimating means 91 includes an algorithm method, a statistical method such as regression analysis, and a neural network method. In this embodiment, a method using a neural network is shown.

【0054】人間領域検出部13で検出された人間画素
ブロック、画素ブロックの代表点座標および熱画像上の
上記人間画素ブロックの周辺画素値が、位置判定特徴量
検出部62に入力される。最初に人間画素ブロックは、
列データ抽出手段90に入力される。列データ抽出手段
90では、人間領域の最下端の画素を含む縦1列のデー
タを、足元位置推測手段91に入力する。最下端の画素
が複数ある場合は、画素値が最も高い画素を含む列を抽
出する方法や、中央や左右の位置により抽出する方法が
ある。熱画像の解像度が縦8画素である場合には、それ
ぞれの画素の表す温度値8個が抽出される。列データ抽
出手段90で抽出された列データを元に、ニューラルネ
ットワーク使用の足元位置推測手段91で計算させるこ
とで人間の足元位置が得られる。ニューラルネットワー
ク使用の足元位置推測手段91は、あらかじめバックプ
ロパゲーション法を用いて十分な数のデータと適当な教
師信号を与えることで学習を行い、誤差が収束したとみ
なされる状態にあるものとする。なお、この足元位置推
測手段91においては、多層パーセプトロン以外にも、
LVQ等の他のニューラルネットワークのモデルを使用
することも可能である。
The human pixel block detected by the human area detection unit 13, the coordinates of the representative point of the pixel block, and the peripheral pixel values of the human pixel block on the thermal image are input to the position determination feature amount detection unit 62. First the human pixel block
It is input to the column data extraction means 90. The column data extracting means 90 inputs the data of one vertical column including the lowermost pixel of the human area to the foot position estimating means 91. When there are a plurality of pixels at the bottom edge, there are a method of extracting a column including a pixel having the highest pixel value, and a method of extracting by a center or left and right positions. When the resolution of the thermal image is 8 pixels in the vertical direction, 8 temperature values represented by each pixel are extracted. Based on the column data extracted by the column data extraction unit 90, the foot position estimation unit 91 using a neural network calculates the human foot position. It is assumed that the foot position estimating means 91 using a neural network is in a state where it is considered that the error has converged by performing learning by previously giving a sufficient number of data and an appropriate teacher signal by using the back propagation method. . In addition, in the foot position estimating means 91, in addition to the multilayer perceptron,
Other neural network models such as LVQ can also be used.

【0055】図12は、立っている人間の熱画像と人体
の対応関係を示す模式図である。a〜oは、熱画像の各
画素を表し、斜線部分は人体に該当する領域を表す。こ
の場合、f,g,hは画素のほとんどが人体部分が大部
分を占めているので切り出しはうまく行われるが、iの
場合、足元の位置が画素の中心近くにあるので、上半分
は温度が高く、下半分は温度が低い。この時の画素値
は、一画素に占める人体部分の面積が小さいために人間
の部分の温度と背景の部分の温度が重なり結果的に中間
程度となり、切り出し温度範囲を下回ってしまい、実際
に切り出されるのはf,g,hの3画素だけとなる。こ
こから足元位置を推定しても、正確には求められない
が、iの値もニューラルネットワークに入力する事で、
正確な足元位置を求めることが可能となる。
FIG. 12 is a schematic diagram showing a correspondence relationship between a standing human thermal image and a human body. a to o represent each pixel of the thermal image, and the hatched portion represents a region corresponding to the human body. In this case, since most of the pixels of f, g, and h occupy most of the human body part, the clipping is performed well, but in the case of i, the position of the foot is near the center of the pixel, so the upper half is temperature. Is high and the lower half is cold. Since the area of the human body portion occupying one pixel is small, the pixel value at this time overlaps the temperature of the human portion and the temperature of the background portion, resulting in an intermediate value, which falls below the cutout temperature range and is actually cut out. Only three pixels of f, g and h are displayed. Even if the foot position is estimated from this, it cannot be accurately obtained, but by inputting the value of i into the neural network,
It is possible to obtain an accurate foot position.

【0056】また、ニューラルネットワーク以外の方法
としてアルゴリズムによる場合は、足元位置推測手段9
1において、h,i,jの3画素の値だけを用いて、h
は人間の温度、jは背景の温度であるとき、人間が画素
iに占める割合をαとすれば、 i=α*h+(1−α)*j からαを求め、それを基にして足元位置を算出すること
もできる。
When an algorithm is used as a method other than the neural network, the foot position estimating means 9
1, using only the values of the three pixels h, i, and j, h
Is the temperature of the human being, and j is the temperature of the background, where α is the proportion of the human being in the pixel i, α is obtained from i = α * h + (1-α) * j The position can also be calculated.

【0057】図13は、位置判定特徴量検出部62にお
ける特徴量を説明ものである。人を含めた外界情報11
0は赤外線センサ111により熱画像112として取り
組まれ、人の領域検出により、斜線の部分の人のブロッ
クが切り出される。検出された人のブロックの温度値
(画素値)の重心点を求めて、その重心点を垂直方向に
降ろした人のブロックの最下位点の画素Aの値を画素値
(A)とする。この画素を中心に垂直方向に1つ上の画
素Bの値を画素値(B)、垂直方向に1つ下の画素Cの
値を画素値(C)、その隣の画素Dの値を画素値(D)
とする。また、人のブロックの背景の温度か、叉は画素
Cの水平方向の数画素の平均値を足元温度、人のブロッ
ク全体の平均温度およびセンサの内部の基準温度を特徴
量として算出する。これらの特徴量は画像情報検出部3
内部の位置推定用のニューラルネット113に入力さ
れ、人の位置114を推定する。
FIG. 13 illustrates the feature quantity in the position determination feature quantity detection unit 62. External information including people 11
0 is taken as a thermal image 112 by the infrared sensor 111, and the human block in the shaded portion is cut out by the human area detection. The center of gravity of the detected temperature value (pixel value) of the person's block is obtained, and the value of the pixel A at the lowest point of the person's block obtained by lowering the center of gravity in the vertical direction is taken as the pixel value (A). The value of the pixel B that is one pixel higher in the vertical direction with respect to this pixel is the pixel value (B), the value of the pixel C that is one pixel lower in the vertical direction is the pixel value (C), and the value of the pixel D next to it is the pixel value. Value (D)
And Also, the background temperature of the person's block or the average value of several horizontal pixels of the pixel C is calculated as the foot temperature, the average temperature of the entire person's block, and the reference temperature inside the sensor as the feature amount. These feature quantities are determined by the image information detection unit 3
The position 114 of the person is estimated by inputting to the internal position estimation neural network 113.

【0058】次に、姿勢の検出方法について説明する。
姿勢検出では、検出対象となる姿勢を立位、臥位、座位
の3種類としている。図37は姿勢を検出するための第
1の実施例における構成を示す図である。図37におい
て、120は人間領域検出部13から得られる人間画素
ブロックと熱画像から人間を含む長方形ブロックを抽出
し、前記長方形ブロックの縦の大きさを検出する辺画素
数検出手段A、121は前記長方形ブロックの横の大き
さを検出する辺画素数検出手段B、122は長方形ブロ
ックを3×3の大きさのブロックに標準化する変換手
段、123は姿勢推測手段である。姿勢推測手段123
は、統計処理やニューラルネットワークを用いる方法等
の各種の方法があるが、本実施例では、バックプロパゲ
ーション法によってあらかじめ学習済みの多層パーセプ
トロンを用いた。
Next, a method of detecting the posture will be described.
In posture detection, there are three types of postures to be detected: standing posture, lying posture, and sitting posture. FIG. 37 is a diagram showing the configuration of the first embodiment for detecting the posture. In FIG. 37, 120 is a human pixel block obtained from the human area detection unit 13 and a rectangular block including a human is extracted from the thermal image, and side pixel number detection means A and 121 for detecting the vertical size of the rectangular block are A side pixel number detecting means B for detecting the lateral size of the rectangular block, 122 is a converting means for standardizing the rectangular block into a block having a size of 3 × 3, and 123 is an attitude estimating means. Posture estimation means 123
There are various methods such as statistical processing and a method using a neural network, but in this embodiment, a multilayer perceptron that has been preliminarily learned by the back propagation method was used.

【0059】人間領域検出部13で検出された人間画素
ブロックは、120と121の辺画素検出手段A,Bに
おいて、人間画素ブロックと熱画像から、周辺を含む長
方形ブロックを抽出し、その縦と横の画素数を検出しそ
れぞれ縦辺画素数、横辺画素数を出力する。変換手段1
22においては、様々な大きさの人間画素ブロックを3
×3画素のブロックに相当する信号に標準化し、定型画
素信号として出力する。前記、縦辺画素数、横辺画素
数、定型画素信号、また必要に応じて足元位置検出手段
17から得られた足元位置情報を入力とし、ニューラル
ネットワーク使用の姿勢推測手段123で計算させるこ
とで人間の姿勢が得られる。ニューラルネットワーク使
用の姿勢推測手段123は、あらかじめバックプロパゲ
ーション法を用いて、様々な位置で異なる姿勢をとった
十分な数のデータと適当な教師信号を与えることで学習
を行い、誤差が収束したとみなされる状態にあるものと
する。なお、この姿勢推測手段123においては、多層
パーセプトロン以外にも、LVQ等の他のニューラルネ
ットワークのモデルを使用することが可能である。
Regarding the human pixel block detected by the human area detecting unit 13, the side pixel detecting means A and B 120 and 121 extract a rectangular block including the periphery from the human pixel block and the thermal image, The number of horizontal pixels is detected and the number of vertical side pixels and the number of horizontal side pixels are output, respectively. Conversion means 1
22, 3 human pixel blocks of various sizes
It is standardized into a signal corresponding to a block of × 3 pixels and is output as a fixed pixel signal. By inputting the number of pixels on the vertical side, the number of pixels on the horizontal side, a fixed pixel signal, and the foot position information obtained from the foot position detecting means 17 as necessary, the posture estimating means 123 using a neural network calculates Human posture is obtained. The posture estimation means 123 using a neural network performs learning by previously using the back propagation method and giving a sufficient number of data of different postures at various positions and an appropriate teacher signal to converge the error. Shall be in a state considered to be. It should be noted that the posture estimation unit 123 can use other neural network models such as LVQ other than the multilayer perceptron.

【0060】図15に、姿勢を検出する際の処理例を示
す。130は計測された熱画像、131は人間領域検出
部13から得られる人間画素ブロックである。この人間
画素ブロックを熱画像を用い辺画素検出手段A120お
よび辺画素検出手段B121を用い縦横の長さを検出
し、長方形ブロック132に改める。長方形ブロック1
32は、人の位置により人間領域の大きさが一定しない
ため、様々な大きさとなることが考えられる。これをニ
ューロンの数が固定されている多層パーセプトロンにそ
のまま入力することはできないので、何らかの方法でデ
ータの標準化を行わなければならない。ここでは122
の変換手段において、面積比を用いて3×3の9画素の
データに標準化する場合について説明する。図16に、
4×5の長方形ブロックを標準化する手順を示す。4×
5の20画素それぞれの値をa〜tとし、標準化された
3×3の9画素それぞれの値をA〜Iとすれば、面積比
を用いて標準化して、例えばAの値は A={0.25*0.2*a+0.25*(0.33-0.2)*e+(0.33-0.25)*0.2*b
+(0.33-0.25)*(0.33-0.2)*f}/(0.33*0.33) となる。同様にしてB〜Iも求めることができる。
FIG. 15 shows an example of processing for detecting the posture. Reference numeral 130 is a measured thermal image, and 131 is a human pixel block obtained from the human area detection unit 13. This human pixel block is converted into a rectangular block 132 by detecting the vertical and horizontal lengths using a side image detecting means A120 and a side pixel detecting means B121 using a thermal image. Rectangular block 1
It is conceivable that 32 has various sizes because the size of the human area is not constant depending on the position of the person. This cannot be directly input to the multilayer perceptron in which the number of neurons is fixed, so data must be standardized by some method. Here, 122
A case will be described below in which the conversion means standardizes the data into 9 × 3 × 3 pixel data using the area ratio. In Figure 16,
The procedure for normalizing a 4x5 rectangular block is shown. 4x
If the respective values of 20 pixels of 5 are a to t, and the respective values of standardized 3 × 3 9 pixels are A to I, they are standardized using the area ratio, for example, the value of A is A = { 0.25 * 0.2 * a + 0.25 * (0.33-0.2) * e + (0.33-0.25) * 0.2 * b
+ (0.33-0.25) * (0.33-0.2) * f} / (0.33 * 0.33). Similarly, B to I can be obtained.

【0061】そのほかに補助的なデータとして、足元位
置情報、縦横の画素数とともにあらかじめバックプロパ
ゲーション法によって学習済みの、12入力4出力の多
層パーセプトロンに入力することによって、室内の人間
の姿勢が得られる。
In addition, by inputting auxiliary data together with foot position information and vertical and horizontal pixel numbers into a 12-input 4-output multi-layer perceptron that has been learned in advance by the backpropagation method, the posture of a human in the room can be obtained. To be

【0062】また、ニューラルネットで学習させる際、
学習データに2次元赤外線センサからの人体の向きを変
えたデータを加えることで各姿勢における向きを含めた
出力を行うことも可能である。さらに対象となる姿勢に
ついては、向きを考慮したもの、姿勢の種類を細分化し
たものを扱うことも可能である。
When learning with a neural network,
It is also possible to output the data including the orientation in each posture by adding the data obtained by changing the orientation of the human body from the two-dimensional infrared sensor to the learning data. As for the target posture, it is possible to handle the posture in consideration of the orientation and the subdivided types of posture.

【0063】次に、姿勢判定特徴量検出部61の特徴量
について図17に基づいて説明する。図17は姿勢判定
の流れを熱画像から姿勢判定までの本発明の流れを示し
たものである。図17において熱画像140内の人の領
域を斜線で示す。前述した人の領域が検出されると、そ
の領域を内挿する正方形(太い実線部)内の画素領域を
切り出し、特徴抽出部141で3x3の9個の姿勢判定
のための領域判定を行う。9個(3x3)の特徴量の算
出方法は各種の方法があるが、例えば図17で示すよう
に熱画像の正方形が2x2とすると、各画素がG(1)、
G(2)、G(3)、G(4)とすると、9個の特徴量、F(1)、
F(2)、・・・、F(9) となる。また、その他の特徴量としては人のブロックの
重心点また重心点から垂直方向に降ろして人のブロック
の最下位点の画素の熱画像内の位置と人のブロックのブ
ロック数、人のブロックの平均温度等を算出する。これ
らの特徴量を画像情報検出部3内のニューラルネット1
43に入力して姿勢を判別結果の姿勢を示す値144を
出力する。なお、図17におけるニューラルネットワー
クの出力145、146は後述する位置判定用に選別信
号もしくは補正信号として用いる。
Next, the feature amount of the posture determination feature amount detecting section 61 will be described with reference to FIG. FIG. 17 shows the flow of posture determination from a thermal image to posture determination according to the present invention. In FIG. 17, the area of the person in the thermal image 140 is indicated by diagonal lines. When the above-mentioned person's area is detected, a pixel area in a square (thick solid line portion) interpolating the area is cut out, and the feature extraction unit 141 performs area determination for 3 × 3 nine posture determinations. There are various methods for calculating the nine (3 × 3) feature amounts. For example, if the square of the thermal image is 2 × 2 as shown in FIG. 17, each pixel is G (1),
If G (2), G (3), and G (4), then nine feature quantities, F (1),
F (2), ..., F (9) Becomes In addition, as other features, the position of the center of gravity of the human block or the position of the pixel at the lowest point of the human block in the thermal image in the vertical direction, the number of blocks of the human block, and the number of blocks of the human block Calculate the average temperature. The neural network 1 in the image information detection unit 3 uses these feature quantities.
The value is input to 43 and the value 144 indicating the attitude as a result of the attitude determination is output. The outputs 145 and 146 of the neural network in FIG. 17 are used as selection signals or correction signals for position determination described later.

【0064】次に図18に基づいて画像情報検出部3の
別の構成の説明を行う。画像情報検出部3内部には、姿
勢検出手段18と姿勢毎の位置判定部を持つ足元位置検
出手段17の構成を有するものとする。位置判別部は姿
勢分類しない場合は1つの構成でも可能であるし、臥位
やその他の姿勢分類、例えば座位を椅子座位と平座位等
に細かく分類する場合は姿勢の分類だけ増やすことがで
きる。本発明の実施例では図18の構成に基づいて処理
の流れを示す。
Next, another configuration of the image information detecting section 3 will be described with reference to FIG. It is assumed that the image information detection unit 3 has a structure of a foot position detection unit 17 having a posture detection unit 18 and a position determination unit for each posture. The position discriminating unit may have a single configuration when the posture is not classified, or the posture classification and other posture classifications, for example, when the sitting position is finely classified into a chair sitting position and a flat sitting position, only the posture classifications can be increased. In the embodiment of the present invention, a processing flow is shown based on the configuration of FIG.

【0065】画像処理部3で算出した姿勢判別用の特徴
量150は図17に示したように姿勢判定部として構成
したニューラルネットに入力され、姿勢144を出力す
る。姿勢判定部のニューラルネットは実際に人を熱画像
の走査エリアのできるだけ着衣や体型の異なる多数の人
を、多数位置で特徴量データを検出し、その時の姿勢を
教師信号にしてニューラルネットに学習を行う。学習方
法はニューラルネットの種類により異なるが、例えば良
く知られたものとしてバックプロパゲーションと呼ばれ
る出力と正解との2乗誤差を少なくするように内部状態
を調整する最急降下法を用いた学習がある。姿勢判定部
からの信号152と信号153については、位置判定部
の説明の後に全体の流れのなかで説明する。位置判定部
161、162は、161が座位用で、162が立位用
である。各々の推定部は図13に示したようにニューラ
ルネットで構成されており、推定した人の位置154、
155を出力する。各々の位置判定部のニューラルネッ
トは実際に人を熱画像の走査エリアのできるだけ着衣や
体型が異なる多数の人を、多数位置で特徴量データを検
出し、その時のセンサからの位置を教師信号にしてニュ
ーラルネットに学習を行う。学習方法は姿勢判定部でも
説明したようにニューラルネットの種類により異なる
が、例えば良く知られたものとしてバックプロパゲーシ
ョンと呼ばれる出力と正解との2乗誤差を少なくするよ
うに内部状態を調整する最急降下法を用いた学習があ
る。位置推定用の特徴量151は位置判定部161、1
62に入力され、位置判定結果154、155を出力す
る。この2つの出力を選択または加工して出力する必要
があるが、大きく分けて154、155の選別する方法
は以下の2つがある。 (1)姿勢判定部の出力結果144に基づいて154か
叉は155を選択する。 (2)姿勢判定部の出力値152、153と154、1
55を加工して出力する。 (1)の方法は、一般的にはIF-THENルールに基
づいて行うものが多い。つまり IF 出力144が座位 THEN 154を出力 IF 出力144が立位 THEN 155を出力 という形が最も簡単な方法である。しかし、(1)の方
法は姿勢が曖昧な値(座位か立位かの判断がつかない場
合)がでた場合でも強制的にどちらかの選択をせざる得
ない。
The feature amount 150 for posture determination calculated by the image processing unit 3 is input to the neural network configured as a posture determination unit as shown in FIG. 17, and the posture 144 is output. The neural network of the posture determination unit actually learns a large number of people with different clothing and body shapes in the scanning area of the thermal image by detecting the feature amount data at multiple positions and learning the posture at that time as a teacher signal to the neural network. I do. The learning method differs depending on the type of neural network, but as a well-known method, there is learning using the steepest descent method called back propagation that adjusts the internal state to reduce the square error between the output and the correct answer. . The signal 152 and the signal 153 from the attitude determination unit will be described in the overall flow after the description of the position determination unit. In the position determination units 161, 162, 161 is for sitting and 162 is for standing. Each estimation unit is composed of a neural network as shown in FIG. 13, and the estimated human position 154,
155 is output. The neural network of each position determination unit actually detects a large number of people who have different clothing and body shapes in the scanning area of the thermal image and detects the feature amount data at a large number of positions, and uses the positions from the sensors at that time as teacher signals. Learn to the neural network. Although the learning method differs depending on the type of neural network as explained in the posture determination unit, for example, it is a well-known method that adjusts the internal state so as to reduce the square error between the output and the correct answer, which is called back propagation. There is learning using the steep descent method. The feature quantity 151 for position estimation is the position determination units 161, 1
The position determination results 154 and 155 are output to the input terminal 62. It is necessary to select or process these two outputs and output them. There are the following two methods for roughly selecting 154 and 155. (1) Select 154 or 155 based on the output result 144 of the posture determination unit. (2) Output values 152, 153 and 154, 1 of the posture determination unit
Process 55 and output. The method (1) is generally performed based on the IF-THEN rule. In other words, the simplest method is that the IF output 144 outputs the sitting THEN 154 and the IF output 144 outputs the standing THEN 155. However, in the method (1), even if the posture has an ambiguous value (when it is impossible to determine whether the posture is sitting or standing), either of them must be forcibly selected.

【0066】そこで、図18に示すように姿勢判別部か
らX154、X155の加工するための出力D152、
D153を出力し、以下の加工を行って画像情報検出部
の位置推定値9を出力する。
Therefore, as shown in FIG. 18, the output D152 for processing X154 and X155 from the posture determination unit,
D153 is output, the following processing is performed, and the position estimation value 9 of the image information detection unit is output.

【0067】 Y = D152 × X153 + D153 × X154 この利点は、X152、X153は姿勢判別結果は明確
な場合は、1叉0を出力するが、曖昧な場合は、0〜1
までの曖昧度に応じた値を出力するために、位置推定値
163はより正確な位置を推定することができる。な
お、姿勢判定部160の出力152、153の調整は、
ニューラルネットの学習として位置判定部の161、1
62の座位と立位別の学習が済んだ後に、座位と立位の
学習データを合わせて学習することにより実施すること
ができる。これらの学習方法は、構造化ニューラルネッ
トの学習法として、前述したバックプロパゲーションを
用いる等の方法である。なお、個人情報抽出部14は本
発明では画像処理部2で入れたが、後段の画像情報検出
部3に組み入れることも当然可能である。
Y = D152 × X153 + D153 × X154 This advantage is that X152 and X153 output 1 or 0 if the posture determination result is clear, but 0 to 1 if ambiguous.
The position estimation value 163 can estimate a more accurate position because a value corresponding to the ambiguity up to is output. The adjustments of the outputs 152 and 153 of the posture determination unit 160 are as follows.
Position determination units 161, 1 for learning the neural network
This can be performed by learning the sitting and standing learning data after learning of sitting and standing by 62. These learning methods are, for example, the above-mentioned back propagation method as a structured neural network learning method. Although the personal information extraction unit 14 is included in the image processing unit 2 in the present invention, it is naturally possible to incorporate the personal information extraction unit 14 into the image information detection unit 3 in the subsequent stage.

【0068】次に、個人情報抽出部14の詳細な説明を
する。個人情報抽出部14では第1の実施例の人数検出
および足元位置の検出と、在室者の姿勢の検出に加えて
皮膚温度の検出と、着衣量の検出を行う。図19は第1
の実施例における個人情報抽出部14の構成図である。
Next, the personal information extraction section 14 will be described in detail. The personal information extraction unit 14 detects the number of people and the position of the feet, detects the posture of the person in the room, and also detects the skin temperature and the amount of clothing in the first embodiment. FIG. 19 shows the first
It is a block diagram of the personal information extraction part 14 in the Example.

【0069】次に、皮膚温度検出方法について説明す
る。皮膚温度検出手段20では、室内に居る在室者の皮
膚表面温度の検出を行う。図20は皮膚温度検出手段2
0の構成図である。以下に、皮膚温度検出手段20につ
いて説明する。360は人間領域検出部13から得られ
る人間画素ブロックと姿勢検出手段18から得られる姿
勢から人間画素ブロックを体の部位に合わせて分割する
ブロック分割手段、361はブロック分割手段360で
分割されたブロックの平均温度を算出するブロック温度
算出手段、362はブロック温度算出手段361で得ら
れた各温度を比較し、体表面が現れている皮膚温度に対
応するブロックと衣服などで覆われているブロックを分
離する温度比較手段である。
Next, the skin temperature detecting method will be described. The skin temperature detecting means 20 detects the skin surface temperature of a person who is in the room. FIG. 20 shows the skin temperature detecting means 2.
It is a block diagram of 0. The skin temperature detecting means 20 will be described below. Reference numeral 360 denotes a block dividing unit that divides the human pixel block based on the human pixel block obtained from the human region detecting unit 13 and the posture obtained from the posture detecting unit 18 according to the body part, and 361 denotes the block divided by the block dividing unit 360. A block temperature calculating means for calculating the average temperature of the block 362 compares the respective temperatures obtained by the block temperature calculating means 361, and determines the block corresponding to the skin temperature at which the body surface appears and the block covered with clothes. It is a temperature comparison means for separating.

【0070】上記のように構成された皮膚温度検出手段
20について、以下にその動作を説明する。人間領域検
出部13から得られる人間画素ブロックを姿勢の情報を
用いて人体を頭部、胸部、左腕、右腕、腰部、脚部が含
まれるように最大6つに分割する。各ブロック分割はあ
らかじめ各姿勢毎に人間画素ブロックの分割標準パター
ンを決めておき、パターン認識を行う。その際、人物の
位置により人間画素ブロックの大きさが変わるので姿勢
検出手段13の変換手段122の標準化に用いた比率を
用いてブロック分割を行う。図21(a)および図21
(b)にブロック分割の例を示す。図21(a)は立位
の在室者の人間画素ブロックである。簡単のために大き
さは標準とする。この場合、Aは頭部を含むブロック、
Bは胸部を含むブロック、Cは右腕を含むブロック、D
は左腕を含むブロック、Eは腰部を含むブロック、Fは
脚部を含むブロックである。上記6ブロックに分割する
のは、各ブロックが、露出および被覆が独立に行われる
可能性がある身体の部位に対応するからである。図21
(b)は向かって左向きに、椅子に座っている在室者の
人間画素ブロックである。この場合、右腕は隠れている
ので分割は5つである。次に、ブロック温度算出手段3
61において、分割された各ブロックの画素値の平均を
求める。体表面が露出している場合はブロック平均温度
は高くなり、衣服などで覆われている場合は低くなる。
そこで、次に温度比較手段362であらかじめ定められ
たしきい値温度とブロック平均温度の比較を行い、前記
しきい値温度より高いブロックの中で、最大の平均値を
持つブロック平均温度を出力する。つまり、顔面のよう
に体表面が露出している部分が大きい場合、ブロック平
均温度は高くなるが、背景や体の衣服に覆われている部
位が同じ画素の中に入る場合ブロック平均温度は低くな
るので、一番高い平均温度を持つブロックが露出部分の
最も大きな体の部位と判断することができる。以上のよ
うな構成で皮膚温度の検出を行う。
The operation of the skin temperature detecting means 20 configured as described above will be described below. The human pixel block obtained from the human area detection unit 13 is divided into a maximum of six parts using the posture information so that the human body includes the head, chest, left arm, right arm, waist, and legs. In each block division, a human pixel block division standard pattern is determined in advance for each posture and pattern recognition is performed. At this time, since the size of the human pixel block changes depending on the position of the person, the block division is performed using the ratio used for the standardization of the conversion unit 122 of the posture detection unit 13. 21 (a) and 21.
An example of block division is shown in (b). FIG. 21A shows a human pixel block of a standing person in a room. The size is standard for simplicity. In this case, A is a block containing the head,
B is a block including the chest, C is a block including the right arm, D
Is a block including the left arm, E is a block including the waist, and F is a block including the legs. The division into the above six blocks is because each block corresponds to a part of the body where exposure and coating may occur independently. Figure 21
(B) is a human pixel block of an occupant sitting in a chair facing left. In this case, since the right arm is hidden, there are five divisions. Next, the block temperature calculation means 3
At 61, the average pixel value of each divided block is calculated. When the body surface is exposed, the average block temperature is high, and when it is covered with clothes, it is low.
Therefore, the temperature comparison means 362 then compares the predetermined threshold temperature with the block average temperature, and outputs the block average temperature having the maximum average value among the blocks having a temperature higher than the threshold temperature. . In other words, if the exposed part of the body surface is large like the face, the average block temperature will be high, but if the part covered by the background or body clothes is in the same pixel, the average block temperature will be low. Therefore, it can be judged that the block having the highest average temperature is the largest body part of the exposed portion. The skin temperature is detected with the above configuration.

【0071】次に、着衣量の検出方法について説明す
る。着衣量検出手段19では、熱画像より抽出される人
間のclo値を検出する。図22は着衣量検出手段の構
成図である。
Next, a method of detecting the clothing amount will be described. The clothing amount detecting means 19 detects the clo value of the person extracted from the thermal image. FIG. 22 is a block diagram of the clothing amount detecting means.

【0072】図22において363は面積比較手段で、
以上は図40の皮膚温度検出手段の構成と同様なもので
ある。ここで、検出対象としている着衣量はclo値と
呼ばれ、例えば、裸の状態で0、パンツのみの状態で
0.1、上下下着姿で0.3、半袖とズボンの夏服で
0.5、長袖と長ズボンの軽作業着で0.7、冬場の室
内における服装で1.0、3ピースの背広で1.5、冬
場の屋外着であるオーバーでは3.0の値が対応づけら
れている。着衣量は、体表面の面積のどの程度が衣服な
どで覆われているかと、覆われている部分がどの程度の
厚さなのかで定まる。そこで、着衣の厚さについては、
皮膚温度検出手段331の中の温度比較手段362で、
温度しきい値を設けることにより、体表面が衣服などで
覆われている着衣ブロックと露出している体表面ブロッ
クの分離を行うことが可能なので、その温度差をとるこ
とにより推測する。つまり、温度差が大きい場合は厚め
の着衣量、温度差が小さい場合は薄目の着衣量と判断で
きる。一方、体表面面積が衣服などでどの程度、覆われ
ているかについては、面積比較手段363で着衣ブロッ
クと体表面ブロックの2つに分離したブロックの画素数
を計数し、面積比を比較する。このことにより、裸体体
表面積に対する着衣表面積の比を、面積比から推測する
ことができる。さらに面積比較手段363では、前記着
衣の厚さと裸体体表面積に対する着衣表面積の比からc
lo値を対応付け、出力する。ここでは、快適度算出の
ためにclo値を出力したが、体表面の被覆面積比や着
衣表面温度を用いる快適度計算式を用いる場合はこれら
の値を直接出力ことも可能である。さらに、着衣量検出
のための特徴量と着衣量の関係をあらかじめニューラル
ネットに学ばせておきニューラルネットを用いclo値
を求めることも可能である。
In FIG. 22, 363 is an area comparison means.
The above is the same as the configuration of the skin temperature detecting means in FIG. Here, the clothing amount to be detected is called a clo value, and for example, it is 0 in a naked state, 0.1 in pants only, 0.3 in upper and lower underwear, and 0.5 in short-sleeved and trousers summer clothes. The value is 0.7 for light work clothes with long sleeves and trousers, 1.0 for indoor clothes in winter, 1.5 for three-piece suits, and 3.0 for overcoats in winter. ing. The amount of clothing is determined by how much of the surface area of the body is covered with clothes and how thick the covered portion is. So, regarding the thickness of clothes,
In the temperature comparing means 362 in the skin temperature detecting means 331,
By providing a temperature threshold value, it is possible to separate the clothing block whose body surface is covered with clothes from the exposed body surface block, and it is estimated by taking the temperature difference. That is, when the temperature difference is large, it can be determined that the amount of clothing is thick, and when the temperature difference is small, the amount of clothing is thin. On the other hand, regarding the extent to which the body surface area is covered with clothes or the like, the area comparison unit 363 counts the number of pixels of the blocks separated into the clothing block and the body surface block and compares the area ratios. This allows the ratio of the clothing surface area to the naked body surface area to be estimated from the area ratio. Further, in the area comparing means 363, c is calculated from the thickness of the clothing and the ratio of the clothing surface area to the naked body surface area.
The lo value is associated and output. Although the clo value is output here for the purpose of calculating the comfort level, these values can be directly output when the comfort level calculation formula using the coverage ratio of the body surface and the clothing surface temperature is used. Further, it is also possible to previously learn the relationship between the feature amount and the clothing amount for detecting the clothing amount in the neural network and obtain the clo value using the neural network.

【0073】次に図23に、環境情報抽出部15の構成
を示す。なお環境情報抽出部15は、必ずしも本画像処
理装置の必要不可欠な構成要素ではなく、必要に応じて
付加する構成要素である。370は足元位置情報と熱画
像から足元付近の温度を検出する足元温度検出手段、3
71は熱画像から壁と床の部位毎の平均温度を算出する
室内部位温度検出手段、372は足元温度検出手段37
0により検出される足元温度と室内部位温度検出手段3
71から検出される室内の各部位の温度と、足元位置検
出手段17から出力される足元位置情報から在室者毎の
輻射温度を検出する輻射温度検出手段である。以下に、
各手段について説明する。足元温度検出手段370につ
いて述べる。本手段は、室内の人間近くの床面温度を容
易にかつ正確に検出することを目的としている。室内の
熱画像を元に、人間近くの床面温度を検出しようとした
場合、問題となるのは、どこが床面であるのかの特定が
難しいという点と、床面の温度が必ずしも一様ではない
ため、人間近くの床面の温度を抽出しなければならない
点である。本発明では、まず室内の人間を切り出し、そ
の足元位置を検出した後、その周辺の画素から人間に与
える影響が大きいと思われる床面の温度を抜き出すとい
う手法を用いる。
Next, FIG. 23 shows the configuration of the environment information extracting section 15. The environment information extraction unit 15 is not necessarily an essential component of the image processing apparatus, but is a component added as necessary. 370 is a foot temperature detecting means for detecting the temperature near the foot from the foot position information and the thermal image, 3
Reference numeral 71 is an indoor part temperature detecting means for calculating an average temperature for each part of the wall and floor from the thermal image, and 372 is a foot temperature detecting means 37.
Foot temperature and room temperature detecting means 3 detected by 0
Radiation temperature detecting means for detecting the radiant temperature of each person in the room from the temperature of each part in the room detected from 71 and the foot position information output from the foot position detecting means 17. less than,
Each means will be described. The foot temperature detecting means 370 will be described. This means is intended to easily and accurately detect the floor surface temperature near a person in the room. When trying to detect the floor surface temperature near humans based on the indoor thermal image, the problem is that it is difficult to identify where the floor surface is and that the temperature of the floor surface is not always uniform. Since it does not exist, the temperature of the floor surface near humans must be extracted. In the present invention, a method is used in which a person inside a room is first cut out, the foot position thereof is detected, and then the temperature of the floor surface, which is considered to have a great influence on the person, is extracted from the pixels around it.

【0074】図24は足元温度検出手段370の構成を
示す構成図である。図24において、380は人間の足
元周辺の画素を抽出する周辺画素抽出手段、381は足
元温度を検出する足元温度算出手段である。足元温度算
出手段381は、アルゴリズムにより構成する方法、統
計処理を用いる方法およびニューラルネットワークを用
いる方法がある。本実施例では、ニューラルネットワー
クを例にして示す。
FIG. 24 is a block diagram showing the structure of the foot temperature detecting means 370. In FIG. 24, reference numeral 380 is a peripheral pixel extraction means for extracting pixels around a person's foot, and 381 is a foot temperature calculation means for detecting a foot temperature. The foot temperature calculation means 381 can be configured by an algorithm, a method using statistical processing, or a method using a neural network. In this embodiment, a neural network is taken as an example.

【0075】最初に、室内の人間画素ブロックと画素ブ
ロックの代表点を示す信号および熱画像は、周辺画素抽
出手段380に入力される。周辺画素抽出手段380で
は、熱画像より、人間足元領域に最も近いと思われる画
素4点の値を抽出し、周辺画素信号とする。周辺画素信
号と足元位置情報等の人間の足元周辺に関する情報を、
多層パーセプトロンである足元温度算出手段381に入
力する。ニューラルネットワーク使用の足元温度算出手
段381は、入力情報と入力情報に対する教師情報はそ
の位置で実際に計測した輻射温度として、あらかじめバ
ックプロパゲーション法を用いて十分な数のデータと適
当な教師信号を与えることで学習を行い、誤差が集束し
たとみなされる状態にあるものとする。なお、この足元
温度算出手段381においては、多層パーセプトロン以
外にも、LVQ等のニューラルネットワークのモデルを
使用することが可能である。このようにして足元温度検
出手段370において、周辺画素信号を元に処理され、
室内の人間の足元の床面温度が得られる。
First, the human pixel block in the room and the signal indicating the representative point of the pixel block and the thermal image are input to the peripheral pixel extracting means 380. The peripheral pixel extraction means 380 extracts the values of the four pixels that are considered to be closest to the human foot region from the thermal image and uses them as peripheral pixel signals. Information about the surroundings of human feet, such as peripheral pixel signals and foot position information,
It is input to the foot temperature calculating means 381 which is a multi-layer perceptron. The foot temperature calculating means 381 using a neural network uses a back propagation method to obtain a sufficient number of data and an appropriate teacher signal in advance, using the input information and the teacher information for the input information as the radiation temperature actually measured at that position. It is assumed that learning is performed by giving the error and that the error is considered to be converged. It should be noted that, in this foot temperature calculation means 381, it is possible to use a neural network model such as LVQ other than the multilayer perceptron. In this way, in the foot temperature detecting means 370, processing is performed based on the peripheral pixel signal,
The floor temperature at the feet of humans in the room can be obtained.

【0076】図25は足元温度検出手段370における
処理例を示す。390は画像記憶部12に取り込まれた
熱画像データである。391は、人間領域検出部13か
ら得られる人間画素ブロックである。次に人間画素ブロ
ック391を元に周辺画素抽出手段380により人間の
足元位置に対応する画素を検出し、人間の足元周辺の画
素を抽出するわけだが、今回は足元周辺画素を4画素と
した。これは、検出された足元位置を基準として、その
両外で人間領域外の2画素ずつが基本である。ただし、
人間領域が熱画像データの端に位置していたり、近接し
て他の人間領域があったりすると有効な画素が得られな
い。その場合は少ない画素から足元温度を検出してもよ
いが、足元温度検出装置に多層パーセプトロンを使用す
る場合は入力データの数が揃っている事が望ましいの
で、その周辺の画素の394に示すように、足元位置に
該当する画素を中心として優先順位リストを作成し、優
先順位の高いものから順に4画素を抽出するという手法
を用いた。このようにして抽出された4画素の値と足元
位置情報等が周辺画素信号になる。
FIG. 25 shows an example of processing in the foot temperature detecting means 370. Reference numeral 390 is thermal image data captured in the image storage unit 12. Reference numeral 391 is a human pixel block obtained from the human area detection unit 13. Next, based on the human pixel block 391, the peripheral pixel extraction means 380 detects the pixels corresponding to the foot position of the human and extracts the pixels around the foot of the human. This time, the foot peripheral pixels are set to 4 pixels. This is based on the detected foot position, and is basically two pixels outside the human area outside of the detected foot position. However,
If the human region is located at the edge of the thermal image data or if there is another human region in close proximity, effective pixels cannot be obtained. In that case, the foot temperature may be detected from a small number of pixels, but when a multi-layer perceptron is used for the foot temperature detecting device, it is desirable that the number of input data is uniform, and therefore, as shown in 394 of the surrounding pixels. In addition, a method is used in which a priority list is created centering on the pixels corresponding to the foot position and four pixels are extracted in descending order of priority. The values of the four pixels extracted in this way, the foot position information, and the like become peripheral pixel signals.

【0077】ニューラルネットワークを用いた足元温度
検出手段381の代わりに、周辺画素抽出手段380か
ら得られた4画素の値を平均して足元温度とする足元温
度検出手段を用いる方法もあり、より簡易な処理で実現
できる。
There is also a method of using a foot temperature detecting means for averaging four pixel values obtained from the peripheral pixel extracting means 380 to obtain a foot temperature instead of the foot temperature detecting means 381 using a neural network. It can be realized by simple processing.

【0078】次に、室内部位温度検出手段371につい
て説明する。壁上の2次元赤外線センサ11の取付位置
が中央、右、左のいずれかであるか、および室内の広さ
に関する情報が得られれば、熱画像上のどの位置に壁と
床の境界が現れるかがあらかじめ算出できる。そこで、
室内部位温度検出手段371では、これらの室内の広さ
およびエアコンの取付位置に関する情報を空気調和機に
スイッチを付けることにより得、これらの情報を基に壁
や床の境界線の画素を算出し、各境界線画素により囲ま
れる領域をそれぞれ3方面の壁と床とする。さらに、各
領域毎に平均温度を算出し、室内の各部位毎の平均温度
を算出する。ここで、発熱物体や隣室条件、日射などの
影響により、同一の床や壁でも部分的に温度が異なるこ
とがあるので、各部位を複数のブロックに分割して扱っ
てもよい。図26(a)は、空気調和機が8畳の正方形
の室内の一壁面に中央設置した場合の、壁及び床の熱画
像の見え方の例である。ここでは、床面を6分割してい
る。390は左壁、391は奥壁、392は右壁、39
3から398は6つに分割された床面ブロックである。
図26(b)は左設置の場合の壁及び床の熱画像の見え
方の例である。400は左壁、401は奥壁、402は
右壁、403から408は6つに分割された床面ブロッ
クである。このように、部屋の広さと空気調和機の設置
位置に関する情報を得ることにより、熱画像上のどの位
置に室内の各部位が現れるかをあらかじめ知ることがで
きる。
Next, the indoor part temperature detecting means 371 will be described. If information about whether the mounting position of the two-dimensional infrared sensor 11 on the wall is at the center, right, or left, and the size of the room, the boundary between the wall and the floor appears at the position on the thermal image. Can be calculated in advance. Therefore,
The indoor part temperature detecting means 371 obtains information about the size of the room and the installation position of the air conditioner by attaching a switch to the air conditioner, and calculates the pixels of the boundary line between the wall and the floor based on the information. , The areas surrounded by the respective boundary pixels are a wall and a floor in three directions. Further, the average temperature is calculated for each area, and the average temperature for each site in the room is calculated. Here, the temperature may be partially different even on the same floor or wall due to the influence of the heat-generating object, the condition of the adjacent room, the solar radiation, etc. Therefore, each part may be divided into a plurality of blocks to be handled. FIG. 26A is an example of how the thermal images of the wall and the floor are viewed when the air conditioner is centrally installed on one wall surface of an 8-mat square room. Here, the floor surface is divided into six. 390 is a left wall, 391 is a back wall, 392 is a right wall, 39
Floor blocks 3 to 398 are divided into six.
FIG. 26B is an example of how the thermal images of the wall and the floor are viewed in the case of installation on the left. 400 is a left wall, 401 is a back wall, 402 is a right wall, and 403 to 408 are floor blocks divided into six. In this way, by obtaining information about the size of the room and the installation position of the air conditioner, it is possible to know in advance which position on the thermal image each part in the room will appear.

【0079】次に、輻射温度検出手段372について説
明する。前記3方面の壁と床の各部位からの温度および
足元付近の温度から個人毎の輻射温度を算出する。従
来、輻射を考慮した機器として、床面上の離れた複数領
域の温度を計測し、より冷えた方の床面領域を優先的に
暖める空調機があるが、しかしながら、輻射温度を機器
制御指標の一部に用いる場合、床だけでは不十分で、室
外が寒い日など壁や窓からの輻射が大きい場合も多い。
また、床や壁は異なった物性値を持った材質や壁体構成
をしており、さらに人体に対する輻射の方向が床と各壁
面では異なるので、壁や床など各部位からの影響を分け
て考慮する方が輻射の算出については正確である。図2
7に輻射温度検出手段372の構成を示す。410は、
室内部位温度検出手段371で得られた室内の各部位の
画素ブロックの平均温度を算出する平均温度算出手段、
411は足元温度検出手段370から得られる足元温度
と平均温度算出手段410から得られる各部位毎の平均
温度から、個人毎の輻射温度を算出する輻射温度算出手
段である。輻射温度算出部では在室者付近の足元温度、
床面ブロックの平均温度、および室内の3方面の壁の平
均温度に合計が1となる例えば形態係数のような係数を
掛け加えることで、在室者毎に各部位からの輻射を算出
する。床面ブロックについては、在室者の位置に応じて
分割した床面の一部を用いることも可能である。
Next, the radiation temperature detecting means 372 will be described. The radiation temperature for each individual is calculated from the temperatures from the respective parts of the wall and floor in the three directions and the temperatures near the feet. Conventionally, as a device that considers radiation, there is an air conditioner that measures the temperature of multiple areas separated on the floor surface and preferentially warms the cooler floor surface area.However, the radiation temperature is a device control index. When used as a part of, the floor alone is not enough, and radiation from walls and windows is often large when it is cold outside.
In addition, the floor and walls have different physical properties and wall structures, and the direction of radiation to the human body differs between the floor and each wall, so the effects from each part such as the wall and floor should be considered separately. It is more accurate to calculate radiation. Figure 2
7 shows the configuration of the radiation temperature detecting means 372. 410 is
An average temperature calculating means for calculating the average temperature of the pixel blocks of each indoor part obtained by the indoor part temperature detecting means 371;
Reference numeral 411 is a radiation temperature calculation means for calculating the radiation temperature for each individual from the foot temperature obtained by the foot temperature detection means 370 and the average temperature for each part obtained by the average temperature calculation means 410. In the radiation temperature calculation part, the foot temperature near the occupant,
Radiation from each part is calculated for each person in the room by multiplying the average temperature of the floor block and the average temperature of the walls in the three directions in the room by a coefficient such as a view coefficient whose total is 1. For the floor block, it is possible to use a part of the floor surface divided according to the position of the person in the room.

【0080】次に、環境情報抽出部304の異なる構成
について説明する。図28において420は補助暖房検
出手段、421は床暖房検出手段で、以上は第1の実施
例における前記環境情報抽出部304の構成と同様なも
のである。ここでいう、補助暖房とはストーブや石油フ
ァンヒータなどの燃焼もしくは電熱型の暖房器である。
また、床暖房とは通常の床暖房に加え電気カーペットも
含む。補助暖房検出手段420では、補助暖房が人体温
度より高温であるために、計測された熱画像に、人体よ
り高いある温度しきい値を設けることにより検出する。
Next, a different configuration of the environment information extraction unit 304 will be described. In FIG. 28, reference numeral 420 is an auxiliary heating detecting means, 421 is a floor heating detecting means, and the above is the same as the configuration of the environment information extracting unit 304 in the first embodiment. Here, the auxiliary heating is a combustion or electric heating type heater such as a stove or an oil fan heater.
In addition to normal floor heating, floor heating includes electric carpet. Since the auxiliary heating is higher than the human body temperature, the auxiliary heating detection means 420 detects it by providing a certain temperature threshold value higher than the human body in the measured thermal image.

【0081】また、床暖房は人体温度に近い温度をして
いるので人間領域検出部13で人間画素ブロックとして
一度は検出されるが、床暖房検出手段421で、床暖房
の場合は熱画像上、面積が人体より大きいこと、および
形態が通常四角形であることから、切り出された人間画
素ブロックの大きさと形態とに範囲を設けて、床暖房有
無の判定を行う。また、床暖房検出の際に床暖房が電源
オン時およびオフ時を除いて時間と共にあまり変化しな
いことから、所定期間、切り出された人間画素ブロック
の変化を調べることで、人間画素ブロックの変化がない
ことを条件とし検出することも可能である。このことに
より、床暖房による直接床面からの伝熱の影響や、スト
ーブの燃焼などによる高い輻射の影響による算出快適度
に対する影響を補正することができる。また、例えば床
暖房や補助暖房がある場合は、省エネルギーもかねて快
適度を低めに抑えて空気調和機を制御することが可能で
ある。次に、画像処理部2の異なる構成について説明す
る。以降構成が異なるので画像処理部430とする。図
29を参照しながら画像処理部430の説明をする。4
31は人間領域補正部、432は累積処理部、433は
室内部位判定部である。
Further, since the floor heating has a temperature close to the human body temperature, it is once detected as a human pixel block by the human area detecting unit 13. Since the area is larger than the human body and the shape is usually a quadrangle, the size and shape of the cut out human pixel block are set to a range to determine whether floor heating is present. In addition, since the floor heating does not change much with time except when the power is turned on and off when the floor heating is detected, it is possible to detect the change in the human pixel block by examining the change in the cut out human pixel block for a predetermined period. It is also possible to detect it on the condition that it does not exist. As a result, it is possible to correct the influence of heat transfer directly from the floor surface due to the floor heating and the influence on the calculated comfort degree due to the influence of high radiation due to combustion of the stove. Further, for example, when there is floor heating or auxiliary heating, it is possible to control the air conditioner while keeping the comfort level low for the purpose of energy saving. Next, a different configuration of the image processing unit 2 will be described. Since the configuration is different thereafter, the image processing unit 430 is used. The image processing unit 430 will be described with reference to FIG. Four
Reference numeral 31 is a human area correction unit, 432 is an accumulation processing unit, and 433 is an indoor part determination unit.

【0082】最初に、人間領域補正部431について説
明する。前記人間領域検出部13では、温度分布を表す
画像の各画素に対して、その画素の温度値が、画素が人
間をとらえていると判断できる温度範囲に含まれていれ
ば、その画素を有効な画素として残し、そうでなければ
無効な画素として取り除くというような処理を行うこと
で人間領域画像が作成した。しかし、人間の服装などの
具合で、本来は人間をとらえている画素の温度値が、人
間をとらえていると判断できる温度範囲と合わず、その
画素が無効な画素として処理されるため、本来1つの領
域となるべき人間の領域が複数の領域に分断された人間
領域画像が作成されてしまう場合が発生する。この様な
人間領域検出部13の課題を人間領域補正部431では
補っている。
First, the human area correction section 431 will be described. In the human area detection unit 13, for each pixel of the image showing the temperature distribution, if the temperature value of the pixel is within the temperature range in which it can be determined that the pixel captures a human, the pixel is validated. The human region image is created by performing processing such as leaving the pixels as valid pixels and removing them as invalid pixels otherwise. However, the temperature value of a pixel that originally captures a human does not match the temperature range in which it can be determined that a human is captured due to factors such as human clothes, and that pixel is processed as an invalid pixel. There may be a case where a human region image is created in which a human region that should be one region is divided into a plurality of regions. The human area correction unit 431 compensates for the above-described problems of the human area detection unit 13.

【0083】人間領域補正部431の一実施例につい
て、図面を参照しながら説明する。図30において、4
40は切り出し画素接続手段、441は孤立点検索手
段、442は周辺画素検索手段である。
An embodiment of the human area correction unit 431 will be described with reference to the drawings. In FIG. 30, 4
Reference numeral 40 is a cutout pixel connecting means, 441 is an isolated point searching means, and 442 is a peripheral pixel searching means.

【0084】人間領域検出部13で検出された人間画素
ブロックは代表点と共に、切り出し画素接続手段440
に入力される。この人間画素ブロックの各画素の2次元
座標の周囲8画素に切り出された画素が存在するかどう
かの情報を生成するのが切り出し画素接続手段440で
ある。この接続情報を孤立点検索手段441に入力す
る。孤立点検索手段441は、接続情報に基づいて周囲
8画素に切り出された画素が存在しない孤立した点があ
るかどうかを確認し、孤立点情報を出力する。孤立点情
報は、周辺画素検索手段442に入力され、孤立点の2
次元座標の一画素離れた周囲16画素に切り出された画
素が存在するかどうかを検索する。周囲16画素に切り
出された画素が存在する場合は、その切り出し画素と連
結する。また、存在しない場合は、該当孤立点を消去す
る処理を行う。この結果、周辺画素検索手段442から
は、修正された人間画素ブロックが出力され、その中に
は孤立点を含まないことになる。ただし、画像の2次元
座標上の画素の位置によっては孤立点が存在する可能性
がある場合は、孤立点の座標により、消去および連結を
行わない例外処理を入れる。最後に再度修正された人間
画素ブロックを基に代表点の算出を行う。
The human pixel block detected by the human area detecting unit 13 is cut out together with the representative points, and the cut-out pixel connecting means 440 is used.
Entered in. The cut-out pixel connection unit 440 generates information as to whether or not there is a cut-out pixel in the eight pixels around the two-dimensional coordinates of each pixel of the human pixel block. This connection information is input to the isolated point search means 441. Based on the connection information, the isolated point search means 441 confirms whether or not there is an isolated point in which the pixels cut out into eight surrounding pixels do not exist, and outputs isolated point information. The isolated point information is input to the peripheral pixel search means 442, and the isolated point information 2
It is searched whether or not there is a clipped pixel in the surrounding 16 pixels, which is one pixel away from the dimensional coordinates. If there is a clipped pixel in the surrounding 16 pixels, it is connected to the clipped pixel. If it does not exist, a process of erasing the corresponding isolated point is performed. As a result, the corrected human pixel block is output from the peripheral pixel search means 442, and the isolated pixel is not included in it. However, when there is a possibility that an isolated point exists depending on the position of a pixel on the two-dimensional coordinates of the image, an exceptional process that does not perform erasure and connection is inserted depending on the coordinates of the isolated point. Finally, the representative point is calculated based on the corrected human pixel block again.

【0085】以上の人間領域補正部431は、画像に上
乗するノイズ除去や他の暖房器具が小さな人間領域とし
て判断されたり、人間の服装などの具合で、本来は1つ
の人間領域であるはずのものが分断されたりするような
場合においても、小さな人間領域を孤立点として消去し
たり、分断された人間領域の間を補完することにより、
正しく人間領域を抽出し、その人間領域画像から人間情
報が検出することができる。
The human area correction unit 431 described above should originally be one human area due to the noise removal on the image, the determination of other heating appliances as a small human area, and the appearance of human clothes. Even if something is divided, by deleting a small human area as an isolated point or by complementing between divided human areas,
It is possible to correctly extract a human area and detect human information from the human area image.

【0086】次に、累積処理部432について説明す
る。累積処理部432は、画像から領域の形状認識が正
確に行えない場合、人間や室内の情報の検出は難しい
が、人間と室内の情報を人間の動きと関連付けて、その
情報を有効に利用して容易に人間と室内情報を算出す
る。
Next, the accumulation processing section 432 will be described. If the shape of the area cannot be accurately recognized from the image, the accumulating unit 432 can detect information on the human and the room, but it can effectively use the information by associating the information on the human and the room with the motion of the human. And easily calculate human and indoor information.

【0087】図31に累積処理部の構成図を示す。図3
1において450は人間の位置の累積記憶手段A、45
1は静止物体判定手段、452は静止物体の画素位置記
憶手段、453は累積記憶手段B、454は室内代表点
判定手段を示す。
FIG. 31 shows a block diagram of the accumulator. Figure 3
In 1 the reference numeral 450 designates a cumulative storage means A, 45 for human positions.
Reference numeral 1 is a stationary object determining means, 452 is a stationary object pixel position storing means, 453 is a cumulative storing means B, and 454 is an indoor representative point determining means.

【0088】人間領域補正部431で得られた人間画素
ブロック代表点は、画像と同程度の解像度を持つ累積記
憶手段A450に記憶される。この累積記憶手段A45
0にはM枚の熱画像から検出された人間の代表点の画素
位置の回数が記憶される。M枚の熱画像についての累積
記憶が完了した累積記憶手段A450からの累積位置情
報は、静止物体判定手段451により人と静止物体の区
別等が行われ、検出された静止物体の画素位置記憶手段
452に記憶される。また、累積記憶手段A450はデ
ータを加工され累積記憶手段B453に記憶される。累
積記憶手段A450には人間の居た場所には1、人間が
居ない場所には0が記憶される。累積記憶手段A450
は、累積記憶手段B453にデータを記憶すると消去さ
れ、再度累積記憶が行われる。累積記憶手段B453
は、N回の累積記憶手段A450からのデータを書き込
んだ時点で、室内代表点判定手段454で後述のような
処理が実行され、消去される。累積記憶手段B453も
消去された後は、同様な処理を最初から実行される。累
積記憶手段B453のデータを処理することにより2次
元赤外線センサの室内の設置位置や室内の壁面や床面の
位置、および容積等が算出される。
The human pixel block representative points obtained by the human area correction unit 431 are stored in the accumulating storage means A450 having the same resolution as the image. This cumulative storage means A45
In 0, the number of times of the pixel position of the human representative point detected from the M thermal images is stored. The cumulative position information from the cumulative storage unit A450 where the cumulative storage of the M thermal images is completed is performed by the stationary object determination unit 451 to distinguish between a person and a stationary object, and the detected pixel position of the stationary object is stored. Stored in 452. The cumulative storage means A450 processes the data and stores it in the cumulative storage means B453. In the accumulative storage means A450, 1 is stored in the place where the human is and 0 is stored in the place where the human is not. Cumulative storage means A450
Is erased when the data is stored in the cumulative storage means B453, and the cumulative storage is performed again. Cumulative storage means B453
When the data from the cumulative storage means A450 is written N times, the indoor representative point determination means 454 performs the processing described below and erases the data. After the cumulative storage unit B453 is also deleted, the same processing is executed from the beginning. By processing the data of the accumulative storage means B453, the installation position of the two-dimensional infrared sensor in the room, the position of the wall surface or floor surface in the room, the volume, and the like are calculated.

【0089】次に図31の静止物体判定手段451の詳
細な処理を述べる。累積記憶A450内部には、熱画像
の各画素毎に人間の位置として検出された回数が格納さ
れている。例えば、2次元の累積記憶手段A450上の
座標(X2,Y2)における結果をSx2,y2とする。この回数
Sx2,y2は、しきい値TH1(正の整数)と比較され、TH1
よりも大きな値を示すものは、静止物体として静止物体
リスト(記憶)が作成される。図32では、Mを120
回にした例を示しているので、TH2を100にした。以
上のように、M枚熱画像の内、同じ位置の切り出された
回数が記憶されて累積記憶にMに近い値を持つ物体の位
置は、人と誤って切り出された静止物体(例えば、スト
ーブや電気カーペット等が挙げられる)であると判断す
ることができる。つまり、静止物体は動きがないため
に、その記憶された位置にはM値に近い数値が格納され
ているので、多少動きがある人体と区別することができ
る。
Next, detailed processing of the stationary object determining means 451 shown in FIG. 31 will be described. The cumulative storage A450 stores the number of times each pixel of the thermal image is detected as a human position. For example, the result at the coordinate (X2, Y2) on the two-dimensional cumulative storage means A450 is Sx2, y2. This number of times Sx2, y2 is compared with a threshold value TH1 (a positive integer), and TH1
A static object list (stored) is created as a static object having a larger value. In FIG. 32, M is 120
Since TH2 is shown as an example, TH2 is set to 100. As described above, among M thermal images, the position of an object that stores the number of times of cutting at the same position and has a value close to M in the cumulative memory is a stationary object (for example, a stove) accidentally cut out with a person. And electric carpets, etc.) can be determined. That is, since a stationary object does not move, a numerical value close to the M value is stored in the stored position, so that it can be distinguished from a human body having some movement.

【0090】次に、図33に、累積記憶手段A450の
情報を累積記憶手段B453に記憶する処理を示す。累
積記憶手段1のSx2y2の値をしきい値TH2と比較して Sx2y2 > TH2 の場合、累積記憶手段B453上の座標(x2,y2)に1を
書き込み、その他の場合は何もしない。この処理をN回
繰り返すことにより、累積記憶手段B453の1の領域
を確認すると人間の移動範囲を示すことになる。しきい
値TH2との比較は誤って人と検出された処理の結果を除
去するために行っている。累積記憶手段B453の情報
は、室内代表点判定手段454で処理することにより、
例えば、図34に示すような処理が行える。以下に、室
内代表点判定手段454について説明する。累積記憶手
段B453には人間の居た位置には1、居ない場所には
0が格納されので、これを水平方向に3つに分割する。
この分割されたブロックA,B,Cの領域毎に1の累計
を求める。求められた各ブロックの累計をSA、SB、S
Cの値を次のような判断を行い、空調機器が壁面上の中
央設置なのか、左設置なのか、右設置なのかを判断す
る。
Next, FIG. 33 shows a process of storing the information in the cumulative storage means A450 in the cumulative storage means B453. The value of Sx2y2 in the cumulative storage means 1 is compared with the threshold value TH2, and if Sx2y2> TH2, 1 is written in the coordinate (x2, y2) on the cumulative storage means B453, and nothing is done otherwise. By repeating this process N times, when the area 1 of the cumulative storage unit B453 is confirmed, the range of movement of the person is indicated. The comparison with the threshold value TH2 is performed in order to remove the result of the processing that is erroneously detected as a person. The information in the cumulative storage means B453 is processed by the indoor representative point determination means 454,
For example, the processing as shown in FIG. 34 can be performed. The indoor representative point determining means 454 will be described below. Since 1 is stored in the position where the person is present and 0 is stored in the place where the person is not stored in the cumulative storage means B453, it is divided into three in the horizontal direction.
A cumulative total of 1 is calculated for each of the divided areas of the blocks A, B, and C. The total of the obtained blocks is SA, SB, S
Determine the value of C as follows to determine whether the air conditioner is installed on the wall in the center, left, or right.

【0091】SA < TH で SC ≧ TH の場合はC側
設置とする。SC < TH で SA ≧ TH の場合はA側
設置とする。この他の場合は、中央設置とする。
If SA <TH and SC ≥ TH, install on the C side. If SC <TH and SA ≥ TH, install on the A side. In other cases, it will be installed centrally.

【0092】また、室内の床・壁面等の各部位も室内代
表点判定手段454で実行される。図35に室内の各部
位の判定の例を示す。図35において、累積記憶B45
3から得られる人間の移動範囲をA、B、C、Dで囲ま
れた範囲とする。Aの座標を(X1,Y1)、Bの座標を(X2,Y
2)、Cの座標を(X3,Y3)、Dの座標を(X4,Y4)とすると、
Aは、X1がしきい値TX以上で、Y1が最も大きな点とす
る。Bは、X2がしきい値TX未満で、Y2が最も大きな点と
する。Cは、X1がしきい値TX以上で、Y1が最も小さな点
とする。Dは、X2がしきい値TX未満で、Y2が最も小さな
点とする。これらA,B,C,Dは十分長い時間の累積
の下では、室内の人間の移動範囲である床面のの形態を
表す代表点となる。そこで、各代表点の座標を出力す
る。また、室内が四角形でない部屋についても床面形状
を代表する点を判定することができる。
Further, the indoor representative point determining means 454 also executes each part such as the floor and the wall surface in the room. FIG. 35 shows an example of determination of each part in the room. In FIG. 35, cumulative storage B45
The movement range of the human obtained from 3 is the range surrounded by A, B, C, and D. The coordinates of A are (X1, Y1) and the coordinates of B are (X2, Y1).
2), if the coordinates of C are (X3, Y3) and the coordinates of D are (X4, Y4),
In A, it is assumed that X1 is the threshold value TX or more and Y1 is the largest point. In B, it is assumed that X2 is less than the threshold value TX and Y2 is the largest point. In C, X1 is the threshold value TX or more and Y1 is the smallest point. In D, X2 is less than the threshold value TX and Y2 is the smallest point. Under the accumulation of a sufficiently long time, these A, B, C, and D become representative points that represent the form of the floor surface, which is the range of movement of a person in the room. Therefore, the coordinates of each representative point are output. In addition, it is possible to determine a point representative of the floor surface shape even in a room that is not a quadrangle.

【0093】累積処理部432は、可視画像を入力する
画像入力手段でも、エッジ、線や色を用いて人間の位置
を検出することにより、本発明の累積記憶部432によ
り人間と室内情報を獲得することができる。
The accumulator 432 also detects the position of a person by using an edge, a line, and a color even by an image input means for inputting a visible image, and thus the accumulator 432 of the present invention obtains information about the person and the room. can do.

【0094】次に、室内部位判定部433について説明
する。累積処理部432で得られた図35に示したごと
くA、B、C、Dのポイントが求められたら、A−B−
C−Dで囲まれた範囲を床面、A−D−D’−A’で囲
まれた範囲を左壁面、A−B−B’−A’で囲まれた範
囲を正面壁面、B−C−C’−B’で囲まれた範囲を右
壁面として判定する。各、床や壁と画素の対応関係は熱
画像の画素と同じ個数同じ形態を持った配列データ構造
を用意し、配列内に領域毎に異なった記号を代入するこ
とで、各画素がどの部位に対応するかを知ることができ
る。
Next, the indoor part determination section 433 will be described. When the points A, B, C, and D are obtained by the accumulating unit 432 as shown in FIG.
The area surrounded by CD is the floor surface, the area surrounded by ADD-A 'is the left wall surface, the area surrounded by ABB-A' is the front wall surface, and B- The area surrounded by CC′-B ′ is determined as the right wall surface. As for the correspondence between each floor and wall and pixels, prepare an array data structure with the same number and shape as the pixels of the thermal image, and substitute different symbols for each region in the array You can know if it corresponds.

【0095】以下、本発明の第2の実施例について説明
する。図36は本発明第2の実施例の構成図である。図
36は前述した図1に使用者が各種の情報を入力するコ
ンソール部460を設けたものである。コンソール部4
60からの情報以外の処理は、図1の説明で実施したの
で省略する。コンソール部460は熱画像からのでは検
出できない情報を、使用者が入力した情報に基づいて補
正することで、図1に示した画像情報検出部における足
元位置の検出や姿勢の検出の出力値を、より正確にでき
るようになる。例として、コンソール部からの情報を以
下に示す。
The second embodiment of the present invention will be described below. FIG. 36 is a block diagram of the second embodiment of the present invention. FIG. 36 shows a console unit 460 provided in FIG. 1 for the user to input various information. Console section 4
The processing other than the information from 60 is omitted because it has been described in FIG. The console unit 460 corrects the information that cannot be detected from the thermal image based on the information input by the user, so that the output values of the foot position detection and the posture detection in the image information detection unit illustrated in FIG. , Will be more accurate. As an example, the information from the console section is shown below.

【0096】赤外線センサを室内が見渡せる高さに設置
し、室内の熱分布を熱画像として走査する場合に、セン
サから見た場合の室内の左右、正面の壁面の位置を熱画
像から判定することは難しい。このため、使用者がセン
サからの正面の壁面や左右の壁面の距離を入力すること
により、位置判定部からの位置判定結果が正面の壁面以
上遠い位置の推定を行った場合は正面の壁面の位置まで
に修正したり、叉は壁面上の人以外の発熱物体として処
理することができる。また、壁面単位の温度分布の識別
できるために、位置判定部で推定された人の位置におけ
る温熱環境の快適度合いを推測することができる。
When the infrared sensor is installed at a height overlooking the room and the heat distribution in the room is scanned as a thermal image, the positions of the left and right walls and the front wall surface of the room when viewed from the sensor are determined from the thermal image. Is difficult Therefore, when the user inputs the distance between the front wall surface and the left and right wall surfaces from the sensor, if the position determination result from the position determination unit estimates the position farther than the front wall surface, It can be corrected to the position or treated as a heat-generating object other than a person on the wall. Further, since the temperature distribution of each wall surface can be identified, the comfort level of the thermal environment at the position of the person estimated by the position determination unit can be estimated.

【0097】以下、本発明の第3の実施例について説明
する。図37は本発明第3の実施例の構成図である。図
37は図36に可視画像のセンサ部470(カメラ)
と、可視画像処理部472と、可視画像情報検出部47
3を付加させ、画像処理装置としての機能を高めたのも
である。
The third embodiment of the present invention will be described below. FIG. 37 is a block diagram of the third embodiment of the present invention. FIG. 37 shows a visible image sensor unit 470 (camera) in FIG.
A visible image processing unit 472 and a visible image information detection unit 47
3 is added to enhance the function of the image processing apparatus.

【0098】可視カメラを用いた画像処理装置の利用方
法として監視システムがある。従来から、監視システム
では人が可視画像を常時監視していることが行われてい
る。これは、可視画像から人の認識を行う技術の開発が
行われているが、実用化に至ったものは少ない。しか
し、可視画像から動き物体を検出技術は実用化されてい
るものが多い。これは、可視画像のS/N比が向上して
いるために時間的に連続した可視画像の差分をとること
により動き物体の検出が簡易に行えることが挙げられ
る。しかし、動きによって捉えられる物体は人以外も含
まれるために、動き物体から人を正確に捉えることは難
しい。また、動きの少ない人の検出も不可能である。こ
れに対して、赤外線画像は発熱物体としての人間を捉え
ることは非常に容易である。ただし、人以外の発熱物体
も検出されるので、この区分けは難しい。この様に、可
視画像処理の得意とする検出と赤外線画像処理の得意と
する検出を合わせて、より正確な人間または環境の情報
を検出しようとするのが図37に示した装置である。
There is a monitoring system as a method of using an image processing apparatus using a visible camera. 2. Description of the Related Art Conventionally, in a monitoring system, a person constantly monitors a visible image. The technique for recognizing a person from a visible image is being developed, but few have been put to practical use. However, many techniques for detecting a moving object from a visible image have been put into practical use. This is because the S / N ratio of the visible image is improved, and thus the moving object can be easily detected by taking the difference between the temporally continuous visible images. However, it is difficult to accurately capture a person from a moving object because the objects captured by the movement include people other than the person. In addition, it is impossible to detect a person who moves little. On the other hand, an infrared image is very easy to catch a human being as a heat generating object. However, this classification is difficult because heat-generating objects other than humans are also detected. As described above, the apparatus shown in FIG. 37 attempts to detect more accurate human or environmental information by combining detection that is good at visible image processing and detection that is good at infrared image processing.

【0099】図37に基づいて処理の流れを示す。外界
4から得られた情報5の内、カメラ470で可視光を検
知して可視画像473を得る。可視画像473は、可視
画像処理部471に転送され前処理や時間的な連続画像
の差分処理等を行われる。次に可視画像情報検出部47
2において、動き情報を検出する。この情報475、4
76として、動き物体の有り無し、その数、動き物体の
位置等を画像処理部2と画像情報検出部3に伝達する。
また情報477に基づいて、画像処理部2では人の領域
検出処理における領域の数やその位置を参考に領域検出
を行う。また、可視画像情報検出部472は、動き物体
の有り無し、その数、動き物体の位置と、画像情報検出
部3で検出した人の位置との対応を取りながら、外界4
における人の情報474を検出する。
The flow of processing will be described with reference to FIG. Of the information 5 obtained from the outside world 4, a visible light is detected by the camera 470 to obtain a visible image 473. The visible image 473 is transferred to the visible image processing unit 471 and subjected to preprocessing, temporal continuous image difference processing, and the like. Next, the visible image information detection unit 47
At 2, motion information is detected. This information 475, 4
As 76, the presence / absence of a moving object, the number thereof, the position of the moving object, etc. are transmitted to the image processing unit 2 and the image information detecting unit 3.
Further, based on the information 477, the image processing unit 2 performs area detection with reference to the number of areas and their positions in the human area detection processing. In addition, the visible image information detecting unit 472 associates the presence / absence of moving objects, the number of moving objects, the position of the moving object, and the position of the person detected by the image information detecting unit 3 with the external environment 4
To detect the person information 474 in.

【0100】可視画像処理部472と画像情報検出部3
の相互の情報により検出する対象の例を以下に示す。 例1:可視画像処理部471または可視画像情報検出部
472で検出された動き物体が、人であるかどうかを、
熱画像から情報を検出する画像情報検出部3で検出した
人の位置とマッチさせて判断を行う。 例2:画像情報検出部3で検出した人の位置から算出し
た可視画像の位置に、人の検知マークを示し、使用者が
可視画像上で確認し易くする。 例3:画像情報検出部3で検出した人の姿勢が座位の場
合のみ、対象者が静止者である可能性が高いので、その
人の位置を可視画像上にマークする。 例4:画像情報検知部3で検出した人の姿勢が座位の場
合、画像情報検出部3から情報476に伝え、可視画像
処理部471で処理した結果と合わせて、可視画像情報
検出部472で、人の情報474を作成する。 例5:画像情報検知部3で検出した人の位置や姿勢を情
報476に伝え、その情報476を教師信号にして、可
視画像処理部にニューラルネット等の学習機構を持つ処
理系で構成し、人の認識処理を進化させる。 例6:可視画像処理部471および可視画像情報検出部
472で検出した動き情報信号から、検出した人の位置
を情報475として伝え、その情報475を教師信号と
して、前述した画像情報検出部3内部のニューラルネッ
ト等の学習機構を持つ処理系の能力を学習、進化させ
る。
Visible image processing unit 472 and image information detection unit 3
An example of an object to be detected by the mutual information of is shown below. Example 1: Whether the moving object detected by the visible image processing unit 471 or the visible image information detection unit 472 is a person,
The judgment is performed by matching the position of the person detected by the image information detecting unit 3 which detects information from the thermal image. Example 2: A detection mark of a person is shown at the position of the visible image calculated from the position of the person detected by the image information detection unit 3 so that the user can easily check the visible image. Example 3: Only when the posture of the person detected by the image information detection unit 3 is the sitting position, there is a high possibility that the target person is a stationary person, so the position of the person is marked on the visible image. Example 4: When the posture of the person detected by the image information detection unit 3 is sitting, the image information detection unit 3 notifies the information 476 and the visible image processing unit 471 processes the result together with the visible image information detection unit 472. , Person information 474 is created. Example 5: The position and posture of a person detected by the image information detection unit 3 are transmitted to the information 476, the information 476 is used as a teacher signal, and the visible image processing unit is configured by a processing system having a learning mechanism such as a neural network, Evolution of human recognition processing. Example 6: From the motion information signal detected by the visible image processing unit 471 and the visible image information detection unit 472, the detected position of the person is transmitted as information 475, and the information 475 is used as a teacher signal. Learn and evolve the capabilities of processing systems that have learning mechanisms such as neural networks.

【0101】次に図38について説明する。図38は、
前述した図7の情報474や画像情報検出部の出力を入
力として、統合的に処理する監視情報検出部480を設
けて、不審者警告481や異常情報482を出力する。
その情報統合の例としては、カメラ470やセンサ部1
で計測しているエリアが、人が留まるべきでないとき
に、進入した人についての動きがあるときには情報47
4から動き情報が出力され、なおかつ画像情報検出部3
から人の位置情報が出力されるが、そのエリア内で姿勢
が座位として検知させた後、人の位置が変化しなくな
り、ある時間以上その状態が継続するようであれば、不
審者警告信号481と異常情報482を出力する。この
ように可視画像や赤外線画像から得られる時間的に連続
した情報と先見的な知識と使って情報を、検出場合にも
ちいることができる。
Next, FIG. 38 will be described. FIG. 38 shows
The monitoring information detection unit 480 that performs integrated processing by using the information 474 of FIG. 7 and the output of the image information detection unit described above is provided, and the suspicious person warning 481 and the abnormality information 482 are output.
Examples of the information integration include the camera 470 and the sensor unit 1.
If there is movement about the person who entered when the area measured by the
4 outputs motion information, and the image information detection unit 3
Although the position information of the person is output from the suspicious person warning signal 481 if the position of the person does not change after the posture is detected as sitting in the area and the state continues for a certain time or longer. And the abnormality information 482 is output. In this way, information can be used for detection by using temporally continuous information obtained from a visible image or an infrared image and a priori knowledge.

【0102】また、コンソール部460よりセンサ部で
の計測エリア内の人の進入禁止エリアを設定して、その
エリアに進入する人を検出することも可能である。
It is also possible to set an area where people are prohibited from entering within the measurement area of the sensor section from the console section 460 to detect a person who enters the area.

【0103】また、本画像処理装置は監視システムのみ
ならず図39に示すように、可視画像情報検出部472
と画像情報検出部3の出力と、前述の例に示した適応学
習部490部の出力から、情報を統合し、個人識別部4
94において検出エリア内の個人の識別または追尾を行
うこともできる。つまり例えば、可視画像情報検出部4
91から人間の着衣の色に関する情報または体格に関す
る情報491が得られ、画像情報検出部3から姿勢や足
元位置情報492が得られる場合、適応学習部492で
は、人間の位置と姿勢と体格と着衣の色などから個人を
識別するための特徴を学習する。個人識別部494では
適応学習部490から得られる特徴量をもとに、パター
ン認識を行い個人の識別を行う。このことにより、精度
の高い個人識別が可能となる。
In addition to the monitoring system, the present image processing apparatus includes a visible image information detecting section 472 as shown in FIG.
Information is integrated from the output of the image information detection unit 3 and the output of the adaptive learning unit 490 shown in the above-mentioned example, and the personal identification unit 4
It is also possible to identify or track individuals within the detection area at 94. That is, for example, the visible image information detection unit 4
When the information 91 about the color of the clothing of the person or the information about the physique is obtained from 91, and the posture and the foot position information 492 is obtained from the image information detecting unit 3, the adaptive learning unit 492 causes the position and posture of the human being, the physique and the clothing. Learn the features to identify an individual from the colors of. The individual identification unit 494 performs pattern recognition based on the feature amount obtained from the adaptive learning unit 490 to identify an individual. This allows highly accurate personal identification.

【0104】最後に、前述した本発明の画像処理装置を
統合したシステムの構成例を示す。図40に基づいて全
体の構成を説明する。図40は前述した本発明の画像処
理装置500〜502、3台の画像処理装置からの情報
をまとめて処理する統合処理部503により構成され
る。3台の画像処理装置500〜502は各々別の角度
または違う計測エリアを持つ。3台の装置から得られた
情報504から506を統合処理部503で時間的、空
間的に処理を行い、人の追尾や人の位置および姿勢等の
情報507または環境情報508を出力する。以下に具
体的な例として2例を示す。
Finally, a configuration example of a system in which the above-described image processing device of the present invention is integrated will be shown. The overall configuration will be described with reference to FIG. FIG. 40 is composed of the above-described image processing apparatuses 500 to 502 of the present invention and an integrated processing unit 503 that collectively processes information from the three image processing apparatuses. The three image processing devices 500 to 502 have different angles or different measurement areas. The integrated processing unit 503 temporally and spatially processes the information 504 to 506 obtained from the three devices, and outputs information 507 such as a person's tracking, a person's position and posture, or environmental information 508. Two specific examples will be shown below.

【0105】例1:画像処理装置500〜502を各々
別の地点からほぼ同一のエリアを計測、処理を行う。画
像処理装置500〜502の各々のコンソール部から各
々の観測ポイントや配置関係を入力しておく。画像処理
装置500では人が重なって一人の人間として位置や姿
勢を判別していた場合に、画像処理装置501、502
から得られた情報が複数人の位置や姿勢を示している場
合には統合処理部503で、画像処理装置500〜50
2の配置から、人間に関する正確な情報507を検出し
て出力する。
Example 1: The image processing apparatuses 500 to 502 measure and process almost the same area from different points. The observation points and the positional relationship are input from the consoles of the image processing apparatuses 500 to 502. In the image processing apparatus 500, when the person is overlapped and the position and the posture are determined as one person, the image processing apparatuses 501 and 502.
When the information obtained from the information indicates the positions and postures of a plurality of people, the integrated processing unit 503 causes the image processing devices 500 to 50
Accurate information 507 about a person is detected from the arrangement of 2 and output.

【0106】例2:画像処理装置500〜502を各々
別の方向のエリアを計測、処理を行う。画像処理装置5
00〜502の各々のコンソール部から各々の観測ポイ
ントや配置関係を入力しておく。画像処理装置500で
検出され人が画像処理装置500の計測エリアから去っ
て、画像処理装置501の計測エリアに進入して去った
後に、画像処理装置502の計測エリアに進入した後に
座位で静止した。このような場合に時間的に連続する人
の動き、位置、姿勢を統合処理部503で処理し、情報
507として出力する。
Example 2: The image processing apparatuses 500 to 502 measure and process areas in different directions. Image processing device 5
Each observation point and arrangement relation are input from each console section of 00 to 502. A person detected by the image processing apparatus 500 leaves the measurement area of the image processing apparatus 500, enters and leaves the measurement area of the image processing apparatus 501, and then enters a measurement area of the image processing apparatus 502 and then stands still in a sitting position. . In such a case, the integrated processing unit 503 processes the movement, position, and orientation of a person who is temporally continuous, and outputs the information as information 507.

【0107】なお、例1、2を同時に実行させるため
に、画像処理装置500を多数用意して空間的、時間的
な処理を行うこともできる。
In order to execute Examples 1 and 2 at the same time, it is possible to prepare a large number of image processing apparatuses 500 and perform spatial and temporal processing.

【0108】以上の画像処理装置の具体的な応用機器と
しては、画素数のあまり多くない画像からの人間や環境
情報を検出する監視装置が考えられる。画素数をあまり
必要とせず、画像処理が容易で検出する情報量に問題が
ない場合、画素数が少ない方がコストが安価であるため
用いられやすい。さらに可視画像と熱画像を併用するこ
とで特に人間情報の検出精度が高くなる。
As a concrete application device of the above image processing device, a monitoring device for detecting human or environmental information from an image having a small number of pixels can be considered. When the number of pixels is not required so much, the image processing is easy and there is no problem in the amount of information to be detected, the smaller the number of pixels, the lower the cost and the more easily used. Further, the combined use of the visible image and the thermal image enhances the detection accuracy of human information in particular.

【0109】また、医療や介護といった人の看護におい
ても、被看護者が在床しているか、目を覚ましている
か、体を起こしているか、眠っているかなどの状態を、
看護する人が24時間そばにいなくても看護できる装置
が、本画像処理装置を用いることで可能となる。また着
衣量や皮膚温度が検出し、寝具がずれていないか、体温
が通常より高くないかなどの判断をすることも可能であ
る。
Also, in the care of a person such as medical care and nursing care, the state such as whether the person being cared for is awake, awake, awake, or asleep,
By using this image processing apparatus, a device that can be cared for even if the caregiver is not around for 24 hours becomes possible. It is also possible to detect the amount of clothing and the skin temperature, and judge whether the bedding is displaced or whether the body temperature is higher than usual.

【0110】以下、本発明の画像処理装置を用いた空気
調和機の制御装置について第4の実施例について説明す
る。
A fourth embodiment of an air conditioner control apparatus using the image processing apparatus of the present invention will be described below.

【0111】図41は第4の実施例の構成図である。6
01はセンサ部で、室内の温度分布を計測する2次元赤
外線センサ602と、室温センサ603と湿度センサ6
04と外気温センサ605で構成される。606は画像
処理装置で、2次元赤外線センサ602は画像処理装置
606のセンサ部と共有している。610は、風向風量
情報である。快適度検出部613において、在室者毎の
床面上の足元位置が画像処理装置606検出されるの
で、吹き出し口からの風向と風量が分かれば、床面上の
任意の位置における空気調和機による気流(m/s)を
算出することができる。そこで、風向を決定する上下お
よび左右のフラップの角度と、風量を決定する室内機フ
ァンの回転数をなどの風向風量情報610を空調機から
得ることで、それぞれの位置における在室者毎の気流の
強さの算出を行う。611は制御指標決定部で活動量検
出部612と、快適度PMVを算出する快適度検出部6
13で構成される。614は空調制御部であり、615
はカレンダである。
FIG. 41 is a block diagram of the fourth embodiment. 6
Reference numeral 01 denotes a sensor unit, which is a two-dimensional infrared sensor 602 for measuring the temperature distribution in the room, a room temperature sensor 603, and a humidity sensor 6.
04 and an outside air temperature sensor 605. Reference numeral 606 denotes an image processing apparatus, and the two-dimensional infrared sensor 602 is shared with the sensor unit of the image processing apparatus 606. Reference numeral 610 is wind direction air volume information. In the comfort level detection unit 613, the foot position on the floor surface of each person in the room is detected by the image processing device 606. Therefore, if the wind direction and the air volume from the outlet are known, the air conditioner at an arbitrary position on the floor surface can be obtained. The airflow (m / s) can be calculated. Therefore, by obtaining wind direction air volume information 610 such as the angles of the upper and lower flaps and the left and right flaps that determine the wind direction and the rotation speed of the indoor unit fan that determines the air volume from the air conditioner, the air flow for each occupant at each position. The strength of is calculated. Reference numeral 611 denotes a control index determination unit, and an activity amount detection unit 612 and a comfort level detection unit 6 that calculates a comfort level PMV.
It is composed of 13. 614 is an air conditioning control unit, and 615
Is a calendar.

【0112】次に、制御指標決定部611について説明
する。第1の実施例における制御指標決定部611では
在室者毎の快適度を算出し、優先的に空調する制御対象
を選択する。快適度算出のために、人間的要素として在
室者毎に活動量算出と着衣量推測を行う。また、環境的
要素としては室温、湿度、輻射温度および気流は環境情
報抽出部から得る。以下に、活動量検出部、快適度検出
部の順で説明する。
Next, the control index determination unit 611 will be described. The control index determination unit 611 according to the first embodiment calculates the comfort level for each person in the room and selects the control target for preferential air conditioning. In order to calculate the comfort level, the amount of activity is calculated and the amount of clothing is estimated for each person in the room as a human factor. Further, as environmental factors, room temperature, humidity, radiation temperature, and airflow are obtained from the environmental information extraction unit. Hereinafter, the activity amount detection unit and the comfort level detection unit will be described in this order.

【0113】制御指標として快適度としてPMVを制御
指標とする場合、人間の状態として活動量が重要な要素
であることは知られている。PMVで用いられる活動量
は、MET値と呼ばれ、MET値と人の状態の関係は、
臥位で横になりリラックスしている場合でMET値0.
8、静かに椅子に座っている状態で1.0、立位でリラ
ックスしている状態で1.4、立位で軽作業をしている
状態で1.6、時速3キロメートルで歩行している状態
で2.0、時速5キロメートルで走っている場合や激し
く動いている状態で3.0である。通常、家庭内では標
準的な生活を行っている場合、0から2.0の間のME
T値をとる。従来の活動量の検出方法は、ある領域の発
熱物体の動きを赤外線センサで検出し、その出力値の大
きさで活動量の大小を判断していた。しかしながら、上
記従来の活動量検出方式では、例えば室内に複数の在室
者が居て何人かは静止していても、他の在室者が室内を
動き回れば一律的に活動量が大きい状態であると判断さ
れ、活動量の大きな人に合わせて空調機が制御されてし
まうという課題があった。また、活動量を検出するため
の赤外線センサの検出領域も室内の一部だけであるだけ
でなく、赤外線センサの出力値と実際の人の動きの関係
付けが曖昧であるため活動量の検出精度は低かった。そ
こで、本発明では上記従来の課題を解決するために、室
内の広い範囲について在室者の位置を検出し、在室者毎
の現在位置に対する静止継続時間である滞在頻度を求め
ることで、在室者毎の活動量を検出する。
It is known that when PMV is used as a control index as a comfort index as a control index, the amount of activity is an important factor as a human state. The amount of activity used in PMV is called the MET value, and the relationship between the MET value and the human state is
When lying down in a lying position and relaxing, the MET value is 0.
8. Quietly 1.0 while sitting on a chair, 1.4 when standing and relaxing, 1.6 when doing light work while standing, walking at 3 kilometers per hour It is 2.0 when the vehicle is running, and 3.0 when the vehicle is running at 5 kilometers per hour or when it is moving violently. Usually, if you have a standard life in your home, you will have an ME between 0 and 2.0.
Take a T value. In the conventional activity amount detection method, the movement of a heat-generating object in a certain area is detected by an infrared sensor, and the magnitude of the activity amount is determined by the magnitude of the output value. However, in the above-described conventional activity amount detection method, for example, even if there are a plurality of people in the room and some are stationary, if other people move around the room, the activity amount is uniformly large. There was a problem that the air conditioner was controlled according to the person who was judged to have a large amount of activity. In addition, the detection area of the infrared sensor for detecting the amount of activity is not only in a part of the room, but because the relationship between the output value of the infrared sensor and the actual movement of the person is ambiguous, the detection accuracy of the amount of activity is Was low. Therefore, in order to solve the above-described conventional problems, the present invention detects the position of an occupant in a wide range of the room, and obtains the stay frequency, which is the stationary duration with respect to the current position of each occupant, Detect the amount of activity for each person in the room.

【0114】図42に第1の実施例の活動量検出部61
2の構成図を示す。620は在室者の足元位置情報を記
憶しておくための個人情報記憶手段、621はあらかじ
め複数領域に分割した各床面領域毎の滞在頻度を計数す
る滞在頻度算出手段、622は滞在頻度と活動量を関係
付ける活動量算出部である。以上のように構成された活
動量検出装置について、その動作を説明する。
FIG. 42 shows the activity amount detector 61 of the first embodiment.
2 shows a configuration diagram of No. 2. Reference numeral 620 is a personal information storage means for storing the foot position information of the occupants, 621 is a stay frequency calculation means for counting the stay frequency of each floor area divided into a plurality of areas in advance, and 622 is a stay frequency. It is an activity amount calculation unit that relates activity amounts. The operation of the activity amount detecting device configured as described above will be described.

【0115】室内が8畳の正方形の部屋である場合、人
の位置検出用に図43(a)に示すように、あらかじめ
床面を、例えば60cmを単位として6×6に分割し、
位置番号としてナンバリングしておく。画像処理装置6
06により得られた在室者毎の床面位置は個人情報とし
て個人情報記憶手段620に記憶される。図43(b)
に個人情報記憶手段620に記憶されている個人情報の
例を示す。個人情報には計測された時刻、そのときの在
室者の人数、各在室者の床面番号が人数分記載されてい
る。次に滞在頻度算出手段621では、サンプリング周
期30秒で現在時点から過去3分間の足元位置情報を用
いる場合、個人情報の中の床面位置番号から各床面番号
毎の滞在者の頻度を計数する。そして、現時点の画像処
理装置606で得られた在室者の床面番号に対応する滞
在頻度の部分だけを抽出する。
When the room is a square room with 8 tatami mats, as shown in FIG. 43 (a) for detecting the position of a person, the floor surface is divided into 6 × 6 in units of 60 cm, for example,
Number it as a position number. Image processing device 6
The floor surface position for each occupant obtained by 06 is stored in the personal information storage unit 620 as personal information. Fig. 43 (b)
An example of personal information stored in the personal information storage unit 620 is shown in FIG. In the personal information, the measured time, the number of persons in the room at that time, and the floor number of each person in the room are described for the number of persons. Next, the stay frequency calculation means 621 counts the frequency of the visitor for each floor number from the floor position number in the personal information when using the foot position information for the past 3 minutes from the present time with a sampling cycle of 30 seconds. To do. Then, only the portion of the stay frequency corresponding to the floor number of the occupant obtained by the image processing apparatus 606 at the present time is extracted.

【0116】図44(a)に床面位置に対応する滞在頻
度の例を示す。位置番号32の滞在頻度は6で静止して
いると考えられ、位置番号17の人の滞在頻度は1でど
こか他の位置から移動して来たばかりであると考えられ
る。位置番号9の人は、9の位置に滞在して2分しか経
過していないか、3分の時間の中で途中に1分間どこか
別の場所に移動したと考えることができる。ここで得ら
れた滞在頻度は、当該床面位置に対して過去にどの程
度、在室者が静止していたかを表す指標となる。つまり
人が移動している場合は30秒のサンプリング周期では
計測間隔が長すぎて在室者毎の移動距離などを算出する
ことはできず、人の移動距離を活動量として用いること
はできない。しかし、室内においては人は移動している
より静止していることが多いため、30秒程度の長い時
間間隔でも同じ位置に人がいれば、同じ人が滞在し続け
ていると判断して良い場合が多い。
FIG. 44 (a) shows an example of the stay frequency corresponding to the floor surface position. It is considered that the stay frequency of the position number 32 is 6, and it is considered to be stationary, and the stay frequency of the person of the position number 17 is 1, and it is considered that the person has just moved from some other position. It can be considered that the person having the position number 9 has stayed at the position 9 and only two minutes have passed, or that he / she moved to another place for one minute during the three minutes. The stay frequency obtained here is an index indicating to what extent the occupant has been stationary in the past with respect to the floor surface position. That is, when a person is moving, the measurement interval is too long in the sampling period of 30 seconds and the moving distance of each person in the room cannot be calculated, and the moving distance of the person cannot be used as the activity amount. However, since the person is often stationary in the room rather than moving, it may be determined that the same person continues to stay if the person is in the same position even at a long time interval of about 30 seconds. In many cases.

【0117】活動量算出手段622では滞在頻度算出手
段621で得られた、現在の在室者毎の滞在頻度と活動
量を関係づける。図44(b)に関係付けの対応関係の
例を示す。滞在頻度が最大値の6の場合静止していると
考えられるので活動量は1.0である。滞在頻度が5は
静止しつつも多少移動した可能性が考えられるので活動
量1.2、滞在頻度3、4については静止状態への過渡
的な状態か、他の在室者の滞在頻度を取り込んだ可能性
があるので中程度の1.6、滞在頻度1、2については
別の場所から移動してきたばかりなので高い活動量2を
対応付けた。この対応付けは個人情報記憶手段5で記憶
するサンプルの数によって変わってくる。このようにし
て、逐次この滞在頻度を算出することによって、静止度
合いの高い人の場合は、滞在頻度が最大頻度近辺の値を
出力し続け、掃除などのように移動していることが多い
場合は滞在頻度が小さい値が出力され続けるので、精度
良く活動量を検出することができる。また、静止者と活
動的な在室者の分離が可能なので、活動量の高い在室者
と活動量の低い在室者が在室している場合は、制御指標
である快適度を活動量の低い在室者に合わせることもで
きる。
The activity amount calculating means 622 associates the activity frequency with the stay frequency obtained for each staying person by the stay frequency calculating means 621. FIG. 44 (b) shows an example of the correspondence relationship. When the stay frequency is 6 which is the maximum value, the activity amount is 1.0 because it is considered to be stationary. As for the stay frequency of 5, it is possible that the user moved a little while moving still, so for the activity amount of 1.2 and the stay frequencies of 3 and 4, the transition status to the rest state or the stay frequency of other occupants was set. Since it may have been taken in, I assigned a high activity amount of 2 because it was a medium level of 1.6 and the stay frequency of 1 and 2 had just moved from another place. This correspondence changes depending on the number of samples stored in the personal information storage means 5. In this way, by successively calculating the stay frequency, in the case of a person with a high degree of stillness, when the stay frequency continues to output a value near the maximum frequency and often moves such as cleaning. Since the value with a low stay frequency continues to be output, the activity amount can be detected accurately. In addition, since it is possible to separate stationary people from active people, if there are people with high activity and people with low activity, the comfort level, which is a control index, is used as the activity level. It can also be adapted to people with low room.

【0118】また、室内を領域分割すると必ず領域の境
界に人間が居る場合が出てくる。その場合多少の人の動
きや、画像処理装置606における足元位置検出精度が
非常に高精度でないと、計測の度にたとえ人が静止して
いても検出位置がずれてしまう可能性がある。そこで、
あらかじめ各床面位置に対して周辺床面領域を定めてお
き滞在頻度算出の際に周辺領域の滞在頻度度も考慮する
ことで静止している人を精度良くとらえることができ
る。図45(a)に床面に対する周辺定義の例を示す。
床面番号31は角にあるので、それをとりまく床面番号
25、26、32を周辺とする。床面番号3については
辺に位置しているので、それをとりまく床面番号2、
4、8、9、10を周辺領域と定義する。床面番号23
は中にあるのでそれをとりまく床面番号16、17、1
8、22、24、28、29、30を周辺領域と定義す
る。滞在頻度算出手段621では現在の在室者の床面番
号に加え周辺領域の床面番号の滞在頻度を計数する。図
45(b)は、図43(b)の個人情報に対する周辺領
域を含めた滞在頻度算出の例である。床面番号17の位
置にいる人の滞在頻度は周辺を含めない場合1であった
が、周辺を含めると滞在頻度4となり、移動の仕方が離
れた場所を動き回っているのではなく、現在居る点の付
近を動き回っていることが分かり活動量としてはそれほ
ど高くはない値を関係づけることができる。
Further, when the room is divided into regions, there are cases where people are always at the boundaries of the regions. In that case, if the motion of a person is a little and the foot position detection accuracy in the image processing device 606 is not very high, the detection position may shift each time the measurement is performed, even if the person is stationary. Therefore,
It is possible to accurately grasp a stationary person by predetermining a peripheral floor area for each floor position and considering the frequency of stays in the peripheral area when calculating the stay frequency. FIG. 45A shows an example of the peripheral definition for the floor surface.
Since the floor surface number 31 is at a corner, the floor surface numbers 25, 26, and 32 surrounding it are the periphery. The floor number 3 is located on the side, so the floor number 2 surrounding it is 2.
4, 8, 9, and 10 are defined as peripheral areas. Floor number 23
Is inside, so the floor numbers surrounding it are 16, 17, 1
8, 22, 24, 28, 29 and 30 are defined as peripheral areas. The stay frequency calculation means 621 counts the stay frequency of the floor number of the surrounding area in addition to the floor number of the current occupant. FIG. 45 (b) is an example of stay frequency calculation including the peripheral area for the personal information of FIG. 43 (b). The stay frequency of the person at the floor number 17 was 1 when the surrounding area was not included, but the stay frequency was 4 when the surrounding area was included, and the way of moving is not moving around in a distant place but is now. You can see that you are moving around the points, and you can relate a value that is not so high as the amount of activity.

【0119】また、活動量検出部613では熱画像計測
のサンプリング周期が1、2秒程度以内の短い期間の場
合、室内での人の移動速度に限界があることから、2枚
の熱画像から抽出された在室者の足元位置から在室者の
対応付けを行い、移動速度を求めることができる(以
降、移動量と呼ぶ)。このようにして、移動している在
室者についても移動量を求めることで、活動量検出の精
度を高めることができる。以下に、移動量を用いた活動
量検出例を示す。
Further, in the activity amount detection unit 613, when the sampling period of thermal image measurement is a short period of about 1 or 2 seconds, there is a limit to the moving speed of the person in the room. The moving speed can be obtained by associating the occupants from the extracted foot positions of the occupants (hereinafter, referred to as the moving amount). In this way, it is possible to improve the accuracy of activity amount detection by obtaining the amount of movement even for a person who is moving. The following is an example of activity detection using movement.

【0120】図46に第1の実施例の移動量を用いた活
動量検出部613の構成図を示す。630は連続する2
つの計測間隔の足元位置情報から移動距離を算出する移
動量検出手段、631は現時点より過去T1分間の位置
と移動量に関する情報を記憶する個人情報記憶手段、6
32は所定期間の代表となる移動量を得る期間移動量算
出手段、621は図42に示したと同様な静止者を検出
するための滞在頻度算出手段、633は活動量算出手段
である。
FIG. 46 shows a block diagram of the activity amount detecting section 613 using the movement amount of the first embodiment. 630 is continuous 2
A movement amount detecting means for calculating the movement distance from the foot position information of one measurement interval, 631 is a personal information storage means for storing information on the position and the movement amount in the past T1 minutes from the present time, 6
Reference numeral 32 is a period movement amount calculating means for obtaining a movement amount which is a representative of a predetermined period, 621 is a stay frequency calculating means for detecting a stationary person similar to that shown in FIG. 42, and 633 is an activity amount calculating means.

【0121】以上のように構成された活動量検出部61
3について、その動作を説明する。図47に、室内で最
も活動的であると思われる掃除機を用いた掃除のシーン
について、実際の家庭でビデオ録画し1秒毎の移動距離
を、60cmを一単位としてプロットしたグラフを示
す。横軸が掃除開始からの経過時間で1秒毎にサンプリ
ングしている。縦軸は距離で1目盛りが60cmであ
る。掃除の特徴としては、単位時間に移動する距離、す
なわち速さが速いというよりも、距離の短い移動が継続
する点に特徴がある。移動量は、室内にある物を取りに
行く、であるとか、室内を通り過ぎるなどの行動の場合
の方が速いが、数秒で完結してしまうので活動的である
とはいえない場合が多い。それゆえ、在室者の活動量を
判断する場合、ある瞬時の移動距離で判断するよりも、
一定期間の移動距離の積分で判断することが適している
ことがわかる。さて、この活動量検出部613の動作で
あるが、得られた在室者毎の足元位置情報を入力として
移動量検出手段630に送られる。以下に、移動量検出
手段630について説明する。
The activity amount detector 61 configured as described above.
The operation of No. 3 will be described. FIG. 47 shows a graph of a cleaning scene using a vacuum cleaner that seems to be most active indoors, which is recorded by video in an actual home and the moving distance per second is plotted with 60 cm as one unit. The horizontal axis is the elapsed time from the start of cleaning and is sampled every 1 second. The vertical axis represents the distance and one scale is 60 cm. The characteristic of cleaning is that the distance that the unit moves in a unit time, that is, the speed is not high, but that the movement of a short distance continues. The amount of movement is faster in the case of an activity such as going to get something in the room or when passing through the room, but it is often not active because it is completed in a few seconds. Therefore, when judging the amount of activity of a person in the room, rather than judging by a certain instantaneous travel distance,
It can be seen that it is suitable to make the determination by integrating the moving distance for a certain period. Now, regarding the operation of the activity amount detection unit 613, the obtained foot position information for each person in the room is sent to the movement amount detection means 630 as an input. The movement amount detecting means 630 will be described below.

【0122】図48は、移動量検出手段630の構成図
である。ここで、サンプリング時間を△tとし、時刻t
に検出された足元位置情報を足元位置情報F(t)、1
サンプル前に検出された足元位置情報を足元位置情報F
(t−△t)と呼ぶ。640は在室者の足元位置情報お
よびを記憶する位置記憶手段である。641は位置記憶
手段に記憶された足元位置情報F(t)と足元位置情報
F(t−△t)を入力とし、あらかじめ定められた時間
△t内で人間が移動できる距離の最大値である最大移動
距離を用いて、足元位置情報F(t)について最大移動
距離内にある在室者を足元位置情報F(t−△t)から
検索する移動可能判定手段である。642は移動可能判
定手段から出力される足元位置情報F(t−△t)の中
から足元位置情報F(t)に、最も距離が近い足元位置
情報を検索し、順に2対の組み合わせを定める最近傍検
索手段である。643は最近傍検索手段から出力される
距離を入力とし、在室者毎に移動量を出力する移動速度
計算手段である。
FIG. 48 is a block diagram of the movement amount detecting means 630. Here, the sampling time is Δt, and the time t
The foot position information detected by the foot position information F (t), 1
The foot position information detected before the sample is used as the foot position information F
It is called (t-Δt). A position storage unit 640 stores the position information of the feet of the person in the room. 641 is the maximum value of the distance that a person can move within a predetermined time Δt, using the foot position information F (t) and the foot position information F (t-Δt) stored in the position storage means as inputs. It is a movable determination means that uses the maximum movement distance to search for an in-room person who is within the maximum movement distance of the foot position information F (t) from the foot position information F (t-Δt). A step 642 searches the foot position information F (t-Δt) output from the movement determining unit for the foot position information having the closest distance to the foot position information F (t), and determines two pairs of combinations in order. It is the nearest neighbor search means. Reference numeral 643 is a moving speed calculating means for inputting the distance output from the nearest neighbor searching means and outputting a moving amount for each person in the room.

【0123】以上のように構成された移動量検出手段6
30について、その動作を説明する。まず、各サンプリ
ングタイミングで画像処理装置606で検出された足元
位置情報を位置記憶手段640に順次記憶する。次に、
移動可能判定手段641で位置記憶手段640に記憶さ
れている足元位置情報F(t)と足元位置情報F(t−
△t)の距離計算を行う。その際、tおよびt−△tの
在室者の組み合わせ全てについて距離計算を行い、最大
移動距離以内にある組み合わせが選ばれる。次に、最近
傍検索手段642では、移動可能判定手段641から出
力される足元位置情報F(t−△t)と足元位置情報F
(t)の組み合わせの中から、最も距離が近い位置の組
み合わせの対が出力される。この時、△t間に人数が増
加した場合、足元位置情報F(t)の中に対になれず余
るものができるが、この場合は、他の部屋からの入室で
あると考えられるので最大移動距離を移動距離の代替と
する。また、△t間に人数が減少した場合、足元位置情
報F(t−△t)の中に対になれず余るものができる
が、この場合は現時点で人が減ったので問題にしない。
次に、移動速度計算手段643では、最近傍検索手段6
42から出力される各組の移動距離と時間間隔△tから
各在室者の移動速度が計算される。以上のような構成
で、移動量を計算することにより、人間が例えば部屋の
両角に離れて存在していた場合であっても、人間が可能
な移動速度を越えることなく、正しい人間の移動速度を
求めることができる。また、室内を複数領域に分割せ
ず、足元位置を座標で求め、座標から移動距離を算出
し、移動量を求めることも可能である。このようにし
て、室内の在室者毎の移動量を求めた後、室内の一定期
間の代表となる移動量(以降、期間移動量と呼ぶ)を算
出する。図49に個人情報記憶手段631に記憶されて
いる個人情報の例を示す。個人情報には計測された時
刻、そのときの在室者の人数、各在室者の床面番号およ
び距離が人数分記載されている。図43(b)と異なる
のは距離が含まれている点である。期間移動量算出手段
632では、個人毎の移動量と期間移動量を関係づけ
る。期間移動量は活動度合いの大きい順にA、B、Cの
ランクで表現する。ランクAの求め方について図50
(a)を見ながら説明する。最初に各在室者の移動量の
平均値を求め、しきい値H1を越えるか否かを判定す
る。この処理をT1分間のおのおのの計測サンプルに対
して行い、T1分間に何回あるかを計数する。そして、
その値があらかじめ定められた頻度のしきい値N1より
大きい場合期間移動量ランクAとする。次に図50
(b)を見ながら期間移動量ランクCの求め方について
説明する。前記移動量の平均値がしきい値H2を下回る
頻度をT1分間について計数し、その値があらかじめ定
められた頻度のしきい値N2より大きい場合を期間移動
量ランクCとする。上記ランクAまたはランクCの両方
に入らない場合、期間移動量ランクBとする。ここで、
移動量だけでなく頻度についてもしきい値を設けたのは
活動的な生活シーンの中にも移動しないことや、くつろ
いでいるシーンの中にも移動することがあるためであ
る。
Movement amount detecting means 6 configured as described above
The operation of No. 30 will be described. First, the foot position information detected by the image processing device 606 at each sampling timing is sequentially stored in the position storage unit 640. next,
The foot position information F (t) and the foot position information F (t−) stored in the position storage means 640 by the movable determination means 641.
Calculate the distance of Δt). At that time, distance calculation is performed for all combinations of t and t-Δt occupants, and a combination within the maximum movement distance is selected. Next, in the nearest neighbor search means 642, the foot position information F (t-Δt) and the foot position information F output from the movable determination means 641.
From the combinations of (t), the pair of combinations having the shortest distance is output. At this time, if the number of people increases during Δt, there will be some left in the foot position information F (t) that cannot be paired, but in this case, it is considered that entry from another room is the maximum. The moving distance is used as an alternative to the moving distance. Also, when the number of people decreases during Δt, there may be some left in the foot position information F (t−Δt) that cannot be paired, but in this case, since the number of people has decreased at this point, there is no problem.
Next, in the moving speed calculation means 643, the nearest neighbor search means 6
The moving speed of each occupant is calculated from the moving distance of each set and the time interval Δt output from 42. By calculating the amount of movement with the above configuration, even if a person is present at both corners of a room, for example, the correct movement speed of the person does not exceed the possible movement speed of the person. Can be asked. It is also possible to obtain the foot position by coordinates, calculate the movement distance from the coordinates, and obtain the movement amount without dividing the room into a plurality of regions. In this way, after obtaining the movement amount for each person in the room, a movement amount that is a representative of a certain period in the room (hereinafter, referred to as a period movement amount) is calculated. FIG. 49 shows an example of the personal information stored in the personal information storage means 631. In the personal information, the measured time, the number of persons in the room at that time, the floor number of each person in the room, and the distance are described for each person. The difference from FIG. 43B is that the distance is included. The period movement amount calculation means 632 associates the movement amount for each individual with the period movement amount. The period movement amount is expressed by ranks A, B, and C in descending order of activity. How to obtain Rank A Fig. 50
An explanation will be given with reference to (a). First, the average value of the movement amount of each occupant is calculated, and it is determined whether or not the threshold value H1 is exceeded. This process is performed for each measurement sample for T1 minutes, and the number of times in T1 minutes is counted. And
When the value is larger than the threshold value N1 of the predetermined frequency, the period movement amount rank A is set. Next, FIG.
How to obtain the period movement amount rank C will be described with reference to FIG. The frequency at which the average value of the movement amount falls below the threshold value H2 is counted for T1 minutes, and when the value is larger than the threshold value N2 of the predetermined frequency, the period movement amount rank C is set. If neither the rank A nor the rank C is entered, the period movement amount rank B is set. here,
The threshold is set not only for the amount of movement but also for the frequency, because it may not move into an active life scene or may move into a relaxing scene.

【0124】上記の方法で算出した期間移動量に、滞在
頻度算出手段621から得られる静止者の有無や人数を
組み合わせて、活動量算出手段633では活動量と対応
付ける。図51に期間移動量算出手段632から得られ
る期間移動量と、滞在頻度算出手段621から得られる
滞在頻度と、画像処理装置606から得られる人数を活
動量に関係づけた例を示す。図51で、表の中の値は活
動量であり、静止者とは滞在頻度算出手段621で滞在
頻度が最大値の90%以上の頻度の在室者居る場合を表
している。上記方法で活動量を検出することにより、生
活シーンに沿った活動量検出が可能となる。
The activity amount calculation means 633 associates the period movement amount calculated by the above method with the presence or absence of stationary persons and the number of people obtained from the stay frequency calculation means 621 and the activity amount calculation means 633. FIG. 51 shows an example in which the period movement amount obtained from the period movement amount calculation unit 632, the stay frequency obtained from the stay frequency calculation unit 621, and the number of persons obtained from the image processing device 606 are related to the activity amount. In FIG. 51, the value in the table is the amount of activity, and the stationary person represents the case where there is an in-room person whose stay frequency is 90% or more of the maximum value in the stay frequency calculation means 621. By detecting the amount of activity by the above method, it becomes possible to detect the amount of activity according to the life scene.

【0125】次に、快適度検出部613について説明す
る。従来は快適度算出の際、室内を代表する快適度の算
出を行うものがあったが、ここでは、主に個人毎に快適
度の算出を行い、それらを制御指標とする。快適度PM
Vの入力要素として、環境的要素としては室温、湿度、
気流、輻射温度が必要であり、人間に関する要素として
は活動量、着衣量が必要である。また、算出のためのP
MV算出式が必要である。各要素は、それぞれ室温は空
気調和機の吸い込み温度を計測する室温センサ603の
計測値を用い、湿度については空気調和機の本体に設置
した湿度センサ6044の計測値を用いる。気流につい
ては風向風量情報と画像処理装置606から得られる個
人毎の足元位置から得る。輻射温度についても、画像処
理装置606より得る。個人別の活動量については活動
量検出部612より得る。着衣量は画像処理装置606
から得る。その際、外気温と季節によって一般的に着衣
を変える場合が多いので、カレンダ615の値を基に春
夏秋冬の4季に各月を対応させ、月と外気温の値から前
記ランクを条件分けや補正をすることも可能である。こ
のことにより対象となる人物の熱画像を用いた着衣量の
検出が可能となる。PMV算出式については、以下に例
を示す。
Next, the comfort level detecting section 613 will be described. In the past, when calculating the comfort level, there was one that calculates the comfort level representing the room, but here, the comfort level is mainly calculated for each individual and these are used as control indices. Comfort PM
Environmental factors such as room temperature, humidity, and
Airflow and radiant temperature are required, and the amount of activity and the amount of clothing are required as human factors. Also, P for calculation
An MV calculation formula is required. For each element, the room temperature uses the measured value of the room temperature sensor 603 that measures the intake temperature of the air conditioner, and the humidity uses the measured value of the humidity sensor 6044 installed in the main body of the air conditioner. The air flow is obtained from the wind direction air volume information and the foot position for each individual obtained from the image processing device 606. The radiation temperature is also obtained from the image processing device 606. The activity amount for each individual is obtained from the activity amount detection unit 612. The amount of clothing is the image processing device 606.
Get from In that case, since clothes are often changed depending on the outside temperature and the season, each month is made to correspond to the four seasons of spring, summer, autumn, and winter based on the value of the calendar 615, and the rank is conditioned on the value of the month and the outside temperature. It is also possible to divide and correct. This makes it possible to detect the clothing amount using the thermal image of the target person. An example of the PMV calculation formula is shown below.

【0126】PMV=(0.303e-2.1M+0.028)・{58.
15(M−W)−3.05・10-3[5733−406.7(M−W)−
Pa]−24.42[(M−W)−1]−10-3・M(5867−P
a)−0.0814・M(34−ta)−3.96・10-8fcl[(t
cl+273)4−(tr+273)4]−fcl・hc(tcl−t
a)} ここで、各記号の意味は以下のとおりとする。 M :代謝量(Met値) W :外部への機械仕事(大部分の代謝量について零と
仮定できる) Pa :水の水蒸気圧 ta :空気温度 tr :平均輻射温度 fcl:衣服で覆われた部分と露出部分の面積比 tcl:衣服の表面温度 hc :対流熱伝達係数 対流熱伝達係数hcはVrを気流(m/s)としたとき 2.38(tcl−ta)0.25 > 12.1kgVr の条件が満たされればhc=2.38(tcl−ta)0.25であ
り、 2.38(tcl−ta)0.25 ≦ 12.1kgVr の場合hc=12.1kgVrと定めることができるので気流
が分かれば算出可能である。
PMV = (0.303e-2.1M + 0.028) * {58.
15 (MW) -3.05 · 10 -3 [5733-406.7 (MW)-
Pa] -24.42 [(M-W ) -1] -10 -3 · M (5867-P
a) -0.0814 ・ M (34-ta) -3.96 ・ 10 -8 fcl [(t
cl + 273) 4 − (tr + 273) 4 ] −fcl · hc (tcl−t
a)} Here, the meaning of each symbol is as follows. M: Metabolism (Met value) W: Mechanical work to the outside (can be assumed to be zero for most of the metabolism) Pa: Water vapor pressure ta: Air temperature tr: Average radiation temperature fcl: Part covered with clothes And the area ratio of exposed parts tcl: Surface temperature of clothes hc: Convection heat transfer coefficient The convection heat transfer coefficient hc satisfies the condition of 2.38 (tcl-ta) 0.25 > 12.1kgVr when Vr is an air flow (m / s). For example, hc = 2.38 (tcl-ta) 0.25 , and when 2.38 (tcl-ta) 0.25 ≤ 12.1 kgVr, it can be determined that hc = 12.1 kgVr.

【0127】また、衣服で覆われた部分の面積と露出部
分の面積比fclについても、clo値をIclとした場
合、 Icl<0.5 の条件が満たされればfcl=1.00+0.2・Ic
l Icl≧0.5 の条件が満たされればfcl=1.05+0.1・Ic
l と定めることができる。
As for the area ratio fcl of the area covered with clothes and the area exposed, fcl = 1.00 + 0.2.Ic
l If the condition of Icl ≧ 0.5 is satisfied, fcl = 1.05 + 0.1 · Ic
can be defined as l.

【0128】このように、PMV算出のための各入力要
素が検出可能なので各個人別の快適度PMVを算出する
ことができる。次に、個人別に算出した快適度を基に空
気調和機の制御を行うための制御指標を判定する。複数
の在室者が室内に居る場合、活動度合い、空間的な輻射
の影響など内外の条件により各個人の快適度が異なる場
合がある。その場合、上記方法で検出した快適度があら
かじめ決められた快適域、例えばPMV±0.5以外の在
室者が居る場合、当該在室者を優先的に空調する。ま
た、在室者全員が快適域に入る場合で在室者の位置を中
心とした風向制御を行う。
As described above, since each input element for calculating the PMV can be detected, the comfort level PMV for each individual can be calculated. Next, the control index for controlling the air conditioner is determined based on the comfort level calculated for each individual. When there are multiple people in the room, the comfort level of each individual may differ depending on the indoor and outdoor conditions such as the activity level and the influence of spatial radiation. In that case, when there is an in-room person whose comfort level detected by the above method is a predetermined comfort zone, for example, PMV ± 0.5, the in-room person is preferentially air-conditioned. In addition, when all the people in the room enter the comfortable area, the wind direction control is performed centering on the position of the person in the room.

【0129】以下に第4の実施例における空調制御の例
を示す。図52(a)は室内に2人の在室者がいて各自
のPMVがほぼ同じであるような安定時の場合の暖房時
の空調例である。650は室内、651は空気調和機、
652は赤外線2次元センサ、653は座位の在室者、
654はもう一人の座位の在室者、655はドア、65
6は風向、風量、657は2次元赤外線センサの検出範
囲である。この場合、在室者653と在室者654は座
位で静止しているため活動量が同じであり、また床面、
壁面から受ける輻射、および気流の強さも同等と仮定し
たとき、2人のPMVは同じであり、吹き出し温度は室
内の温熱環境を維持する程度、風向はワイドで風量は中
である。図52(b)は、図52(a)の状態から時間
が経過し、在室者658が移動すると共に、室内のドア
が開き、冷たい空気が室内に入り込んだ場合の空調例で
ある。658は立位で移動した在室者、659は座位の
まま静止している在室者、660は開かれたドア、66
1はこのときの風向と風量である。この場合、ドア66
0から入り込んだ冷風のため在室者659付近の床温度
が冷え、床や壁に温度低下が2次元赤外線センサ652
により観測される。
An example of air conditioning control in the fourth embodiment will be shown below. FIG. 52 (a) shows an example of air conditioning during heating in a stable state where there are two people in the room and their PMVs are almost the same. 650 is indoors, 651 is an air conditioner,
652 is an infrared two-dimensional sensor, 653 is a sitting person,
654 is another sitting person, 655 is a door, 65
6 is the wind direction and volume, and 657 is the detection range of the two-dimensional infrared sensor. In this case, the occupant 653 and the occupant 654 have the same amount of activity because they are still in the sitting position, and the floor surface,
Assuming that the radiation received from the wall surface and the strength of the airflow are also equal, the PMVs of the two persons are the same, the blowing temperature is wide enough to maintain the indoor thermal environment, the wind direction is wide, and the air volume is medium. FIG. 52B is an example of air conditioning when time passes from the state of FIG. 52A, the occupant 658 moves, the door of the room opens, and cold air enters the room. 658 is a person who has moved to a standing position, 659 is a person who is still in a sitting position, 660 is an open door, 66
1 is the wind direction and volume at this time. In this case, the door 66
Due to the cold air entering from 0, the floor temperature near the occupants 659 is cooled, and the temperature drop on the floor and walls is caused by the two-dimensional infrared sensor 652.
Observed by.

【0130】また、658の在室者は立位で動きだした
ために、659の座位の在室者に比べて高い活動量が観
測される。この場合、PMVは在室者658付近では高
く、在室者659付近では低くなるため風向は在室者6
59を中心に向けられる。また冷風がドア660から入
ってきたことで吹き出し温度も高めに制御される。ま
た、在室者658が動かなかった場合でも、ドア660
からの冷風により在室者659付近の床や壁が温度が下
がり在室者659に対する輻射温度が低い場合も、風向
は在室者659の方向に向けられるが、活動量が同等な
ためその後ドア660が閉められれば短時間で安定時の
空調制御に戻る。このように、在室者のおのおのの人の
快適度を推定し、それに基づいて空調を行うことで人の
快適度に沿ったきめ細かな空調が可能となる。なお、在
室者が存在しない場合は、室内の中央に活動量がゼロで
所定の着衣量を有する在室者が存在すると仮定し制御指
標を定めたり、室内の床や壁の温度の低い場所、または
高い場所に温風を送風するなどの制御を行うことも可能
である。なお、冷房の場合も同様な制御が可能である。
また、風向制御について、1サンプル毎に風向を変える
のでは不安定である場合は、画像処理装置606の足元
位置情報に関する出力を見ながら、在室者の位置移動を
調べ、同じ位置に連続して在室者が居る場合のみ、風向
制御の対象とすることも可能である。
Further, since the person in the room at 658 starts to move in the standing position, a higher amount of activity is observed as compared with the person in the room at the sitting position at 659. In this case, since the PMV is high near the occupant 658 and low near the occupant 659, the wind direction is 6
59 is centered. Further, the blowing temperature is controlled to be high because cold air has entered through the door 660. In addition, even if the occupant 658 does not move, the door 660
Even if the temperature of the floor or wall near the occupant 659 decreases due to the cold air from the room and the radiant temperature to the occupant 659 is low, the wind direction is directed toward the occupant 659, but since the activity amount is the same, then the door 660 is used. If is closed, it returns to stable air conditioning control in a short time. In this way, by estimating the comfort level of each person in the room and performing air conditioning based on that, it is possible to perform fine air conditioning in accordance with the comfort level of the person. If there is no person in the room, it is assumed that there is a person in the center of the room with zero activity and a predetermined amount of clothing, and a control index is set, or the place where the temperature of the floor or wall in the room is low, Alternatively, control such as blowing hot air to a high place can be performed. In the case of cooling, the same control can be performed.
Further, in the case of controlling the wind direction, if it is unstable to change the wind direction for each sample, the position movement of the person in the room is checked while observing the output regarding the foot position information of the image processing device 606, and the position is continuously determined at the same position. It is also possible to target the wind direction control only when there is a person in the room.

【0131】次に、上記実施例4に生活シーン推定部を
付加した空気調和機の制御装置の実施例を、実施例5と
して示す。図53は、実施例5の全体構成図である。図
41との違いは、制御指標決定部611に生活シーン推
定部670を付加したことと、センサ部601に光セン
サを付加したことと、時計を付加したことにある。
Next, an embodiment of a control device for an air conditioner in which a life scene estimation unit is added to the above-mentioned Embodiment 4 will be shown as Embodiment 5. FIG. 53 is an overall configuration diagram of the fifth embodiment. The difference from FIG. 41 is that a life scene estimation unit 670 is added to the control index determination unit 611, an optical sensor is added to the sensor unit 601, and a clock is added.

【0132】以下に生活シーン推定部670について説
明する。生活シーン推定部670では、活動量検出部6
12から得られる個人別の活動量と、画像処理装置60
6から得られる人数と、光センサ671から得られる室
内の照度レベルと、時計672から得られる時刻から室
内の生活シーンの推定を行う。ここで生活シーンとは在
室者が行っている生活行為や生活状態を、室内単位で見
た場合の名称で、だんらんやくつろぎといった名称で一
般的に呼ばれているものである。人数が一人の場合は、
その人の生活行為が生活シーンとなるが、複数の場合は
各人の活動度合いなどを考慮し推定しなくてはならな
い。推定する生活シーンを、退室、入室、就寝、起床、
暑い在室者、寒い在室者の6つの過渡的シーンと、くつ
ろぎ、団らん、活動的家事の3つの安定的シーンとし
た。ここでいう過渡的シーンとはPMVが制御指標とし
て妥当性を持たないシーンであり、安定的シーンとは在
室者がある時間以上室内に在室しPMVが制御指標と用
いることができるシーンである。
The life scene estimation unit 670 will be described below. In the life scene estimation unit 670, the activity amount detection unit 6
The amount of activity for each individual obtained from 12 and the image processing device 60
The indoor life scene is estimated from the number of people obtained from No. 6, the illuminance level in the room obtained from the optical sensor 671, and the time obtained from the clock 672. Here, the life scene is a name when a living activity or a living condition performed by an occupant is viewed in an indoor unit, and is generally called by a name such as drank or relaxing. If there is one person,
The person's life act becomes a life scene, but in the case of multiple cases, it must be estimated in consideration of the activity level of each person. Estimate life scenes such as leaving, entering, sleeping, waking up,
There were 6 transitional scenes, one for hot people and one for cold people, and three stable scenes for relaxing, gathering, and active housework. The transitional scene here is a scene in which the PMV has no validity as a control index, and the stable scene is a scene in which the occupant stays in the room for a certain period of time and the PMV can use it as a control index. is there.

【0133】各シーンの推定方法を以下に述べる。最初
に過渡的シーンの推定方法について述べる。退室シーン
は、画像処理装置606から得られる人数が0になった
ときに不在継続時間をカウントし始め、10分以上、人
数が0の場合が継続したとき退室シーンと判定する。こ
こで、不在継続時間を計数するのは、通常、室内は隣室
や屋外と接し部屋移動を行うことが多いので、これら短
時間の不在毎に退室を判定し、制御指標を変更するのは
制御が不安定になるのでシーンを一つの区切りとするた
めに一定時間の経過を待って退室シーンを判定する。次
に、入室シーンは、現在の生活シーンが退室シーンの状
態で、人数が1人以上検出された場合を入室シーンと
し、20分間保持されるものとする。次に、就寝シーン
であるが、光センサから得られる照度が所定の明るさ以
下の場合で、かつ時刻が午後9:00から午前6時の間
で、かつ活動量が1.0以下が30分継続している場合
に就寝と判断する。また、現在の生活シーンが就寝シー
ンの時に活動量1.2以上の状態が5分継続した場合、
もしくは照度がある値を越えた場合、起床シーンと判断
し、20分間保持する。暑い在室者シーン、寒い在室者
シーンは画像処理装置606から得られた皮膚温度が、
あらかじめカレンダーから得られる月毎に定められた標
準的人体の皮膚温度範囲を越えているかで判定する。
The estimation method of each scene will be described below. First, we describe the method of estimating transient scenes. As for the leaving scene, when the number of persons obtained from the image processing device 606 becomes 0, the absence continuation time starts to be counted, and when the number of persons is 0 or more and continues for 10 minutes or more, it is determined as the leaving scene. Here, the absence continuation time is usually counted because the room is often in contact with the next room or the outside and the room is moved.Therefore, it is the control to change the control index by judging the exit for each short absence. Is unstable, the exit scene is judged after waiting a certain period of time in order to divide the scene into one segment. Next, the entry scene is assumed to be the entry scene when the current life scene is the exit scene and one or more people are detected, and the entry scene is held for 20 minutes. Next, in the sleeping scene, when the illuminance obtained from the optical sensor is less than or equal to the predetermined brightness, the time is from 9:00 pm to 6:00 am, and the amount of activity is 1.0 or less for 30 minutes. If it is, it is determined to go to bed. Also, if the current life scene is a bedtime scene and the amount of activity is 1.2 or more for 5 minutes,
Alternatively, when the illuminance exceeds a certain value, it is determined that the scene is a wake-up scene, and is held for 20 minutes. In the hot occupant scene and the cold occupant scene, the skin temperature obtained from the image processing device 606 is
Judgment is made based on the fact that the standard skin temperature range of the human body, which is obtained from the calendar in advance and is determined for each month, is exceeded.

【0134】次に、安定的シーンについて述べる。くつ
ろぎシーンにについては、活動量ランクが1.0以下の
状態が10分継続して続いた場合、団らんシーンは活動
量が1.2から1.7の状態が10分継続した場合、活
動的家事は活動量が1.8以上の状態が10分継続した
場合をそれぞれシーン判定条件とする。
Next, a stable scene will be described. As for the relaxation scene, if the activity level rank of 1.0 or less continues for 10 minutes, and if the activity level of 1.2 to 1.7 continues for 10 minutes, For housework, each scene judgment condition is when the amount of activity is 1.8 or more for 10 minutes.

【0135】以上のように推定した生活シーンについ
て、空調の制御指標をあらかじめ定めておく。以下に、
各シーン毎に定めた制御指標の例を述べる。ここで、標
準の目標快適度は0である。退室シーンの場合、目標快
適度を暖房の場合−1.0に下げ、風向を部屋の中央に
向ける。入室シーンの場合、目標快適度を1.0にし、
入室者に風向を向ける。就寝シーンの場合、2時間毎に
目標快適度を0.5ずつ下げるとともに風向は、人体を
避け、風量を微風にする。起床シーンの場合は、目標快
適度を2.0にし、入室者に風向を向ける。冷房時の暑
い在室者シーンの場合は、目標快適度−2.0に下げ、
皮膚温度の高い在室者を中心とする風向で冷房する。暖
房時の寒い在室者シーンの場合は、目標快適度2.0に
上げ皮膚温度の低い在室者を中心とする風向で暖房す
る。ただし、長時間、冷風や熱風を人体に向けることは
健康に良くないため、前記暑い在室者シーンと寒い在室
者シーンは3分を限界とする。くつろぎシーンの場合
は、目標快適度を0.5のやや暖か目にする。団らんシ
ーンの場合は標準、活動的家事シーンの場合は目標快適
度を−0.5とする。このように各シーンに合わせて空
調を行うことで、生活実態に合った空調が可能となる。
また、安定的シーンが推定された場合は制御指標を第4
の実施例に述べた快適度とし、過渡的シーンの場合は前
記の各シーン毎の制御指標に切り替えることも可能であ
る。空調制御部614では、これらの制御指標を得て、
機器の制御を行う。
The air-conditioning control index is set in advance for the life scene estimated as described above. less than,
An example of the control index determined for each scene will be described. Here, the standard target comfort level is 0. In the case of leaving the room, the target comfort level is lowered to -1.0 in the case of heating, and the wind direction is directed to the center of the room. When entering a room, set the target comfort level to 1.0,
Turn the wind toward the occupants. In the case of a sleeping scene, the target comfort level is decreased by 0.5 every two hours, and the wind direction avoids the human body, and the air volume is set to a light breeze. In the case of a wake-up scene, the target comfort level is set to 2.0 and the wind is directed toward the occupants. In the case of a hot room scene during cooling, lower the target comfort level to -2.0,
Cool in the wind direction centered on people with high skin temperature. In the case of a cold occupant scene during heating, the target comfort level is raised to 2.0 and heating is performed in the wind direction centering on the occupants with low skin temperature. However, it is not good for the health to direct cold air or hot air to the human body for a long time. Therefore, the hot occupant scene and the cold occupant scene are limited to 3 minutes. In the case of a relaxing scene, the target comfort level is set to 0.5 and slightly warm. The target comfort level is set to -0.5 for a casual scene and -0.5 for an active housework scene. In this way, by performing air conditioning according to each scene, it is possible to air conditioning according to the actual conditions of life.
If a stable scene is estimated, the control index is
With the comfort level described in the embodiment, it is possible to switch to the above-mentioned control index for each scene in the case of a transient scene. The air conditioning control unit 614 obtains these control indexes,
Control equipment.

【0136】上記実施例1から実施例3の画像処理装置
もしくは活動量検出部612は、在室者の有無および人
数、足元位置、姿勢、着衣量、皮膚表面温度、活動量の
いずれかの検出を行うことを目的とした画像処理装置の
応用機器に用いることも可能である。例えば、本実施例
の人間領域検出部を用いた侵入者の検知を行う防犯装
置。人数検出手段を用いた室内の混雑度合いの検出装
置。さらに、足元位置検出手段または活動量検出部を用
いた、人の位置に応じて照明や音などの環境を制御する
装置。姿勢検出手段、着衣量検出手段、皮膚温度検出手
段を用いた、医療や看護に用いられる患者や病人の状態
を検出する装置などが考えられる。
The image processing apparatus or the activity amount detecting unit 612 of the above-mentioned Embodiments 1 to 3 detects any one of the presence / absence and number of persons in the room, foot position, posture, clothing amount, skin surface temperature, and activity amount. It is also possible to use it in the application equipment of the image processing apparatus for the purpose of For example, a crime prevention device that detects an intruder using the human area detection unit of the present embodiment. An apparatus for detecting the degree of congestion in a room using a number-of-people detecting means. Further, a device for controlling environment such as lighting and sound according to a position of a person, which uses a foot position detecting means or an activity amount detecting section. A device for detecting the condition of a patient or a sick person used for medical treatment or nursing, which uses a posture detecting unit, a clothing amount detecting unit, and a skin temperature detecting unit, can be considered.

【0137】以下、本発明の第6の実施例について説明
する。図54は、本発明第6の実施例の制御指標決定部
の構成図である。他の構成は図53に示す第5の実施例
と同様である。680は室内に在室者が居ない場合の制
御指標を出力する不在時制御指標決定部である。図55
に不在時制御指標決定部の構成を示す。690は画像処
理装置606から得られる人数から、在室者の有無(以
降、在室データと呼ぶ)を判定し、時系列データとして
記憶する在室データ記憶手段、691は在室パターン分
類手段、692はベース温度変換手段である。ここで、
ベース温度とは最低限は維持する温度レベルであり、暖
房と冷房では異なる。
The sixth embodiment of the present invention will be described below. FIG. 54 is a configuration diagram of a control index determination unit according to the sixth embodiment of the present invention. The other structure is the same as that of the fifth embodiment shown in FIG. Reference numeral 680 is an absent control index determination unit that outputs a control index when there is no person in the room. FIG. 55
Shows the structure of the absence control index determination unit. An occupancy data storage unit 690 determines the presence or absence of an occupant (hereinafter, referred to as occupancy data) from the number of persons obtained from the image processing apparatus 606, and stores it as time-series data. Reference numeral 692 is a base temperature converting means. here,
The base temperature is the temperature level that is maintained at a minimum, and differs between heating and cooling.

【0138】以下に、不在時制御指標決定部680の動
作について説明する。在室データ記憶手段690では画
像処理装置606から得られる人数から、人の有無を在
室者が居る場合を1、居ない場合を0とし検出する。こ
の0、1のデータは、実際の在不在は部屋への人の出入
りで大きく変化するので、特徴を明確にするために、1
0分を1単位にし、例えば10分以上継続して人数が0
人の場合のみ0で、それ以外は1とする。また、在室デ
ータ記憶手段690の記憶容量低減のためデータ圧縮な
どを行うことも可能である。在室データ記憶手段690
では1日分の在室データを当日より、一定期間だけさか
のぼった日数分、記憶するようにデータ管理も行う。当
日より一定期間保存し、古いデータを用いないのは、あ
まり古いデータを以降で求める在室率算出のために用い
ることは、最近の生活実態を反映しない可能性が大きい
からである。ここでは、60日を上限としている。次に
在室パターン分類手段691ではカレンダーからの日の
属性の情報を基に、当日と日の属性が同じ日の在室デー
タを集め、時刻別の在室率を求める。図56(a)に実
際の家庭の居間における平日の在室率を、図56(b)
に休日の在室率を示す。横軸は時刻で午前4:00を起
点とし単位は30分である。縦軸は在室率で、ある時間
帯に在室した頻度を全平日、または全休日の日数で割っ
た値に100をかけたものである。これらの図から分か
るように日の属性が異なれば在室パターンも異なってく
る。それゆえ、ここでは、日の属性で在室パターンの分
類を行っている。
The operation of the absence control index determining unit 680 will be described below. The occupancy data storage unit 690 detects the presence or absence of a person from the number of persons obtained from the image processing apparatus 606 as 1 when the occupant is present and 0 when the occupant is not present. The data of 0 and 1 vary greatly depending on the presence / absence of people entering and leaving the room.
0 minutes as 1 unit, for example 10 minutes or more, the number of people is 0
Set to 0 only for humans, and 1 otherwise. Further, it is possible to perform data compression or the like in order to reduce the storage capacity of the occupancy data storage means 690. Occupancy data storage means 690
Then, data management is also performed so that one day's occupancy data can be stored for a certain number of days dating back from the current day. The reason why the old data is not used for a certain period from the day of use is that using old data for calculating the occupancy rate, which is required later, is unlikely to reflect recent living conditions. Here, the upper limit is 60 days. Next, the occupancy pattern classifying unit 691 collects occupancy data on the same day and on the same day attribute based on the date attribute information from the calendar, and obtains the occupancy rate by time. Fig. 56 (a) shows the occupancy rate on weekdays in the living room of an actual home, as shown in Fig. 56 (b).
The holiday occupancy rate is shown in. The horizontal axis represents time, starting at 4:00 am and the unit is 30 minutes. The vertical axis is the occupancy rate, which is obtained by dividing the frequency of staying in a certain time zone by the number of days of all weekdays or all holidays, and then multiplying by 100. As can be seen from these figures, the pattern of occupancy varies with the attributes of the day. Therefore, the occupancy pattern is classified here by the attribute of the day.

【0139】図57に在室パターンの分類処理の例を示
す。700は在室データ記憶手段690に記憶されてい
る在室データ、701はカレンダー、702はカレンダ
ー701より得られる曜日情報、703は各曜日毎の在
室パターンである。例えば当日が水曜日の場合、在室デ
ータ記憶手段609に記憶されている在室データの中の
水曜日のデータのみ抽出し、各時間帯毎に頻度を計数す
る。そして、この時刻別の頻度を全水曜日の日数で割る
ことで時刻別在室率を求める。そして、水曜日の在室パ
ターンとして記憶する。
FIG. 57 shows an example of the occupancy pattern classification processing. 700 is occupancy data stored in the occupancy data storage unit 690, 701 is a calendar, 702 is day information obtained from the calendar 701, and 703 is an occupancy pattern for each day of the week. For example, if the current day is Wednesday, only the Wednesday data in the occupancy data stored in the occupancy data storage unit 609 is extracted, and the frequency is counted for each time period. Then, the occupancy rate by time is obtained by dividing the frequency by time by the number of days on all Wednesdays. Then, it is stored as a room presence pattern for Wednesday.

【0140】次に、ベース温度変換手段692では、こ
の在室パターンを基本としてベース温度の値を算出す
る。図58に在室パターンとベース温度の関係を示す。
710は時刻別在室率、711は出力であるベース温
度、712は在室時の標準的な設定温度である。グラフ
の横軸は時刻、左縦軸は在室率、右縦軸は温度である。
ベース温度変換方法は、ベース温度のとり得る値の範囲
を下限p度から上限q度、現在時刻をt、tにおけるベ
ース温度をy(t)、tにおける在室率をz(t)とし
た場合、 y(t)=(q−p)×z(t+1)+p の式で定める。ただし時刻の単位は1時間である。第5
の実施例に示した生活シーン推定部670で退室シーン
となり、在室者が不在と判断した場合、時刻別のベース
温度の値を目標値にしスケジュールに従ってベース温度
を変化させる。そして、人の入室が検知された場合、在
室者が居る場合の制御指標に目標値を切り替える。この
ように在室率をベース温度に反映することで、室内環境
を人が入室する前にスタンバイを行うことができ、かつ
不在が多い時間帯は低めのベース温度を定めることがで
きるので経済性にも優れた空調が実現できる。また、特
別な場合を除きタイマーを用いる必要がなくなる。
Next, the base temperature converting means 692 calculates the value of the base temperature based on this occupancy pattern. FIG. 58 shows the relationship between the room presence pattern and the base temperature.
710 is the room-occupancy rate by time, 711 is the base temperature that is the output, and 712 is the standard set temperature when the user is in the room. The horizontal axis of the graph is time, the left vertical axis is the room occupancy rate, and the right vertical axis is the temperature.
The base temperature conversion method is such that the range of possible values of the base temperature is the lower limit p degrees to the upper limit q degrees, the current time is t, the base temperature at t is y (t), and the occupancy rate at t is z (t). In this case, y (t) = (q−p) × z (t + 1) + p. However, the unit of time is one hour. Fifth
In the case where the life scene estimation unit 670 shown in the above example shows the exit scene and the person in the room is absent, the base temperature value for each time is set as a target value and the base temperature is changed according to the schedule. Then, when the entry of a person is detected, the target value is switched to the control index when there is a person in the room. By reflecting the occupancy rate in the base temperature in this way, it is possible to perform a standby before the person enters the room environment, and it is possible to set a lower base temperature during times when there are many absences, so it is economical. Even excellent air conditioning can be realized. Also, it is not necessary to use a timer except in special cases.

【0141】なお、本実施例では曜日を在室パターンの
分類属性の基本としているが、全在室データの中から類
似の傾向を持つ在室データをパターン分類し、パターン
分けされた日の属性の特徴を在室データから得ることも
可能である。さらに、画像処理部を除き、人体の有無の
みを検知する人体検知センサの出力を用いて、室内の在
不在を判断し、在室時の制御指標を決定する在室時制御
指標決定部と、前記在室パターン分類とベース温度変換
を持つ不在時空調制御指標決定部を有する構成とするこ
とも可能である。この場合の在室時制御指標は温度でも
快適度でもよい。また、不在時についてもベース温度で
なく最低限維持する快適度を用いることで快適度PMV
を制御指標とすることも可能である。
In the present embodiment, the day of the week is the basic classification attribute of the occupancy pattern. However, the occupancy data having a similar tendency is pattern-classified from all the occupancy data, and the attribute of the day classified into the patterns is obtained. It is also possible to obtain the feature of from the occupancy data. Furthermore, excluding the image processing unit, using the output of the human body detection sensor that detects only the presence or absence of the human body, the presence or absence of the room is determined, and the control index determination unit for presence of the room to determine the control index when the presence of the room, It is also possible to adopt a configuration including an unoccupied air-conditioning control index determination unit having the room presence pattern classification and base temperature conversion. In this case, the in-room control index may be temperature or comfort level. In addition, the comfort level PMV can be maintained by using the minimum comfort level when not at home, instead of the base temperature.
It is also possible to use as a control index.

【0142】以下、本発明の第7の実施例について説明
する。第7の実施例では図59に示すように、第4の実
施例の制御指標決定部611と空調制御部614の間に
リモコン学習部720とリモコン721を設け、利用者
の制御指標に関するリモコン操作を利用者の好み、とし
て学習し、制御指標決定部611で算出された制御指標
を補正するものである。
The seventh embodiment of the present invention will be described below. In the seventh embodiment, as shown in FIG. 59, a remote controller learning unit 720 and a remote controller 721 are provided between the control index determination unit 611 and the air conditioning control unit 614 of the fourth embodiment, and the remote control operation regarding the user's control index is performed. Is learned as the user's preference, and the control index calculated by the control index determination unit 611 is corrected.

【0143】図60は本発明第7の実施例のリモコン学
習部720の構成図である。図60において731は学
習手段を示す。学習手段731は、各種の方法がある
が、本実施例ではニューラルネットワークを例としてし
て示す。732は快適度補正手段である。733は快適
度検出部613で算出された快適度、734は生活シー
ン推定部670で推定された生活シーン、735は時刻
およびカレンダ、736は使用者が快適度を申告したリ
モコンから得られる操作パネル操作信号、737は快適
度の補正値、738は最終的な制御指標となる目標快適
度である。
FIG. 60 is a block diagram of the remote controller learning unit 720 of the seventh embodiment of the present invention. In FIG. 60, reference numeral 731 indicates a learning means. There are various methods for the learning means 731, but in this embodiment, a neural network is taken as an example. Reference numeral 732 is a comfort level correction means. 733 is the comfort level calculated by the comfort level detection unit 613, 734 is the life scene estimated by the life scene estimation unit 670, 735 is the time and calendar, and 736 is the operation panel obtained from the remote controller that the user has declared the comfort level. An operation signal, 737 is a comfort level correction value, and 738 is a target comfort level as a final control index.

【0144】以上のような図60の構成において、以下
その動作について説明する。制御指標決定部611とリ
モコン721から得られた、算出された快適度733、
生活シーン734、時刻・カレンダ735、使用者の快
適度を申告したリモコンからの操作パネル操作信号73
6のいずれかを、入力信号として学習手段731の構成
要素であるニューラルネットワークに入力する。ニュー
ラルネットワークは、使用者が快適度の申告したリモコ
ンの操作を推測する。つまり、制御指標決定部611で
算出した快適度に対して利用者が、例えば「暑い」、
「寒い」などの申告を行ったことを、利用者の好みと判
断し、同様の環境要素や人間の要素が観測されたときに
利用者の好みの内容に基づいて、制御指標を補正するの
である。ニューラルネットワークから出力された使用者
の快適度の補正値737を快適度補正手段732に入力
し、算出快適度733と演算されて目標快適度738を
生成する。演算方法は、最も簡単な方法は加えることで
あり、複雑になると快適度補正値737と算出快適度7
33の情報を引数とする線形または非線形の関数で行う
こともできる。学習手段731は各手段の入力値733
から735を、リモコン操作信号736を教師信号とし
て、ニューラルネットの学習を行う。学習終了後、ニュ
ーラルネットワーク内の状態を変更する。ニューラルネ
ットワークは、パターン分類型の各種のモデルが使える
が、本実施例では、LVQ(learning vector quantu
m:参考文献、T.Kohonen,"Self-Organization and Asso
c-iative Memory",2ed,Springer-Verlag,1988)を例に
示す。図61に基づいて本実施例で用いたニューラルネ
ットワークのフォワード計算について説明する。図61
の740は入力信号正規化部であり、741は参照情報
部であり、人間の意思に合わせた3個のカテゴリとそれ
ぞれにm個の参照情報がある。742は距離計算算出部
であり、743はカテゴリ算出部である。以上のような
図61の構成において、以下その動作について説明す
る。入力信号744は入力信号正規化部において、正規
化される。すなわち、入力信号正規化部740では Sx1 =(xmax−x1)/(xmax−xmin) ……(1) Sx1:正規化された信号値 xmax :入力信号がとる最大値 xmin :入力信号がとる最小値 式(1)に示される処理を入力信号全てに対し行う。入
力信号は、温度、快適度、生活シーン、時刻等である。
入力信号正規化部740により正規化された信号は入力
ベクトル745として距離算出部742に出力される。
距離算出部742では、入力ベクトルと参照情報部74
1の人間の意思を表す暑い、寒い、満足の各カテゴリの
参照情報との距離を算出する。すなわち、暑いカテゴリ
の参照情報との距離(dAj)は式2により求める。
The operation of the configuration shown in FIG. 60 will be described below. The calculated comfort level 733 obtained from the control index determination unit 611 and the remote controller 721,
Life scene 734, time / calendar 735, operation panel operation signal 73 from the remote controller that declared the comfort level of the user
Any one of 6 is input as an input signal to the neural network which is a constituent element of the learning means 731. The neural network infers the operation of the remote controller for which the user has declared the comfort level. In other words, for the comfort level calculated by the control index determination unit 611, for example, the user is "hot",
It is judged that the declaration of "cold" or the like is the user's preference, and when similar environmental factors or human factors are observed, the control index is corrected based on the content of the user's preference. is there. The user comfort level correction value 737 output from the neural network is input to the comfort level correction unit 732, and the calculated comfort level 733 is calculated to generate the target comfort level 738. The calculation method is to add the simplest method, and when it becomes complicated, the comfort level correction value 737 and the calculated comfort level 7
It is also possible to use a linear or non-linear function that takes 33 pieces of information as arguments. The learning means 731 uses the input value 733 of each means.
To 735 are used as a teacher signal for the remote control operation signal 736 to learn the neural network. After learning, the state in the neural network is changed. Although various patterns of the pattern classification type can be used as the neural network, in the present embodiment, LVQ (learning vector quantu) is used.
m: References, T. Kohonen, "Self-Organization and Asso
c-iative Memory ", 2ed, Springer-Verlag, 1988) as an example. The forward calculation of the neural network used in this embodiment will be described based on FIG.
740 is an input signal normalization section, and 741 is a reference information section, which has three categories according to human intention and m pieces of reference information in each category. Reference numeral 742 is a distance calculation calculation unit, and 743 is a category calculation unit. The operation of the configuration shown in FIG. 61 will be described below. The input signal 744 is normalized by the input signal normalization unit. That is, in the input signal normalization unit 740, Sx1 = (xmax−x1) / (xmax−xmin) (1) Sx1: normalized signal value xmax: maximum value of input signal xmin: minimum of input signal The process represented by the value expression (1) is performed on all input signals. Input signals include temperature, comfort level, life scene, time of day, and the like.
The signal normalized by the input signal normalization unit 740 is output to the distance calculation unit 742 as the input vector 745.
In the distance calculation unit 742, the input vector and reference information unit 74
The distance from the reference information of each category of 1 which represents the intention of the human being, which is hot, cold, and satisfied, is calculated. That is, the distance (dAj) from the reference information of the hot category is obtained by the equation 2.

【0145】 dAj = Σ(xi−Raji)2 ……(2) dAj:j番目の参照情報との距離 xi :i番目の入力ベクトル値 Raji:j番目の参照情報のi番目のベクトル値 参照情報部741のディレクトリ746を参照し、カテ
ゴリ数3と各カテゴリの参照情報数を算出する。
DAj = Σ (xi-Raji) 2 (2) dAj: Distance from jth reference information xi: i-th input vector value Raji: i-th vector value of jth reference information Reference information By referring to the directory 746 of the section 741, the number of categories 3 and the number of reference information of each category are calculated.

【0146】各カテゴリに対し参照情報と入力ベクトル
との距離を算出し、さらに全てのカテゴリに対しても同
様の処理を行い、距離を算出する。距離算出部742で
求める距離の総数(dnum)は、 dnum = m1+m2+・・・+mN ……(3) となる。次に距離算出部742で求めた距離dNjとd
numはカテゴリ算出部743に出力される。カテゴリ
算出部743では、dnum個の距離で最も短い距離d
minを算出し、さらに該当参照情報が属するカテゴリ
を算出する。
The distance between the reference information and the input vector is calculated for each category, and the same process is performed for all categories to calculate the distance. The total number (dnum) of distances calculated by the distance calculation unit 742 is dnum = m1 + m2 + ... + mN (3). Next, the distances dNj and d calculated by the distance calculation unit 742
The num is output to the category calculation unit 743. In the category calculation unit 743, the shortest distance d out of dnum distances.
min is calculated, and the category to which the corresponding reference information belongs is calculated.

【0147】入力ベクトルと最短距離にある参照情報が
属するカテゴリをカテゴリ算出部743の出力とする。
すなわち、図60の学習手段731の構成要素であるニ
ューラルネットワークの出力となる。この出力は、快適
度補正部732で快適度の補正値737として、快適度
検出部613で算出された快適度に加えられる等の演算
が行われる。
The category to which the reference information having the shortest distance to the input vector belongs is output from the category calculation unit 743.
That is, it becomes the output of the neural network which is a component of the learning means 731 in FIG. This output is subjected to calculations such as being added to the comfort level calculated by the comfort level detection unit 613 as a comfort level correction value 737 in the comfort level correction unit 732.

【0148】図62を用いてニューラルネットワークの
学習の詳細な説明をする。図62において、入力正規化
部750は図61の入力信号正規化部740と共通の入
力信号を正規化し、入力ベクトルに変換する。参照情報
部751も図61と共通の参照情報部ある。752は参
照情報検索手段、753は参照情報生成部、754は参
照情報学習部である。以上のような構成において、以下
その動作について説明する。
The learning of the neural network will be described in detail with reference to FIG. In FIG. 62, an input normalization unit 750 normalizes an input signal common to the input signal normalization unit 740 of FIG. 61 and converts it into an input vector. The reference information section 751 is also a reference information section common to FIG. Reference numeral 752 is a reference information search unit, 753 is a reference information generation unit, and 754 is a reference information learning unit. The operation of the above configuration will be described below.

【0149】入力信号正規化部750で正規化された入
力信号は、入力ベクトルとして、参照情報検索部752
で入力される。さらに入力ベクトルの正しいカテゴリ
(教師データ)も同時に入力される。参照情報検索部7
52では、参照情報部751のディレクトリを参照し、
入力ベクトルの正しいカテゴリ(TC)が、例えば暑い
カテゴリの場合、暑いカテゴリの参照情報数が以下の様
な関係にある時、次のような処理を行う。
The input signal normalized by the input signal normalization unit 750 is used as an input vector by the reference information search unit 752.
Entered in. Furthermore, the correct category (teacher data) of the input vector is also input at the same time. Reference information search unit 7
In 52, the directory of the reference information section 751 is referred to,
If the correct category (TC) of the input vector is, for example, a hot category, and the number of reference information items in the hot category has the following relationship, the following process is performed.

【0150】ARNUM < ARNUMmax ならば
参照情報生成部753の処理を行う。
If ARNUM <ARNUMmax, the processing of the reference information generating section 753 is performed.

【0151】ARNUM ≧ ARNUMmax ならば
参照情報学習部754の処理を行う。 ARNUM:暑いカテゴリの参照情報数 ARNUMmax:Aカテゴリの参照情報最大数 参照情報生成部753では入力ベクトルを正しいカテゴ
リ(TC)の参照情報として生成する。ここでは、暑い
カテゴリの参照情報を生成し、ARNUMを1増やす。
参照情報学習部754では、リモコン操作手段の出力値
と入力ベクトルの正しいカテゴリを比較し、一致してい
る場合は、一番距離の短い参照情報を近づける。またリ
モコン操作手段の出力値と入力ベクトルの正しいカテゴ
リが一致していない場合は、一番距離の短い参照情報を
遠ざける。すなわち、 OC = TC ならば RV = RV + α(R
V − Sx) OC ≠ TC ならば RV = RV − α(R
V − Sx) RV:入力ベクトルと一番距離の短いリファレンスベク
トル OC:出力カテゴリ(RVのカテゴリ) TC:入力ベクトルの正しいカテゴリ Sx:入力ベクトル α :学習レート 従って、参照情報学習部754では参照情報数が参照情
報の最大値を超えるまでは、入力ベクトルを入力ベクト
ルの正しいカテゴリの参照情報として生成する。また、
最大値を超えてからは、出力カテゴリと入力カテゴリが
一致した場合は、参照情報を入力ベクトルの方向へ、少
し近づけ、一致しない場合は、参照情報を入力ベクトル
から少し遠ざける。近づけたり、遠ざけたりする距離は
学習レートαで設定する。
If ARNUM ≥ ARNUMmax, the processing of the reference information learning unit 754 is performed. ARNUM: number of reference information of hot category ARNUMmax: maximum number of reference information of A category The reference information generation unit 753 generates an input vector as reference information of a correct category (TC). Here, the reference information of the hot category is generated and ARNUM is incremented by 1.
The reference information learning unit 754 compares the output value of the remote control operating means with the correct category of the input vector, and if they match, the reference information with the shortest distance is brought closer. If the output value of the remote control operating means does not match the correct category of the input vector, the reference information with the shortest distance is moved away. That is, if OC = TC, then RV = RV + α (R
V-Sx) If OC ≠ TC, then RV = RV-α (R
V-Sx) RV: Reference vector with the shortest distance from the input vector OC: Output category (RV category) TC: Correct category of input vector Sx: Input vector α: Learning rate Therefore, the reference information learning unit 754 has reference information. Until the number exceeds the maximum value of the reference information, the input vector is generated as the reference information of the correct category of the input vector. Also,
After the maximum value is exceeded, when the output category and the input category match, the reference information is moved a little closer to the direction of the input vector, and when they do not match, the reference information is moved a little away from the input vector. The distance to approach or move away is set by the learning rate α.

【0152】以上のようにニューラルネットワークによ
るリモコン操作の学習を行うことにより、入力データの
組み合わせを変えることで、快適度や生活シーン毎の制
御指標の補正が行えるので、利用者の好みに合った空調
を実現することが可能となる。また、リモコンにリモコ
ン位置センサを設置し、足元位置情報とリモコン位置セ
ンサの対応を調べニューラルネットワークの入力要素と
することで、個人毎の制御指標の補正や、人体の位置毎
の制御指標の補正を行うことも可能である。
By learning the remote control operation by the neural network as described above, the comfort level and the control index for each life scene can be corrected by changing the combination of the input data. It becomes possible to realize air conditioning. Also, by installing a remote control position sensor in the remote control and checking the correspondence between the foot position information and the remote control position sensor and using it as an input element of the neural network, the correction of the control index for each individual or the correction of the control index for each position of the human body is corrected. It is also possible to do

【0153】以下、本発明の第8の実施例について説明
する。第8の実施例は、本発明の画像処理装置を用いた
交通流制御装置に関するものである。ここでいう交通流
とは、人間の運搬もしくは交通に関する人の流れであ
り、エレベータや信号機、輸送車両などである。従来の
交通流制御手段は、エレベータのかご荷重の変化を検出
して交通流を予測し制御するものがあったが、この方式
だと人数検出が遅れてしまい、制御が後追い的な制御に
なることが多かった。本交通流制御装置は、交通手段を
待っている人間の人数を、通行者と区別し正確に検出
し、その結果を用いて交通流を制御する。図8に第8の
実施例の構成図を示す。800は画像処理装置、801
は交通流分類手段、802は交通流予測手段、803は
交通流制御手段である。以上のような構成で、画像処理
装置800より人数、とりわけ車両やエレベータなどを
待っている人間の人数を得る。次に、交通流分類手段8
01では画像処理装置800から得られる人数の時系列
データから人数の増減に関する特徴量を抽出しパターン
分類する。つまり、どの時間帯に混雑するかなどを分類
する。交通流予測手段802では、画像処理装置800
から得られる現在の人数と、交通流分類パターンから交
通流を予測する。例えば、エレベータなどの場合混雑し
そうな時間帯と階数を予測する。交通流制御手段803
では予測された交通流をもとに、例えば、各階の人の待
ち時間が少なくなるように複数のエレベータの運行を最
適制御する。
The eighth embodiment of the present invention will be described below. The eighth embodiment relates to a traffic flow control device using the image processing device of the present invention. The traffic flow here is a flow of people involved in transportation or traffic, and includes an elevator, a traffic light, and a transportation vehicle. There is a conventional traffic flow control means that detects a change in the elevator car load and predicts and controls the traffic flow, but this method delays the number of people detection, and the control becomes a follow-up control. There were many things. The present traffic flow control device accurately detects the number of people waiting for transportation by distinguishing them from passersby, and controls the traffic flow using the result. FIG. 8 shows a block diagram of the eighth embodiment. Reference numeral 800 denotes an image processing apparatus, 801
Is a traffic flow classification means, 802 is a traffic flow prediction means, and 803 is a traffic flow control means. With the above configuration, the number of people, especially the number of people waiting for a vehicle, an elevator, or the like is obtained from the image processing device 800. Next, traffic flow classification means 8
In 01, the feature quantity relating to the increase / decrease in the number of people is extracted from the time-series data of the number of people obtained from the image processing apparatus 800, and pattern classification is performed. In other words, it is classified into which time zone it is crowded. In the traffic flow predicting means 802, the image processing device 800
Predict the traffic flow from the current number of people and traffic flow classification pattern obtained from. For example, in the case of an elevator, the time zone and the number of floors that are likely to be congested are predicted. Traffic flow control means 803
Then, based on the predicted traffic flow, for example, the operation of a plurality of elevators is optimally controlled so that the waiting time of the person on each floor is reduced.

【0154】[0154]

【発明の効果】本発明の画像処理装置は、足元位置検出
部では姿勢の種類により位置判定部の内部を例えば、立
位用と座位用と言うように判定する姿勢の数に合わせて
分けて判定を行い、位置判定部からの出力を姿勢判別部
からの出力によって選択、選別している。このような処
理を行うことで、より正確な位置検出が可能となる。
According to the image processing apparatus of the present invention, the inside of the position determination unit is divided according to the type of posture in the foot position detection unit according to the number of determined postures such as standing posture and sitting posture. The determination is performed, and the output from the position determination unit is selected and selected according to the output from the posture determination unit. By performing such processing, more accurate position detection becomes possible.

【0155】また、検出エリア内の環境情報、例えば室
内であればセンサに対する室内の大きさや壁面の位置等
の構造情報は熱画像から検出することは難しいために、
使用者が直接コンソール部から入力して正確な位置検出
や姿勢の検出の補助情報として用いることができる。
Further, since it is difficult to detect the environmental information in the detection area, for example, structural information such as the size of the room or the position of the wall surface with respect to the sensor in the case of a room from the thermal image,
The user can directly input from the console unit and can be used as auxiliary information for accurate position detection and posture detection.

【0156】次に、本発明の画像処理装置は、熱画像の
処理のみでなく可視画像入力装置(カメラ)を用いたシ
ステムすることにより熱画像より得られた人の関連情報
を可視画像上に伝達して、可視画像の人の位置を使用者
に提供したりできる。
Next, the image processing apparatus according to the present invention is not limited to the processing of the thermal image, but the system using the visible image input device (camera) is used to display the relevant information of the person obtained from the thermal image on the visible image. It can be communicated to provide the user with the location of the person in the visible image.

【0157】また、逆の場合として可視画像から得られ
る人の情報、例えば動き情報を用いて熱画像上の人の位
置を検出することも可能であるとともに、熱画像や可視
画像の各処理を行っている画像情報検出部におけるニュ
ーラルネットワークの状態をお互いの情報を教師として
適応的な学習を行い、より性能のアップを図ることがで
きる。
In the opposite case, it is possible to detect the position of the person on the thermal image by using the information of the person obtained from the visible image, for example, the motion information, and the processing of the thermal image and the visible image can be performed. The performance of the neural network in the image information detection unit, which is being performed, can be adaptively learned by using mutual information as teachers.

【0158】本発明の熱画像処理と可視画像処理を組み
合わせた画像処理装置を複数用いて、その複数の装置が
設置されたエリアの人の情報をより正確に検出すること
ができる。これは、1つの画像処理装置では重なった人
を正確に分離することが難しいが、複数台の装置を用い
ることもできる。また、広いエリアにおいて人の追尾が
可能となる。
By using a plurality of image processing apparatuses in which the thermal image processing and the visible image processing of the present invention are combined, it is possible to more accurately detect the information of the person in the area where the plurality of apparatuses are installed. Although it is difficult for one image processing apparatus to accurately separate overlapping persons, it is possible to use a plurality of apparatuses. In addition, people can be tracked in a large area.

【0159】また以上のように本発明の空気調和機の制
御装置は、室内の在室者および環境の温度を計測する赤
外線画像入力手段を持つ画像処理装置と、画像処理装置
から得られる個人情報および環境情報から空調を行うた
めの制御指標を決める制御指標決定部と、空調機器の制
御を行う空調制御部を有し、様々な環境条件を考慮にい
れた上での、在室者の個人個人の位置や状態に応じた快
適な空調を実現することができる。また、熱画像を画像
処理することで個人情報や環境情報を抽出するので、複
数のセンサーを室内に配置する必要がなくなり、具現化
が行い易い。
As described above, the control device for an air conditioner according to the present invention includes an image processing device having infrared image input means for measuring the temperature of the person in the room and the environment, and personal information obtained from the image processing device. Also, it has a control index determination unit that determines the control index for air conditioning from the environmental information and an air conditioning control unit that controls the air conditioning equipment, and considers various environmental conditions. A comfortable air conditioning can be realized according to the position and condition of the individual. Further, since the personal information and the environmental information are extracted by performing image processing on the thermal image, it is not necessary to dispose a plurality of sensors in the room, and it is easy to implement.

【0160】また、上記構成に在室データ記憶手段、在
室パターン分類手段、ベース温度変換手段の構成からな
る不在時制御指標決定部を付加することにより、タイマ
ーをなくすことができると共に快適性と経済性を兼ね備
えた空調運転が可能となる。
Further, by adding an absence control index determining unit consisting of the occupancy data storage means, the occupancy pattern classification means, and the base temperature conversion means to the above configuration, the timer can be eliminated and comfort can be improved. Air conditioning operation with economical efficiency is possible.

【0161】さらに、上記構成にリモコン操作学習部を
付加することにより、利用者の好みを反映した空調制御
が可能となる。
Furthermore, by adding a remote control operation learning section to the above configuration, it becomes possible to perform air conditioning control that reflects the user's preference.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における画像処理装置の
構成図
FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】(a) 同実施例における熱画像の例を示す図 (b) 同実施例における平面図の例を示す図FIG. 2A is a diagram showing an example of a thermal image in the same embodiment. FIG. 2B is a diagram showing an example of a plan view in the same embodiment.

【図3】同実施例における人間領域検出部の構成図FIG. 3 is a configuration diagram of a human area detection unit in the embodiment.

【図4】同実施例における熱画像のブロック分割例を示
す図
FIG. 4 is a diagram showing an example of block division of a thermal image in the embodiment.

【図5】同実施例における差分画像を用いた人間領域検
出部の構成図
FIG. 5 is a configuration diagram of a human area detection unit using a difference image in the example.

【図6】同実施例における差分画像の作成例を示す図FIG. 6 is a diagram showing an example of creating a difference image in the embodiment.

【図7】同実施例における個人情報抽出部の構成図FIG. 7 is a configuration diagram of a personal information extraction unit in the same embodiment.

【図8】同実施例における人数特徴検出手段の構成図FIG. 8 is a configuration diagram of the number-of-people feature detecting means in the embodiment.

【図9】同実施例における人数判定例を示す図FIG. 9 is a diagram showing an example of determining the number of people in the same embodiment.

【図10】同実施例におけるニューラルネットワークを
用いた人数検出手段の構成図
FIG. 10 is a block diagram of a person number detecting means using a neural network in the same embodiment.

【図11】同実施例における足元位置の検出の構成図FIG. 11 is a configuration diagram of detecting a foot position in the embodiment.

【図12】立位の人間の熱画像模式図FIG. 12 is a schematic diagram of a thermal image of a standing human.

【図13】同実施例における位置判定特徴量の算出方法
を示す図
FIG. 13 is a diagram showing a method of calculating a position determination feature amount in the embodiment.

【図14】同実施例における姿勢の検出の構成図FIG. 14 is a configuration diagram of posture detection in the embodiment.

【図15】同実施例における姿勢検出手段の処理例を示
す図
FIG. 15 is a diagram showing a processing example of a posture detection unit in the embodiment.

【図16】同実施例における人間画素ブロックの標準化
の手順を示す図
FIG. 16 is a diagram showing a procedure of standardizing human pixel blocks in the embodiment.

【図17】同実施例における姿勢判定特徴量の算出方法
を示す図
FIG. 17 is a diagram showing a method of calculating a posture determination feature amount according to the embodiment.

【図18】同実施例における画像情報検出部の一部の構
成図
FIG. 18 is a partial configuration diagram of an image information detection unit in the embodiment.

【図19】同実施例における個人情報抽出部の構成図FIG. 19 is a configuration diagram of a personal information extraction unit in the same embodiment.

【図20】同実施例における皮膚温度の検出の構成図FIG. 20 is a configuration diagram of skin temperature detection in the example.

【図21】(a) 同実施例における立位の人間のブロ
ック分割例を示す図 (b) 同実施例における座位の人間のブロック分割例
を示す図
FIG. 21 (a) is a diagram showing an example of block division of a standing human in the same embodiment. FIG. 21 (b) is a diagram showing an example of block division of a sitting human in the same embodiment.

【図22】同実施例における着衣量の検出の構成図FIG. 22 is a configuration diagram of detection of a clothing amount in the example.

【図23】同実施例における環境抽出部の構成図FIG. 23 is a configuration diagram of an environment extraction unit in the same embodiment.

【図24】同実施例における足元温度検出手段の構成図FIG. 24 is a configuration diagram of a foot temperature detecting means in the embodiment.

【図25】同実施例における足元温度検出手段の処理例
を示す図
FIG. 25 is a diagram showing a processing example of a foot temperature detecting means in the embodiment.

【図26】(a) 同実施例における中央設置の場合の
室内各部位の熱画像を示す図 (b) 同実施例における左設置の場合の室内各部位の
熱画像を示す図
26 (a) is a diagram showing a thermal image of each part of the room in the case of the central installation in the same embodiment. FIG. 26 (b) is a diagram showing a thermal image of each part of the room in the case of the left installation in the same embodiment.

【図27】同実施例における輻射温度検出手段の構成図FIG. 27 is a configuration diagram of radiation temperature detection means in the same embodiment.

【図28】同実施例における異なる環境抽出部の構成図FIG. 28 is a block diagram of a different environment extraction unit in the same embodiment.

【図29】同実施例における異なる画像処理部の構成図FIG. 29 is a configuration diagram of a different image processing unit in the embodiment.

【図30】同実施例における人間領域補正部の構成図FIG. 30 is a configuration diagram of a human area correction unit in the embodiment.

【図31】同実施例における累積処理部の構成図FIG. 31 is a configuration diagram of a cumulative processing unit in the embodiment.

【図32】同実施例における位置累積の例を示す図FIG. 32 is a diagram showing an example of position accumulation in the example.

【図33】同実施例における累積記憶Aと累積記憶Bの
関係を表わす図
FIG. 33 is a diagram showing a relationship between cumulative storage A and cumulative storage B in the embodiment.

【図34】同実施例における空調機設置位置の判断方法
を示す図
FIG. 34 is a diagram showing a method of determining an air conditioner installation position in the same example.

【図35】同実施例における室内代表点の判断方法を示
す図
FIG. 35 is a diagram showing a method of determining an indoor representative point in the same example.

【図36】本発明の第2の実施例における画像処理装置
の構成図
FIG. 36 is a configuration diagram of an image processing apparatus according to a second embodiment of the present invention.

【図37】本発明の第3の実施例における画像処理装置
の構成図
FIG. 37 is a configuration diagram of an image processing apparatus according to a third embodiment of the present invention.

【図38】本発明の第3の実施例における画像処理装置
に監視情報検出部を付加した画像処理装置の構成図
FIG. 38 is a configuration diagram of an image processing apparatus in which a monitoring information detection unit is added to the image processing apparatus according to the third embodiment of the present invention.

【図39】同実施例に個人識別部を付加した画像処理装
置の構成図
FIG. 39 is a configuration diagram of an image processing apparatus in which a personal identification unit is added to the embodiment.

【図40】本発明の複数の画像処理装置を出力を統合す
る統合処理部の構成図
FIG. 40 is a configuration diagram of an integrated processing unit that integrates outputs of a plurality of image processing apparatuses of the present invention.

【図41】本発明の第4の実施例における画像処理装置
を用いた空気調和機の制御装置の構成図
FIG. 41 is a configuration diagram of an air conditioner control device using an image processing device according to a fourth embodiment of the present invention.

【図42】同実施例における活動量検出部の構成図FIG. 42 is a configuration diagram of an activity amount detection unit in the same example.

【図43】(a) 同実施例における床面位置分割を示
す図 (b) 同実施例における記憶されている個人情報の一
例を示す図
43A is a diagram showing floor surface position division in the embodiment, and FIG. 43B is a diagram showing an example of stored personal information in the embodiment.

【図44】(a) 同実施例における滞在頻度を示す図 (b) 同実施例における滞在頻度と活動量の対応を示
す図
FIG. 44 (a) is a diagram showing a stay frequency in the same example. (B) is a diagram showing a correspondence between a stay frequency and an activity amount in the same example.

【図45】(a) 同実施例における床面の周辺定義例
を示す図 (b) 同実施例における周辺を含めた滞在頻度算出例
を示す図
FIG. 45 (a) is a diagram showing a definition example of the periphery of the floor surface in the same embodiment. FIG. 45 (b) is a diagram showing a stay frequency calculation example including the periphery in the same embodiment.

【図46】同実施例における移動量を用いた活動量検出
部の構成図
FIG. 46 is a block diagram of an activity amount detection unit using movement amounts in the same embodiment.

【図47】実際の掃除のシーンにおける移動距離の一例
を示す図
FIG. 47 is a diagram showing an example of a moving distance in an actual cleaning scene.

【図48】同実施例における移動量検出手段の構成図FIG. 48 is a block diagram of a movement amount detecting means in the embodiment.

【図49】同実施例における記憶されている個人情報の
一例を示す図
FIG. 49 is a diagram showing an example of stored personal information in the embodiment.

【図50】(a) 同実施例における期間移動量ランク
Aの導出方法を示す図 (b) 同実施例における期間移動量ランクCの導出方
法を示す図
50A is a diagram showing a method of deriving a period movement amount rank A in the same embodiment. FIG. 50B is a diagram showing a method of deriving a period movement amount rank C in the same example.

【図51】同実施例における期間移動量などと活動量の
対応を示す図
FIG. 51 is a diagram showing a correspondence between a period movement amount and the activity amount in the same example.

【図52】(a) 同実施例における安定時の空調例を
示す図 (b) 同実施例における条件が変化した場合の空調例
を示す図
FIG. 52 (a) is a diagram showing an example of stable air conditioning in the same embodiment. (B) is a diagram showing an example of air conditioning when conditions in the same example are changed.

【図53】本発明の第5の実施例における空気調和機の
制御装置の構成図
FIG. 53 is a configuration diagram of a control device for an air conditioner in a fifth embodiment of the present invention.

【図54】本発明の第6の実施例における制御指標決定
部の構成図
FIG. 54 is a configuration diagram of a control index determination unit in the sixth embodiment of the present invention.

【図55】同実施例における不在時制御指標決定部の構
成図
FIG. 55 is a configuration diagram of an absence control index determination unit in the example.

【図56】(a) 実家庭における平日の時刻別在室率
を示す図 (b) 実家庭における休日の時刻別在室率を示す図
[FIG. 56] (a) A diagram showing the percentage of occupancy by time of day in a real home (b) A diagram showing the percentage of occupancy by time of day in a real home

【図57】同実施例における在室パターンの分類例を示
す図
FIG. 57 is a diagram showing an example of classification of occupancy patterns in the example.

【図58】同実施例における在室パターンとベース温度
の関係を示す図
FIG. 58 is a diagram showing the relationship between the room presence pattern and the base temperature in the example.

【図59】本発明の第7の実施例における空気調和機の
制御装置の構成図
FIG. 59 is a configuration diagram of a control device for an air conditioner according to a seventh embodiment of the present invention.

【図60】同実施例におけるリモコン学習部の構成図FIG. 60 is a configuration diagram of a remote control learning unit in the example.

【図61】同実施例におけるニューラルネットワークの
フォワード計算の構成図
FIG. 61 is a configuration diagram of forward calculation of the neural network in the example.

【図62】同実施例におけるニューラルネットワークの
学習の構成図
FIG. 62 is a configuration diagram of learning of the neural network in the example.

【図63】本発明の第8の実施例における交通流の制御
装置の構成図
FIG. 63 is a configuration diagram of a traffic flow control device according to an eighth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 センサー部 2 画像処理部 3 画像情報検出部 460 コンソール部 470 可視センサ部(カメラ) 471 可視画像処理部 472 可視画像情報検出部 480 監視情報検出部 503 統合処理部 611 制御指標決定部 612 活動量検出部 613 快適度検出部 614 空調制御部 670 生活シーン推定部 680 不在時制御指標決定部 720 リモコン操作学習部 DESCRIPTION OF SYMBOLS 1 sensor part 2 image processing part 3 image information detecting part 460 console part 470 visible sensor part (camera) 471 visible image processing part 472 visible image information detecting part 480 monitoring information detecting part 503 integrated processing part 611 control index determining part 612 activity amount Detection unit 613 Comfort level detection unit 614 Air conditioning control unit 670 Life scene estimation unit 680 Absence control index determination unit 720 Remote control operation learning unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 正章 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 ▲吉▼田 邦夫 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 赤嶺 育雄 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 清水 真 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 内田 好昭 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Masaaki Sato Inventor Masaaki Sato 3-10-1 Higashisanda, Tama-ku, Kawasaki-shi, Kanagawa Matsushita Giken Co., Ltd. (72) Inventor ▲ Kunio Tada Higashi, Tama-ku, Kawasaki-shi, Kanagawa Mita 3-10-10 Matsushita Giken Co., Ltd. (72) Inventor Ikuo Akamine 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Ma, Shimizu 1006 Kadoma, Kadoma City, Osaka Matsushita Electric Industrial Co., Ltd. Sangyo Co., Ltd. (72) Inventor Yoshiaki Uchida 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (44)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも検出エリア内の人間または環
境の温度を計測する赤外線画像(以降、熱画像と呼ぶ)
入力手段を持つセンサ部と、前記センサ部の出力である
検出温度を画素値とする熱画像から特徴量を抽出する画
像処理部と、前記画像処理部からの信号に基づいて、人
間の個人情報信号または環境情報信号を出力する画像情
報検出部を有することを特徴とする画像処理装置。
1. An infrared image (hereinafter referred to as a thermal image) for measuring the temperature of a person or environment in at least a detection area.
A sensor unit having an input unit, an image processing unit for extracting a feature amount from a thermal image having a detected temperature as an output of the sensor unit as a pixel value, and human personal information based on a signal from the image processing unit. An image processing apparatus comprising an image information detection unit that outputs a signal or an environmental information signal.
【請求項2】 画像処理部が、すくなくとも計測した熱
画像を記憶する画像記憶部と、熱画像の中から人間部分
の領域を検出し、人間画素ブロックとその代表点を出力
する人間領域検出部と、人間領域検出部で検出した人間
画素ブロックを基に検出エリア内の人間の特徴量を抽出
する個人情報抽出部の構成を有することを特徴とする請
求項1記載の画像処理装置。
2. An image processing section for storing at least a thermal image measured by an image processing section, and a human area detection section for detecting an area of a human part in the thermal image and outputting a human pixel block and its representative point. 2. The image processing apparatus according to claim 1, further comprising: a personal information extraction unit configured to extract a human feature amount in the detection area based on the human pixel block detected by the human region detection unit.
【請求項3】 画像情報検出部が、構成要素にニューラ
ルネットまたはパターン認識機構を有し、すくなくとも
人数検出手段と、足元位置検出手段と、姿勢検出手段
と、着衣量検出手段と、皮膚温度検出手段のいずれか一
つを有することを特徴とする請求項1または2記載の画
像処理装置。
3. The image information detecting section has a neural net or a pattern recognizing mechanism as a constituent element, and at least a number of people detecting means, a foot position detecting means, a posture detecting means, a clothing amount detecting means, and a skin temperature detecting. The image processing apparatus according to claim 1, further comprising any one of the units.
【請求項4】 画像処理部に、計測画像から検出エリア
内の環境情報を抽出する環境情報抽出部を付加したこと
を特徴とする請求項2または3記載の画像処理装置。
4. The image processing apparatus according to claim 2, further comprising an environment information extraction unit that extracts environment information in the detection area from the measurement image, to the image processing unit.
【請求項5】 画像処理部に、人間領域検出部で得られ
た人間画素ブロックの画素レベルでの補完および消去を
行う人間領域補正部と、人間領域検出部で得られた人間
画素ブロックの代表点を所定の期間累積する累積処理部
と、累積処理部から得られる人間画素ブロックの代表点
の所定期間の累積から少なくとも床と壁、または壁と壁
の境界である室内代表点を判別し、熱画像上の各画素と
室内の床および壁の対応を関連付ける室内部位判定部を
付加したことを特徴とする請求項2から4のいずれか記
載の画像処理装置。
5. A human region correction unit that complements and erases a human pixel block obtained by the human region detection unit at the pixel level in an image processing unit, and a representative of the human pixel block obtained by the human region detection unit. An accumulation processing unit that accumulates points for a predetermined period, and at least a floor and a wall, or an indoor representative point that is a boundary between walls, is determined from the accumulation of representative points of human pixel blocks obtained from the accumulation processing unit for a predetermined period, The image processing apparatus according to claim 2, further comprising an indoor part determination unit that associates each pixel on the thermal image with the correspondence between the indoor floor and the wall.
【請求項6】 人間領域検出部が、計測した熱画像を複
数領域に分割し各領域の代表温度を算出する領域分割代
表温度算出手段と、各領域の代表温度毎に人体の切り出
し温度を定める切り出し温度決定手段と、熱画像を各領
域毎に定められた切り出し温度幅で温度切り出しを行う
人間検出部と、切り出された人間画素ブロックの代表点
を算出する代表点算出部を有することを特徴とする請求
項2から5のいずれかに記載の画像処理装置。
6. A human region detection unit divides a measured thermal image into a plurality of regions and calculates a representative temperature of each region, and a region division representative temperature calculating unit, and a human body cutout temperature for each representative temperature of each region. A cutout temperature determining unit, a human detection unit that cuts out a thermal image with a cutout temperature width determined for each region, and a representative point calculation unit that calculates a representative point of the cut out human pixel block. The image processing apparatus according to any one of claims 2 to 5.
【請求項7】 個人情報抽出部が、画像記憶部から得ら
れる熱画像と、人間領域検出部から得られる人間画素ブ
ロックと、人間画素ブロックの代表点から、人数を検出
するための特徴量を検出する人数特徴検出部と、前記熱
画像と、前記代表点と、人数特徴検出部もしくは画像情
報検出部から得られる人数から、すくなくとも検出エリ
ア内の人間の姿勢を判定するための特徴量を検出する姿
勢判定特徴量検出部と、同人間の位置を判定するための
特徴量を検出する位置判定特徴量検出部と、同人間の着
衣量を判定するための特徴量を検出する着衣量判定特徴
量検出部と、同人間の皮膚温度を判定するための特徴量
を検出する皮膚温度判定特徴量検出部のいずれか一つを
有することを特徴とする請求項2から6のいずれかに記
載の画像処理装置。
7. A feature amount for the personal information extraction unit to detect the number of people from the thermal image obtained from the image storage unit, the human pixel block obtained from the human region detection unit, and the representative point of the human pixel block. A feature quantity for determining the posture of a person in the detection area is detected at least from the number of persons feature detecting section to be detected, the thermal image, the representative point, and the number of persons obtained from the number of persons feature detecting section or the image information detecting section. Posture determination feature amount detection unit, position determination feature amount detection unit that detects a feature amount for determining the same person's position, and clothing amount determination feature that detects a feature amount for determining the same person's clothing amount 7. The amount detection unit and the skin temperature determination feature amount detection unit for detecting the feature amount for determining the skin temperature of the same person, as claimed in any one of claims 2 to 6. Image processing device.
【請求項8】 人数特徴検出部が、人間領域検出部から
得られる人間画素ブロックと、代表点から、人間画素ブ
ロックの画素数を計数する画素数算出手段と、前記人間
画素ブロックの形態をあらかじめ定められた形態種類に
分類するブロック形態判定手段と、人間画素ブロックの
ブロック数を計数する人間画素ブロック計数手段の構成
を有することを特徴とする請求項2から7のいずれかに
記載の画像処理装置。
8. The number-of-people feature detecting unit has a human pixel block obtained from the human region detecting unit, a pixel number calculating unit for counting the number of pixels of the human pixel block from a representative point, and a form of the human pixel block in advance. The image processing according to any one of claims 2 to 7, further comprising: a block form determination unit that classifies the blocks into predetermined form types and a human pixel block counting unit that counts the number of blocks of human pixel blocks. apparatus.
【請求項9】 人数検出手段が前記人数特徴検出部から
得られる画素数と、代表点と、形態種別からニューラル
ネットを用い人数を検出することを特徴とする請求項2
から8のいずれかに記載の画像処理装置。
9. The number-of-people detecting means detects the number of people by using a neural net from the number of pixels obtained from the number-of-people characteristic detecting unit, a representative point, and a type of form.
The image processing device according to any one of 1 to 8.
【請求項10】 位置判定特徴量検出部において、人間
領域検出部から得られる人間画素ブロックと、代表点
と、画像記憶部から得られる熱画像から、足元位置検出
手段における足元位置推測用の特徴量を算出し、前記足
元位置検出手段においてニューラルネットを用いて足元
位置推測を行うことを特徴とする請求項7から9のいず
れかに記載の画像処理装置。
10. A feature for estimating a foot position in a foot position detecting means from a human pixel block obtained from a human area detecting unit, a representative point, and a thermal image obtained from an image storage unit in a position determination feature amount detecting unit. 10. The image processing apparatus according to claim 7, wherein the foot position detecting means estimates the foot position using a neural network by calculating the amount.
【請求項11】 請求項3記載の足元位置検出手段が、
検出対象となる姿勢毎にニューラルネットを有し、前記
姿勢検出手段の出力結果に基づいて、前記姿勢毎の足元
位置推測用のニューラルネットの出力結果を選別するこ
とを特徴とする請求項3から10のいずれかに記載の画
像処理装置。
11. The foot position detecting means according to claim 3,
4. A neural net is provided for each posture to be detected, and the output result of the neural net for estimating the foot position for each posture is selected based on the output result of the posture detecting means. The image processing device according to any one of 10.
【請求項12】 請求項3記載の足元位置検出手段から
の出力結果を、前記姿勢検出手段から出力される姿勢判
別結果と、前記姿勢毎の足元位置推測用のニューラルネ
ットからの出力数に応じた補正値により演算を行い、足
元位置情報の補正出力することを特徴とする請求項3か
ら11のいずれかに記載の画像処理装置。
12. The output result from the foot position detecting means according to claim 3 is determined according to the attitude determination result output from the attitude detecting means and the number of outputs from the neural network for estimating the foot position for each of the attitudes. The image processing apparatus according to any one of claims 3 to 11, wherein calculation is performed using the corrected value, and the foot position information is corrected and output.
【請求項13】 請求項7記載の姿勢判定特徴量検出部
において、人間領域検出部から得られる人間画素ブロッ
クと、代表点と、画像記憶部から得られる熱画像から、
請求項3記載の姿勢検出手段における姿勢推測用の特徴
量を算出し、前記姿勢検出手段においてニューラルネッ
トを用いて姿勢推測を行うことを特徴とする請求項7か
ら12のいずれかに記載の画像処理装置。
13. The posture determination feature quantity detecting unit according to claim 7, wherein from the human pixel block obtained from the human region detecting unit, the representative point, and the thermal image obtained from the image storage unit,
The image according to any one of claims 7 to 12, wherein a feature quantity for posture estimation in the posture detection means according to claim 3 is calculated, and the posture estimation is performed using a neural network in the posture detection means. Processing equipment.
【請求項14】 請求項7記載の皮膚温度判定特徴量検
出部において、人間領域検出部から得られる人間画素ブ
ロックと、代表点と、画像記憶部から得られる熱画像か
ら、請求項3記載の皮膚温度検出手段における皮膚温度
推測用の特徴量を算出し、さらに、前記皮膚温度検出手
段において、パターン認識機構を持つブロック分割手段
により、前記特徴量と、前記姿勢検出手段から得られる
姿勢から、人間の体の部位に合わせて人間画素ブロック
を複数に分割し、ブロック温度算出手段において前記ブ
ロック分割手段から得られるブロック毎の平均温度を算
出し、温度比較手段により前記ブロック温度算出手段で
得られた各ブロックの温度を比較し皮膚表面に対応する
ブロックを抽出し、皮膚温度推測を行うことを特徴とす
る請求項7から13のいずれかに記載の画像処理装置。
14. The skin temperature determination feature amount detection unit according to claim 7, wherein the human pixel block obtained from the human region detection unit, the representative point, and the thermal image obtained from the image storage unit are used. Calculate the skin temperature estimation feature amount in the skin temperature detection means, further, in the skin temperature detection means, by the block dividing means having a pattern recognition mechanism, from the feature amount and the posture obtained from the posture detection means, The human pixel block is divided into a plurality of parts according to the body part of the human body, the block temperature calculation means calculates an average temperature for each block obtained from the block division means, and the temperature comparison means obtains the average temperature by the block temperature calculation means. The skin temperature is estimated by comparing the temperature of each block and extracting the block corresponding to the skin surface. The image processing device according to any one of 1.
【請求項15】 請求項7記載の着衣量判定特徴量検出
部において、人間領域検出部から得られる人間画素ブロ
ックと、代表点と、画像記憶部から得られる熱画像か
ら、請求項3記載の着衣量検出手段における着衣量推測
用の特徴量を算出し、さらに、前記着衣量検出手段が、
請求項14記載の皮膚温度検出手段の構成に、前記温度
比較手段から得られる人体の露出部分に対応するブロッ
クと、衣服表面部分に対応するブロックの面積比を算出
する面積比較手段と付加したことを特徴とする請求項7
から14のいずれかに記載の画像処理装置。
15. The clothing amount determination feature amount detection unit according to claim 7, wherein the human pixel block obtained from the human region detection unit, the representative point, and the thermal image obtained from the image storage unit are used. A feature amount for estimating a clothing amount in the clothing amount detecting means is calculated, and further, the clothing amount detecting means,
15. The structure of the skin temperature detecting means according to claim 14, wherein a block corresponding to an exposed portion of a human body obtained from the temperature comparing means and an area comparing means for calculating an area ratio of a block corresponding to a clothing surface portion are added. 7. The method according to claim 7,
15. The image processing device according to any one of 1 to 14.
【請求項16】 請求項7記載の着衣量判定特徴量検出
部において、人間領域検出部から得られる人間画素ブロ
ックと、代表点と、画像記憶部から得られる熱画像か
ら、請求項3記載の着衣量検出手段における着衣量推測
用の特徴量を算出し、前記着衣量検出手段において、前
記特徴量と、前記姿勢検出手段から得られる姿勢と、前
記足元位置検出手段から得られる足元位置情報から、ニ
ューラルネットを用いて着衣量推測を行うことを特徴と
する請求項7から14のいずれかに記載の画像処理装
置。
16. The clothing amount determination feature amount detection unit according to claim 7, wherein the human pixel block obtained from the human region detection unit, the representative point, and the thermal image obtained from the image storage unit are used. A feature amount for estimating the amount of clothing in the clothing amount detecting means is calculated, and in the clothing amount detecting means, from the feature amount, the posture obtained from the posture detecting means, and the foot position information obtained from the foot position detecting means. 15. The image processing apparatus according to claim 7, wherein the amount of clothing is estimated by using a neural network.
【請求項17】 請求項5記載の累積処理部が、所定期
間人間画素ブロックの代表点を累積する累積記憶手段
と、画素毎の累積値の値から静止物体の判定を行う静止
物体判定手段と、判定された静止物体の画素の位置を記
憶する静止物体画素位置記憶手段を有することを特徴と
する請求項5から16のいずれかに記載の画像処理装
置。
17. The accumulation processing unit according to claim 5, wherein the accumulation storage unit accumulates the representative points of the human pixel block for a predetermined period, and the stationary object determination unit determines the stationary object from the value of the accumulated value of each pixel. 17. The image processing apparatus according to claim 5, further comprising a stationary object pixel position storage unit that stores the determined pixel position of the stationary object.
【請求項18】 人間領域検出部が、2枚の連続する熱
画像の差分をとる差分画像作成手段と、上記2枚の現画
像と上記差分画像から動物体の画像を作成する動物体画
像作成手段と、動物体画像の画素値の頻度分布を作成す
る度数分布作成手段と、上記度数分布から人の切り出し
温度を決定する切り出し温度決定手段と、上記切り出し
温度幅で温度切り出しを行う人間検出部と、切り出され
た人間画素ブロックの代表点を算出する代表点算出部を
有することを特徴とする請求項2から17のいずれかに
記載の画像処理装置。
18. A human image detecting unit for generating a difference image between two continuous thermal images, and a human body image generating unit for generating an image of a moving object from the two current images and the difference image. Means, a frequency distribution creating means for creating a frequency distribution of pixel values of the moving object image, a cutout temperature determining means for determining a cutout temperature of a person from the frequency distribution, and a human detection unit for performing temperature cutout in the cutout temperature range. 18. The image processing apparatus according to claim 2, further comprising: a representative point calculation unit that calculates a representative point of the cut out human pixel block.
【請求項19】 請求項5記載の人間領域補正部が、熱
画像と、人間領域検出手段から得られる人間画素ブロッ
クから切り出された画素の位置から、一人の人間に対す
る画素の接続関係を定める切り出し画素接続手段と、他
の画素との接続がない孤立点画素を検索する孤立点検索
手段と、孤立点画素の周辺を検索し孤立点の消去および
孤立点と切り出し画素ブロックの補完を行う周辺画素検
索手段を有することを特徴とする請求項5から18のい
ずれかに記載の画像処理装置。
19. The human area correction unit according to claim 5, wherein the thermal image and the position of the pixel cut out from the human pixel block obtained from the human area detection unit determine the connection relationship of the pixel to one human. Pixel connection means, isolated point search means for searching for isolated point pixels that are not connected to other pixels, and peripheral pixels for searching around isolated point pixels and erasing isolated points and complementing isolated points and cut-out pixel blocks The image processing apparatus according to claim 5, further comprising a search unit.
【請求項20】 請求項4記載の環境情報抽出部が、画
像記憶部から得られる熱画像と足元位置検出手段から得
られる足元位置情報から足元位置付近の温度を検出する
足元温度検出手段と、画素と室内の壁や床などの部位の
対応関係から各部位の温度を検出する室内部位温度検出
手段と、人付近の輻射温度を検出する輻射温度検出手段
の構成を有することを特徴とする請求項4から19のい
ずれかに記載の画像処理装置。
20. An environment information extracting unit according to claim 4, wherein a foot temperature detecting unit detects a temperature near the foot position from a thermal image obtained from the image storage unit and foot position information obtained from the foot position detecting unit, An indoor part temperature detecting means for detecting a temperature of each part based on a correspondence relationship between a pixel and a part such as a wall or a floor in a room, and a radiant temperature detecting part for detecting a radiant temperature near a person. The image processing device according to any one of Items 4 to 19.
【請求項21】 環境情報抽出部に、人間領域検出手段
から得られる人間画素ブロックの大きさに応じて人体と
床暖房を区別する床暖房検出手段と、画像記憶部から得
られる熱画像から高温発熱物体を検出する補助暖房検出
手段の少なくとも一つを付加したことを特徴とする請求
項20記載の画像処理装置。
21. A floor heating detection means for distinguishing a human body from a floor heating according to the size of a human pixel block obtained from the human area detection means in the environment information extraction portion, and a high temperature from a thermal image obtained from the image storage portion. 21. The image processing apparatus according to claim 20, further comprising at least one auxiliary heating detection unit that detects a heat-generating object.
【請求項22】 請求項1から21のいずれか記載の画
像処理装置に、熱画像から直接検出できない検出エリア
に関する環境情報を使用者が入力するためのコンソール
部を付加し、その情報を少なくても画像処理部か画像情
報検出部に入力して、人間に関連した情報の補正をおこ
なうことを特徴とする画像処理装置。
22. The image processing apparatus according to claim 1, further comprising a console section for a user to input environmental information regarding a detection area that cannot be directly detected from a thermal image, and the information can be reduced. The image processing apparatus is characterized in that the information is also input to the image processing unit or the image information detection unit to correct information related to human beings.
【請求項23】 請求項1から22のいずれかに記載の
画像処理装置に、可視画像入力手段と、可視画像入力手
段からの可視画像を処理して特徴量を抽出する可視画像
処理部と、前記可視画像処理部からの特徴量から人間の
情報を検出する可視画像情報抽出部を付加し、さらに、
前記可視画像情報検出部からの出力を前記画像情報検出
部に入力し、画像情報検出部の出力を補正することを特
徴とする画像処理装置。
23. The image processing apparatus according to claim 1, further comprising: a visible image input unit, a visible image processing unit that processes the visible image from the visible image input unit to extract a feature amount. A visible image information extraction unit that detects human information from the feature amount from the visible image processing unit is added, and further,
An image processing apparatus, wherein the output from the visible image information detection unit is input to the image information detection unit to correct the output of the image information detection unit.
【請求項24】 請求項1から22のいずれかに記載の
画像処理装置に、可視画像入力手段と、可視画像入力手
段からの可視画像を処理して特徴量を抽出する可視画像
処理部と、前記可視画像処理部からの特徴量から人の情
報を検出する可視画像情報抽出部を付加し、さらに、前
記画像情報検出部からの出力を前記可視画像情報検出部
に入力し、可視画像情報検出部の出力を補正するか、ま
たは可視画像上に画像情報検出部で検出した人間に関連
する情報を提示すようにしたことを特徴とする画像処理
装置。
24. The image processing apparatus according to claim 1, further comprising a visible image input unit, a visible image processing unit that processes the visible image from the visible image input unit to extract a feature amount. A visible image information extraction unit that detects human information from the feature amount from the visible image processing unit is added, and further, the output from the image information detection unit is input to the visible image information detection unit to detect the visible image information. An image processing apparatus, characterized in that the output of the unit is corrected or the information related to a person detected by the image information detection unit is presented on a visible image.
【請求項25】 前記可視画像情報検出部において、前
記可視画像処理部から得られる複数の可視画像に関する
特徴量から、人間の動きに関する情報を抽出することを
特徴とする請求項23または24のいずれかに記載の画
像処理装置。
25. The visible image information detecting unit extracts information about a human motion from the feature amount about a plurality of visible images obtained from the visible image processing unit. The image processing device according to claim 1.
【請求項26】 請求項23または24のいずれかに記
載の画像処理装置に、前記可視画像情報抽出部または画
像情報抽出部の出力を入力とし、既に入力されている情
報と合わせて監視情報として少なくても不審者進入警報
を使用者に出力する監視情報検出部を付加したことを特
徴とする画像処理装置。
26. The image processing apparatus according to claim 23, wherein the output of the visible image information extraction unit or the output of the image information extraction unit is input to the image processing apparatus, and is combined with already input information as monitoring information. An image processing apparatus, characterized by further comprising a monitoring information detection unit for outputting a suspicious person approach warning to a user.
【請求項27】 請求項23から26のいずれかに記載
の画像処理部または画像情報検出部から検出される人間
の情報に基づいて、可視画像処理部または可視画像情報
検出部の処理を適応的に学習させる適応学習部を付加し
たことを特徴とする画像処理装置。
27. The process of the visible image processing unit or the visible image information detecting unit is adaptively performed based on human information detected by the image processing unit or the image information detecting unit according to claim 23. An image processing apparatus characterized in that an adaptive learning section for learning is added.
【請求項28】 請求項23から27のいずれかに記載
の可視画像処理部または可視画像情報検出部から検出さ
れる人間の情報に基づいて、画像処理部または画像情報
検出部の処理を適応的に学習させる適応学習部を付加し
たことを特徴とする画像処理装置。
28. The processing of the image processing unit or the image information detection unit is adaptively performed based on human information detected by the visible image processing unit or the visible image information detection unit according to claim 23. An image processing apparatus characterized in that an adaptive learning section for learning is added.
【請求項29】 請求項1から28のいずれかに記載の
画像処理装置を複数個用いた装置において、各画像処理
装置からの情報を統合する統合処理部を付加し、検出エ
リア内での人間または環境の情報検出を行うことを特徴
とする画像処理装置。
29. An apparatus using a plurality of image processing apparatuses according to any one of claims 1 to 28, wherein an integrated processing unit that integrates information from each image processing apparatus is added, and a person in a detection area is added. Alternatively, an image processing apparatus characterized by detecting environmental information.
【請求項30】 請求項1から29のいずれかに記載の
画像処理装置を有し、センサ部と、前記画像処理装置か
ら得られる個人情報信号と、環境情報信号から空調を行
うための制御指標を決める制御指標決定部と、空調機器
の制御を行う空調制御部を有することを特徴とする空気
調和機の制御装置。
30. A control index having the image processing apparatus according to claim 1 for performing air conditioning from a sensor section, a personal information signal obtained from the image processing apparatus, and an environmental information signal. An air conditioner control device, comprising: a control index determination unit that determines the air conditioner and an air conditioning control unit that controls the air conditioning equipment.
【請求項31】 制御指標決定部が、前記画像処理装置
の個人情報抽出部の出力である個人情報から個人別また
は室内を代表する活動量を検出する活動量検出部と、前
記個人情報と、前記環境情報抽出部から得られる環境情
報と、空気調和機から得られる風向・風量情報と、前記
活動量検出部から得られる活動量から、個人別または代
表となる快適度を検出する快適度検出部を有し、前記快
適度から空調制御部の制御目標値を出力することを特徴
とする請求項30記載の空気調和機の制御装置。
31. An activity amount detection unit, wherein the control index determination unit detects an activity amount representative of an individual or a room from the personal information output from the personal information extraction unit of the image processing apparatus; Comfort level detection for detecting a comfort level for each individual or representative from the environmental information obtained from the environmental information extraction unit, the wind direction / air volume information obtained from the air conditioner, and the activity amount obtained from the activity amount detection unit 31. The control device for an air conditioner according to claim 30, further comprising a unit, which outputs a control target value of the air conditioning control unit from the comfort level.
【請求項32】 制御指標決定部に、少なくとも前記活
動量検出部から得られる活動量と、時刻と、環境情報抽
出部の出力である環境情報から生活シーンを推定する生
活シーン推定部を付加し、快適度が制御指標とならない
過渡的生活シーンと、在室者が所定の期間部屋に在室し
ており快適度が制御指標として用いることができる安定
的生活シーンを推定し、生活シーンに応じて快適度とシ
ーン毎にあらかじめ定められた所定の制御指標を選択す
ることを特徴とする請求項31記載の空気調和機の制御
装置。
32. A life scene estimation unit for estimating a life scene from at least the activity amount obtained from the activity amount detection unit, the time, and the environmental information output from the environmental information extraction unit is added to the control index determination unit. Estimating transitional life scenes in which comfort level does not serve as a control index and stable life scenes in which the occupant stays in the room for a predetermined period of time and comfort level can be used as a control index, and 32. The control device for an air conditioner according to claim 31, wherein a predetermined control index predetermined for each comfort level and scene is selected.
【請求項33】 温度または快適度申告が行えるリモコ
ンと、少なくとも、前記制御指標決定部で計算された制
御指標と、リモコンからの利用者の申告を入力とし、前
記制御指標の補正値を出力するニューラルネットワーク
を有するリモコン操作学習部を付加し、上記構成で、利
用者のリモコン操作を行ったときの環境条件を学習する
ことを特徴とする請求項30から32のいずれかに記載
の空気調和機の制御装置。
33. A remote controller capable of reporting a temperature or comfort level, at least a control index calculated by the control index determining unit, and a user's report from the remote controller are input, and a correction value of the control index is output. 33. The air conditioner according to claim 30, further comprising a remote control operation learning unit having a neural network, and learning the environmental condition when the user performs remote control operation with the above configuration. Control device.
【請求項34】 制御指標決定部に、室内への人の出入
りの時系列検出結果である在室データを記憶する在室デ
ータ記憶手段と、前記在室データを類似パターンに分類
する在室パターン分類手段と、不在時間の最低維持温度
であるベース温度を前記在室パターン分類手段から得ら
れる部屋の使用状況に応じて定めるベース温度変換手段
の構成からなる不在時制御指標決定部を付加したことを
特徴とする請求項30から33のいずれか記載の空気調
和機の制御装置。
34. An occupancy data storage unit that stores occupancy data, which is a time-series detection result of people entering and leaving the room, and an occupancy pattern that classifies the occupancy data into similar patterns. An absent control index determination unit including a classification unit and a base temperature conversion unit configured to determine a base temperature, which is the minimum maintenance temperature of the absence time, according to the usage status of the room obtained from the presence pattern classification unit is added. The control device for an air conditioner according to any one of claims 30 to 33, wherein:
【請求項35】 活動量検出部が、請求項1から29の
いずれか記載の画像処理装置の個人情報抽出部から得ら
れる個人情報から、在室者の移動速度を算出する移動量
検出手段と、前記個人情報抽出部から得られる個人情報
を所定期間記憶する個人情報記憶手段と、所定期間の移
動量の値の、あらかじめ複数に分けられた範囲に入る頻
度を計数し、ランク分けを行う(以降、期間移動量と呼
ぶ)期間移動量算出手段と、前記個人情報抽出手段から
得られる足元位置情報を所定期間位置別に累積し、静止
者判定を行う滞在頻度算出手段と、期間移動量と滞在頻
度算出手段から得られる静止者判定結果から活動量を算
出する活動量算出手段を有することを特徴とする請求項
31から34のいずれかに記載の空気調和機の制御装
置。
35. A movement amount detection means for calculating the movement speed of an occupant from the personal information obtained from the personal information extraction unit of the image processing apparatus according to claim 1, wherein the activity amount detection unit comprises: , Personal information storage means for storing the personal information obtained from the personal information extraction unit for a predetermined period, and the frequency of the movement amount value in the predetermined period falling within a pre-divided range are counted and ranked ( Hereinafter, referred to as a period movement amount) period movement amount calculation means, stay frequency calculation means for accumulating the foot position information obtained from the personal information extraction means for each predetermined period position, and a period movement amount and stay The control device for an air conditioner according to any one of claims 31 to 34, further comprising activity amount calculation means for calculating an activity amount from a stationary person determination result obtained from the frequency calculation means.
【請求項36】 活動量検出部が、請求項1から29の
いずれか記載の画像処理装置の個人情報抽出部から得ら
れる個人情報を所定期間記憶する個人情報記憶手段と、
前記個人情報抽出手段から得られる足元位置情報を所定
期間位置別に累積し、静止者判定を行う滞在頻度算出手
段と、前記期間移動量と滞在頻度算出手段から得られる
静止者判定結果から活動量を算出する活動量算出手段の
構成を有し、所定期間の床面位置への滞在頻度から活動
量を算出することを特徴とする請求項31から35のい
ずれかに記載の空気調和機の制御装置。
36. A personal information storage means for storing the personal information obtained from the personal information extraction unit of the image processing apparatus according to claim 1 by the activity amount detection unit, for a predetermined period,
An activity amount is calculated from a stay frequency calculation unit that accumulates foot position information obtained from the personal information extraction unit for each predetermined period and performs stationary person determination, and a stationary person determination result obtained from the period movement amount and stay frequency calculation unit. The control device for an air conditioner according to any one of claims 31 to 35, characterized in that the amount of activity is calculated from a frequency of staying at a floor surface position for a predetermined period, the activity amount calculation means being configured to calculate. .
【請求項37】 移動量検出手段が、請求項1から29
のいずれか記載の画像処理装置の個人情報抽出部から得
られる連続する2枚の熱画像から得られる足元位置情報
と、上記計測単位時間に動くことが可能な最大移動距離
から移動可能な足元位置情報の組み合わせを探す移動可
能判定手段と、上記組み合わせ情報から最近傍の在室者
の検索を行い、組み合わせを決める最近傍検索手段と、
決められた組み合わせから移動速度を計算する移動速度
計算手段を有することを特徴とする請求項35または3
6のいずれかに記載の空気調和機の制御装置。
37. The movement amount detecting means according to any one of claims 1 to 29.
The foot position information obtained from two continuous thermal images obtained from the personal information extraction unit of the image processing apparatus according to any one of item 1 and the foot position that can be moved from the maximum movement distance that can be moved in the measurement unit time. A movable determination means for searching for a combination of information, a nearest neighbor searching means for searching the nearest person in the room from the combination information, and determining a combination,
The moving speed calculating means for calculating the moving speed from a determined combination is provided.
6. The air conditioner control device according to any one of 6 above.
【請求項38】 センサ部が、少なくとも2次元赤外線
センサと、光センサと、湿度センサと、室温を計測する
温度センサと、外気温を計測する温度センサからなるこ
とを特徴とする請求項30から37のいずれかに記載の
空気調和機の制御装置。
38. The sensor section comprises at least a two-dimensional infrared sensor, an optical sensor, a humidity sensor, a temperature sensor for measuring room temperature, and a temperature sensor for measuring outside air temperature. 38. The control device for an air conditioner according to any one of 37.
【請求項39】 カレンダと、センサ部に人検知を行う
センサと、在室者有無の判定を行う在不在判定部と、在
室時の制御指標を決める在室時制御指標決定部と、請求
項34記載の不在時制御指標決定部からなる制御指標決
定部と、空調機器の制御を行う空調制御部を有すること
を特徴とする空気調和機の制御装置。
39. A calendar, a sensor for detecting a person in the sensor unit, an presence / absence determination unit for determining presence / absence of a person in the room, an in-room control index determination unit for determining a control index when the user is in the room, and a claim. Item 34. An air conditioner control device comprising: a control index determination unit, which is the absence control index determination unit according to Item 34, and an air conditioning control unit that controls an air conditioner.
【請求項40】 請求項1から29のいずれかに記載の
画像処理装置と、人間を運搬する交通手段における人間
の交通流を分類する交通流分類手段と、時間的な人間の
交通流を予測する交通流予測手段と、予測された交通流
と前記画像処理装置の出力である少なくとも人数に関す
る情報から交通流を制御することを特徴とする交通流制
御装置。
40. The image processing device according to any one of claims 1 to 29, a traffic flow classification means for classifying a human traffic flow in a transportation means for transporting a human, and a temporal traffic flow of a human being predicted. And a traffic flow control device for controlling the traffic flow based on the predicted traffic flow and information on at least the number of people, which is the output of the predicted traffic flow and the image processing device.
【請求項41】 請求項1から29のいずれかに記載の
画像処理装置を有する監視装置。
41. A monitoring device comprising the image processing device according to claim 1.
【請求項42】 請求項1から29のいずれかに記載の
画像処理装置を有する看護装置。
42. A nursing device comprising the image processing device according to claim 1.
【請求項43】 請求項1から29のいずれかに記載の
画像処理装置に、画像処理装置から得られる人間に関す
る特徴量を学習し、個人の識別おこなう個人識別部を付
加したことを特徴とする個人識別装置。
43. An image processing apparatus according to any one of claims 1 to 29, further comprising a personal identification section for learning a characteristic amount relating to a person obtained from the image processing apparatus and for identifying an individual. Personal identification device.
【請求項44】 請求項1から29のいずれかに記載の
画像処理装置を用いた応用機器。
44. An applied device using the image processing device according to claim 1.
JP5204998A 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner Expired - Fee Related JP2978374B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5204998A JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner
US08/273,168 US5555512A (en) 1993-08-19 1994-07-25 Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP22243392 1992-08-21
JP4-222433 1992-08-21
JP5204998A JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner

Publications (2)

Publication Number Publication Date
JPH06117836A true JPH06117836A (en) 1994-04-28
JP2978374B2 JP2978374B2 (en) 1999-11-15

Family

ID=26514782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5204998A Expired - Fee Related JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner

Country Status (1)

Country Link
JP (1) JP2978374B2 (en)

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004504613A (en) * 2000-07-13 2004-02-12 イーリス−ゲゼルシャフト ミット ベシュレンクテル ハフツング インフラレッド アンド インテリジェント センサーズ Detection device
JP2005128815A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Person detection device and method
JP2005222359A (en) * 2004-02-06 2005-08-18 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2005301719A (en) * 2004-04-13 2005-10-27 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2006024149A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science On-image moving object recognition method and device
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2006079363A (en) * 2004-09-09 2006-03-23 Tempearl Ind Co Ltd Method and apparatus for taking measures for energy saving
JP2007280167A (en) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp Air conditioner
JP2008101893A (en) * 2007-03-26 2008-05-01 Matsushita Electric Ind Co Ltd Person's position estimating method and air conditioner adopting the method
JP2008217690A (en) * 2007-03-07 2008-09-18 Nippon Signal Co Ltd:The Moving object detection method
JP2010025547A (en) * 2002-12-10 2010-02-04 Panasonic Electric Works Co Ltd Environment equipment control system
JP2010091253A (en) * 2008-09-10 2010-04-22 Mitsubishi Electric Corp Air conditioner
JP2012043069A (en) * 2010-08-16 2012-03-01 Chino Corp Alarm system
JP2012042131A (en) * 2010-08-19 2012-03-01 Mitsubishi Electric Corp Air conditioner
WO2012093592A1 (en) * 2011-01-07 2012-07-12 株式会社日立国際電気 Monitoring system and occupancy proportion detection method
USRE44225E1 (en) 1995-01-03 2013-05-21 Prophet Productions, Llc Abnormality detection and surveillance system
JP2013117317A (en) * 2011-12-01 2013-06-13 Mitsubishi Electric Corp Air conditioner
USRE44527E1 (en) 1995-01-03 2013-10-08 Prophet Productions, Llc Abnormality detection and surveillance system
JP2014047998A (en) * 2012-09-03 2014-03-17 Hitachi Appliances Inc Air conditioner
JP2014534435A (en) * 2011-10-28 2014-12-18 ヴラームス インステリング ヴール テクノロギシュ オンデルゾーク エヌ.ヴイ. (ヴイアイティーオー) Infrared presence detector for detecting the presence of an object in a surveillance area
KR101475849B1 (en) * 2013-12-19 2014-12-23 주식회사 에스원 PC Automatic Energy Saving System by Using Thermal Image Sensor and Neural Network Model and Method thereof
JP2015052431A (en) * 2013-09-09 2015-03-19 日立アプライアンス株式会社 Indoor unit of air conditioner, and air conditioner
CN104471362A (en) * 2013-05-17 2015-03-25 松下电器(美国)知识产权公司 Thermal image sensor and user interface
WO2015122201A1 (en) * 2014-02-17 2015-08-20 パナソニック株式会社 Air conditioner and thermal image sensor system
WO2015140834A1 (en) * 2014-03-20 2015-09-24 三菱電機株式会社 Air-conditioning system
JP2015197241A (en) * 2014-03-31 2015-11-09 ダイキン工業株式会社 Thermal environment reproduction system
JP2016057057A (en) * 2014-09-05 2016-04-21 アイシン精機株式会社 Energy management system
JP2017503284A (en) * 2013-11-11 2017-01-26 オスラム・シルバニア・インコーポレイテッド Human detection technology
JP2017075732A (en) * 2015-10-14 2017-04-20 パナソニックIpマネジメント株式会社 Air conditioner
WO2018010898A1 (en) * 2016-07-15 2018-01-18 Siemens Aktiengesellschaft Method for controlling the ventilation of an interior space and detection-control device
JP2018022332A (en) * 2016-08-03 2018-02-08 ヤフー株式会社 Determination device, determination method, and determination program
JP2018072938A (en) * 2016-10-25 2018-05-10 株式会社パスコ Number-of-targets estimation device, number-of-targets estimation method, and program
JP2019032676A (en) * 2017-08-07 2019-02-28 株式会社竹中工務店 State estimation device, model learning device, method, and program
KR20190072986A (en) * 2017-12-18 2019-06-26 (주)에프엑스기어 Apparatus and method for analyzing body features using thermal image
JP2019132522A (en) * 2018-01-31 2019-08-08 三菱電機株式会社 Air conditioner
WO2020066374A1 (en) * 2018-09-25 2020-04-02 日本電気株式会社 Information processing device
WO2020084777A1 (en) * 2018-10-26 2020-04-30 三菱電機株式会社 Estimating device, air conditioning system, and estimating method
CN111272290A (en) * 2020-03-13 2020-06-12 西北工业大学 Temperature measurement thermal infrared imager calibration method and device based on deep neural network
WO2020121370A1 (en) * 2018-12-10 2020-06-18 三菱電機株式会社 Air conditioner, control device, air conditioning system, air conditioning control method, and program
WO2020153034A1 (en) * 2019-01-23 2020-07-30 株式会社デンソー Radiation information calculating device and temperature information calculating device
KR102147090B1 (en) * 2019-08-26 2020-08-24 (주)서전기전 System for detecting arc/temperature of the switchboard and indicating the location and method therefor
CN111651862A (en) * 2020-05-11 2020-09-11 珠海格力电器股份有限公司 Air conditioner, method and device for determining installation position of air conditioner, storage medium and mobile terminal
WO2020202425A1 (en) * 2019-04-01 2020-10-08 三菱電機株式会社 Stay determination apparatus, stay determination method, and stay determination program
CN111819598A (en) * 2018-04-26 2020-10-23 大王制纸株式会社 Sorting device, sorting method, and sorting program, and computer-readable recording medium or storage device
JP2020190390A (en) * 2019-05-23 2020-11-26 三菱電機株式会社 Air conditioner
CN112032987A (en) * 2020-07-28 2020-12-04 四川虹美智能科技有限公司 Air conditioner control method and device based on infrared human body tracking
CN112101115A (en) * 2020-08-17 2020-12-18 深圳数联天下智能科技有限公司 Temperature control method and device based on thermal imaging, electronic equipment and medium
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
CN113273179A (en) * 2019-01-02 2021-08-17 Lg伊诺特有限公司 Device for managing farm environment
KR102299250B1 (en) * 2021-01-13 2021-09-08 한전케이디엔주식회사 Counting device and method using composite image data
JP2021529927A (en) * 2018-06-29 2021-11-04 広東美的制冷設備有限公司Gd Midea Air−Conditioning Equipment Co.,Ltd. Control method of air conditioning equipment, control device, air conditioning equipment and storage medium
JP2022079798A (en) * 2020-11-17 2022-05-27 株式会社日立製作所 Object recognition device and object recognition method
JP7199614B1 (en) * 2022-05-16 2023-01-05 三菱電機株式会社 HUMAN DETECTION DEVICE, HUMAN DETECTION SYSTEM, HUMAN DETECTION METHOD, AND HUMAN DETECTION PROGRAM
JP2023030162A (en) * 2015-08-03 2023-03-07 エンゼルグループ株式会社 Fraud detection system in game parlor
US11892184B2 (en) 2018-12-03 2024-02-06 Mitsubishi Electric Corporation Facility apparatus control device and facility apparatus control method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6772961B2 (en) 2017-05-31 2020-10-21 ダイキン工業株式会社 Mobile control system
KR102020306B1 (en) * 2018-09-19 2019-09-10 엘지전자 주식회사 Air conditioner based on artificial intelligence and method for controlling thereof
JP7389314B2 (en) 2019-03-05 2023-11-30 ダイキン工業株式会社 Air conditioner control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62240823A (en) * 1986-04-14 1987-10-21 Matsushita Electric Works Ltd Image sensor for monitor control
JPH02157551A (en) * 1988-12-09 1990-06-18 Matsushita Electric Ind Co Ltd Air conditioner
JPH03247939A (en) * 1990-02-27 1991-11-06 Sanyo Electric Co Ltd Air-conditioner
JPH04191256A (en) * 1990-11-27 1992-07-09 Toshiba Corp Information input unit for elevator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62240823A (en) * 1986-04-14 1987-10-21 Matsushita Electric Works Ltd Image sensor for monitor control
JPH02157551A (en) * 1988-12-09 1990-06-18 Matsushita Electric Ind Co Ltd Air conditioner
JPH03247939A (en) * 1990-02-27 1991-11-06 Sanyo Electric Co Ltd Air-conditioner
JPH04191256A (en) * 1990-11-27 1992-07-09 Toshiba Corp Information input unit for elevator

Cited By (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE44527E1 (en) 1995-01-03 2013-10-08 Prophet Productions, Llc Abnormality detection and surveillance system
USRE44225E1 (en) 1995-01-03 2013-05-21 Prophet Productions, Llc Abnormality detection and surveillance system
JP2004504613A (en) * 2000-07-13 2004-02-12 イーリス−ゲゼルシャフト ミット ベシュレンクテル ハフツング インフラレッド アンド インテリジェント センサーズ Detection device
JP2010025547A (en) * 2002-12-10 2010-02-04 Panasonic Electric Works Co Ltd Environment equipment control system
JP2005128815A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Person detection device and method
JP2005222359A (en) * 2004-02-06 2005-08-18 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2005301719A (en) * 2004-04-13 2005-10-27 Nissan Motor Co Ltd Occupant detection apparatus and method
JP2006024149A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science On-image moving object recognition method and device
JP4628712B2 (en) * 2004-07-09 2011-02-09 財団法人生産技術研究奨励会 Method and apparatus for recognizing moving object on image
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP4604606B2 (en) * 2004-08-18 2011-01-05 ソニー株式会社 Face detection apparatus, face detection method, and computer program
JP2006079363A (en) * 2004-09-09 2006-03-23 Tempearl Ind Co Ltd Method and apparatus for taking measures for energy saving
JP2007280167A (en) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp Air conditioner
JP2008217690A (en) * 2007-03-07 2008-09-18 Nippon Signal Co Ltd:The Moving object detection method
JP2008101893A (en) * 2007-03-26 2008-05-01 Matsushita Electric Ind Co Ltd Person's position estimating method and air conditioner adopting the method
JP2010091253A (en) * 2008-09-10 2010-04-22 Mitsubishi Electric Corp Air conditioner
JP2012043069A (en) * 2010-08-16 2012-03-01 Chino Corp Alarm system
JP2012042131A (en) * 2010-08-19 2012-03-01 Mitsubishi Electric Corp Air conditioner
WO2012093592A1 (en) * 2011-01-07 2012-07-12 株式会社日立国際電気 Monitoring system and occupancy proportion detection method
JP2012146022A (en) * 2011-01-07 2012-08-02 Hitachi Kokusai Electric Inc Monitoring system
JP2014534435A (en) * 2011-10-28 2014-12-18 ヴラームス インステリング ヴール テクノロギシュ オンデルゾーク エヌ.ヴイ. (ヴイアイティーオー) Infrared presence detector for detecting the presence of an object in a surveillance area
JP2013117317A (en) * 2011-12-01 2013-06-13 Mitsubishi Electric Corp Air conditioner
CN103673090A (en) * 2012-09-03 2014-03-26 日立空调·家用电器株式会社 Air conditioner
CN103673090B (en) * 2012-09-03 2016-06-08 日立空调·家用电器株式会社 Air regulator
JP2014047998A (en) * 2012-09-03 2014-03-17 Hitachi Appliances Inc Air conditioner
CN104471362A (en) * 2013-05-17 2015-03-25 松下电器(美国)知识产权公司 Thermal image sensor and user interface
JP2015052431A (en) * 2013-09-09 2015-03-19 日立アプライアンス株式会社 Indoor unit of air conditioner, and air conditioner
US10404924B2 (en) 2013-11-11 2019-09-03 Osram Sylvania Inc. Human presence detection techniques
JP2017503284A (en) * 2013-11-11 2017-01-26 オスラム・シルバニア・インコーポレイテッド Human detection technology
KR101475849B1 (en) * 2013-12-19 2014-12-23 주식회사 에스원 PC Automatic Energy Saving System by Using Thermal Image Sensor and Neural Network Model and Method thereof
JP2017062108A (en) * 2014-02-17 2017-03-30 パナソニック株式会社 Air conditioner and thermal image sensor system
JPWO2015122201A1 (en) * 2014-02-17 2017-03-30 パナソニック株式会社 Air conditioner and thermal image sensor system
CN105339742A (en) * 2014-02-17 2016-02-17 松下电器产业株式会社 Air conditioner and thermal image sensor system
JP2016169942A (en) * 2014-02-17 2016-09-23 パナソニック株式会社 Air conditioner and thermal image sensor system
JP6001183B2 (en) * 2014-02-17 2016-10-05 パナソニック株式会社 Air conditioner and thermal image sensor system
CN105339742B (en) * 2014-02-17 2019-04-30 松下电器产业株式会社 Air conditioner
JP2017036916A (en) * 2014-02-17 2017-02-16 パナソニック株式会社 Air conditioner and thermal image sensor system
WO2015122201A1 (en) * 2014-02-17 2015-08-20 パナソニック株式会社 Air conditioner and thermal image sensor system
JP2019032154A (en) * 2014-02-17 2019-02-28 パナソニック株式会社 Method for controlling air conditioner
WO2015140834A1 (en) * 2014-03-20 2015-09-24 三菱電機株式会社 Air-conditioning system
JP2015197241A (en) * 2014-03-31 2015-11-09 ダイキン工業株式会社 Thermal environment reproduction system
JP2016057057A (en) * 2014-09-05 2016-04-21 アイシン精機株式会社 Energy management system
JP2023030162A (en) * 2015-08-03 2023-03-07 エンゼルグループ株式会社 Fraud detection system in game parlor
JP2017075732A (en) * 2015-10-14 2017-04-20 パナソニックIpマネジメント株式会社 Air conditioner
WO2018010898A1 (en) * 2016-07-15 2018-01-18 Siemens Aktiengesellschaft Method for controlling the ventilation of an interior space and detection-control device
JP2018022332A (en) * 2016-08-03 2018-02-08 ヤフー株式会社 Determination device, determination method, and determination program
JP2018072938A (en) * 2016-10-25 2018-05-10 株式会社パスコ Number-of-targets estimation device, number-of-targets estimation method, and program
JP2019032676A (en) * 2017-08-07 2019-02-28 株式会社竹中工務店 State estimation device, model learning device, method, and program
KR20190072986A (en) * 2017-12-18 2019-06-26 (주)에프엑스기어 Apparatus and method for analyzing body features using thermal image
JP2019132522A (en) * 2018-01-31 2019-08-08 三菱電機株式会社 Air conditioner
CN111819598B (en) * 2018-04-26 2023-06-13 大王制纸株式会社 Sorting apparatus, sorting method, sorting program, and computer-readable recording medium or storage device
CN111819598A (en) * 2018-04-26 2020-10-23 大王制纸株式会社 Sorting device, sorting method, and sorting program, and computer-readable recording medium or storage device
JP2021529927A (en) * 2018-06-29 2021-11-04 広東美的制冷設備有限公司Gd Midea Air−Conditioning Equipment Co.,Ltd. Control method of air conditioning equipment, control device, air conditioning equipment and storage medium
WO2020066374A1 (en) * 2018-09-25 2020-04-02 日本電気株式会社 Information processing device
JPWO2020066374A1 (en) * 2018-09-25 2021-09-16 日本電気株式会社 Information processing device
US11727727B2 (en) 2018-09-25 2023-08-15 Nec Corporation Information processing apparatus
WO2020084777A1 (en) * 2018-10-26 2020-04-30 三菱電機株式会社 Estimating device, air conditioning system, and estimating method
JPWO2020084777A1 (en) * 2018-10-26 2021-03-18 三菱電機株式会社 Estimator, air conditioning system and estimation method
US11892184B2 (en) 2018-12-03 2024-02-06 Mitsubishi Electric Corporation Facility apparatus control device and facility apparatus control method
WO2020121370A1 (en) * 2018-12-10 2020-06-18 三菱電機株式会社 Air conditioner, control device, air conditioning system, air conditioning control method, and program
JPWO2020121370A1 (en) * 2018-12-10 2021-06-03 三菱電機株式会社 Air conditioners, control devices, air conditioning systems, air conditioning control methods and programs
CN113273179B (en) * 2019-01-02 2024-02-13 Lg伊诺特有限公司 Device for managing farm environment
CN113273179A (en) * 2019-01-02 2021-08-17 Lg伊诺特有限公司 Device for managing farm environment
WO2020153034A1 (en) * 2019-01-23 2020-07-30 株式会社デンソー Radiation information calculating device and temperature information calculating device
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
US11120305B2 (en) 2019-03-28 2021-09-14 International Business Machines Corporation Learning of detection model using loss function
WO2020202425A1 (en) * 2019-04-01 2020-10-08 三菱電機株式会社 Stay determination apparatus, stay determination method, and stay determination program
JPWO2020202425A1 (en) * 2019-04-01 2021-09-27 三菱電機株式会社 Stay judgment device, stay judgment method and stay judgment program
JP2020190390A (en) * 2019-05-23 2020-11-26 三菱電機株式会社 Air conditioner
KR102147090B1 (en) * 2019-08-26 2020-08-24 (주)서전기전 System for detecting arc/temperature of the switchboard and indicating the location and method therefor
CN111272290B (en) * 2020-03-13 2022-07-19 西北工业大学 Temperature measurement thermal infrared imager calibration method and device based on deep neural network
CN111272290A (en) * 2020-03-13 2020-06-12 西北工业大学 Temperature measurement thermal infrared imager calibration method and device based on deep neural network
CN111651862A (en) * 2020-05-11 2020-09-11 珠海格力电器股份有限公司 Air conditioner, method and device for determining installation position of air conditioner, storage medium and mobile terminal
CN112032987B (en) * 2020-07-28 2022-04-08 四川虹美智能科技有限公司 Air conditioner control method and device based on infrared human body tracking
CN112032987A (en) * 2020-07-28 2020-12-04 四川虹美智能科技有限公司 Air conditioner control method and device based on infrared human body tracking
CN112101115A (en) * 2020-08-17 2020-12-18 深圳数联天下智能科技有限公司 Temperature control method and device based on thermal imaging, electronic equipment and medium
CN112101115B (en) * 2020-08-17 2023-12-12 深圳数联天下智能科技有限公司 Temperature control method and device based on thermal imaging, electronic equipment and medium
JP2022079798A (en) * 2020-11-17 2022-05-27 株式会社日立製作所 Object recognition device and object recognition method
KR102299250B1 (en) * 2021-01-13 2021-09-08 한전케이디엔주식회사 Counting device and method using composite image data
JP7199614B1 (en) * 2022-05-16 2023-01-05 三菱電機株式会社 HUMAN DETECTION DEVICE, HUMAN DETECTION SYSTEM, HUMAN DETECTION METHOD, AND HUMAN DETECTION PROGRAM
WO2023223376A1 (en) * 2022-05-16 2023-11-23 三菱電機株式会社 Human detection device, human detection system, human detection method, and human detection program

Also Published As

Publication number Publication date
JP2978374B2 (en) 1999-11-15

Similar Documents

Publication Publication Date Title
JP2978374B2 (en) Image processing device, image processing method, and control device for air conditioner
JP3216280B2 (en) Control equipment for air conditioners and applied equipment for image processing equipment
US5555512A (en) Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus
Benezeth et al. Towards a sensor for detecting human presence and characterizing activity
Mikkilineni et al. A novel occupancy detection solution using low-power IR-FPA based wireless occupancy sensor
JP3453870B2 (en) Image processing device and applied equipment using the image processing device
JP4870059B2 (en) Air conditioner
Chidurala et al. Occupancy estimation using thermal imaging sensors and machine learning algorithms
JPH08178390A (en) Human body activity value calculator and human body activity value/wearing value calculator and air conditioning equipment therewith and human body abnormality communicator
Choi et al. Review of vision-based occupant information sensing systems for occupant-centric control
US12000609B2 (en) Detecting presence and estimating thermal comfort of one or more human occupants in a built space in real-time using one or more thermographic cameras and one or more RGB-D sensors
WO2014150895A1 (en) Energy saving heating, ventilation, air conditioning control system
JP5308898B2 (en) Human detection sensor
WO2008029679A1 (en) Air conditioner
JP2015017728A (en) Air conditioner
US20150248754A1 (en) Method and Device for Monitoring at Least One Interior Space of a Building, and Assistance System for at Least One Interior Space of a Building
JP4274758B2 (en) Information processing apparatus, information processing method, and environment control apparatus
JP7172394B2 (en) Air conditioner and biological information analysis system
CN112862145A (en) Occupant thermal comfort inference using body shape information
Ekwevugbe et al. Realt-time building occupancy sensing for supporting demand driven hvac operations
JP2012037102A (en) Device and method for identifying person and air conditioner with person identification device
JP2013088105A (en) Air-conditioning control system
Kim et al. Improved occupancy detection accuracy using PIR and door sensors for a smart thermostat
CN112178785A (en) Dehumidification control method and dehumidification control equipment for air conditioner
Khalil et al. Nonintrusive ultrasonic-based occupant identification for energy efficient smart building applications

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees