JP2978374B2 - Image processing device, image processing method, and control device for air conditioner - Google Patents

Image processing device, image processing method, and control device for air conditioner

Info

Publication number
JP2978374B2
JP2978374B2 JP5204998A JP20499893A JP2978374B2 JP 2978374 B2 JP2978374 B2 JP 2978374B2 JP 5204998 A JP5204998 A JP 5204998A JP 20499893 A JP20499893 A JP 20499893A JP 2978374 B2 JP2978374 B2 JP 2978374B2
Authority
JP
Japan
Prior art keywords
temperature
unit
human
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5204998A
Other languages
Japanese (ja)
Other versions
JPH06117836A (en
Inventor
隆行 今井
基孫 中
武彦 志田
正章 佐藤
邦夫 ▲吉▼田
育雄 赤嶺
真 清水
好昭 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5204998A priority Critical patent/JP2978374B2/en
Publication of JPH06117836A publication Critical patent/JPH06117836A/en
Priority to US08/273,168 priority patent/US5555512A/en
Application granted granted Critical
Publication of JP2978374B2 publication Critical patent/JP2978374B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Air Conditioning Control Device (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明の画像処理装置は、主に赤
外線センサから得られる熱画像から人や環境の情報を検
出する画像処理装置に関するものであり、空調関連機
器、監視システム、住宅関連機器、インテリジェントビ
ルデイングシステム(IBS)等の多数の産業分野に利
用できる。また本発明の空気調和機の制御装置は、主に
赤外線センサから得られる人や環境の情報を制御指標と
する空気調和機に利用できる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for detecting information on a person or an environment from a thermal image obtained mainly from an infrared sensor. It can be used in many industrial fields, such as equipment, intelligent building systems (IBS). Further, the control device for an air conditioner of the present invention can be used for an air conditioner that uses information on people and the environment mainly obtained from an infrared sensor as a control index.

【0002】[0002]

【従来の技術】本発明が解決しようとする第1の分野
は、赤外線センサの熱画像を用いて、そこから得られる
人間を情報を用いる機器制御に関するものである。従来
より赤外線センサを用いて人の位置検出を行い空調制御
を行うものがあった。例えば、特開平2−143047
号公報記載の構成が知られている。以下に簡単にその構
成を説明する。室内を複数の領域に分けて、それら各領
域毎の赤外線を検知する赤外線センサを設け、各領域の
人の検出と、床面に対応する領域の温度を検出する。そ
して、これら人が検出された位置と、人付近の床面の温
度、および室温の関係から、通常時は室温を設定温度に
達するような設定温度制御を行い、風向は人の位置検出
結果に基づき変更する。また、室温が設定温度範囲に入
る場合で、かつ床面温度と室温の差が大きい場合は、床
方向の吹き出しを行い床面を暖める。このことにより、
人の位置する領域に対応する制御と、温度は設定温度に
達しているが、人の足元付近の冷え込みがある場合の不
快感を減らす制御が行われる。
2. Description of the Related Art A first field to be solved by the present invention relates to device control using information obtained by using a thermal image of an infrared sensor and a person obtained therefrom. 2. Description of the Related Art Conventionally, there has been an apparatus that detects a position of a person using an infrared sensor and performs air conditioning control. For example, Japanese Patent Application Laid-Open No. 2-143047
Is known. The configuration will be briefly described below. The room is divided into a plurality of areas, and an infrared sensor for detecting infrared rays in each of the areas is provided to detect a person in each area and a temperature of an area corresponding to a floor surface. Then, based on the relationship between the position where the person is detected, the temperature of the floor near the person, and the room temperature, set temperature control is performed so that the room temperature normally reaches the set temperature. Change based on If the room temperature falls within the set temperature range and the difference between the floor surface temperature and the room temperature is large, the floor surface is blown to warm the floor surface. This allows
Control corresponding to the region where the person is located and control for reducing discomfort when the temperature has reached the set temperature but there is cooling near the feet of the person are performed.

【0003】また、空気調和機以外でも監視システムな
どで人間に関する正確な情報が要求されているが、人間
に関する情報を検出する方法は、可視監視カメラを設置
し人がモニタリングするか、ビデオなどに記録すること
が一般的である。また、画像処理を用いた監視システム
も存在するが、照度や色などの問題で検出困難な場合も
多い。さらに、赤外線カメラを用いる監視システムも存
在するが、解像度の高い熱画像を得るには検出素子数を
多く必要とするか、冷却装置を必要とするものが一般的
で、複雑な処理と高いコストが要求される。
[0003] In addition to the air conditioner, accurate information about humans is required in a surveillance system or the like. A method for detecting information about humans is to install a visible surveillance camera to monitor by humans or use video. It is common to record. Although there are monitoring systems using image processing, detection is often difficult due to problems such as illuminance and color. In addition, there are surveillance systems that use infrared cameras. However, in order to obtain a high-resolution thermal image, a large number of detecting elements or a cooling device is generally required, and complicated processing and high cost are required. Is required.

【0004】本発明が解決しようとする第2の分野は空
調の制御指標に関するものである。空調の制御指標に関
しては、近年、温度指標のみではなく、温度以外の快適
感に関連する要素も考慮したPMV(ISO 7730
−1984)などの快適度を制御指標とする空調制御に
関するものがある。例えば、特開平4−84055号公
報の実施例記載の構成が知られている。以下にその構成
を説明する。空気温度、輻射温度、湿度、気流を周囲環
境側要素として測定し、また人間の運動量、着衣量を人
間側要素として推定し、前記人間側要素と環境側要素に
基づいて制御を行うか、これらの要素から快適指標であ
るPMVを計算し、計算したPMVに基づき制御を行
う。この場合、入力要素の導出方法は、各周囲環境側要
素を全て、各々の要素を計測するセンサにより計測する
ことは、製品化を行う上で、コストアップにつながり、
また計測方式の点で計測困難な要素が多いで、容易に計
測可能な情報からニューラルネットワークを用いてPM
Vを推測する。つまりPMV計測のために輻射センサや
気流センサを用いることは製品としてのコストアップに
つながると共に、室内にセンサを配置することは実際、
困難である。また、これらの複数の要素の検出や推定が
行えたとしてもPMVを算出するためには複雑な計算が
必要となる。これらの点を改善するために、計測が比較
的容易な外気温、室温、室温の時間変化、風量、設定温
度、人の位置の6要素を入力とし、そのときのPMVを
教師データとしてあらかじめニューラルネットワークに
学習させることで、前記6種類の入力に対するPMVの
出力を行うニューラルネットワークを構成し、このニュ
ーラルネットワークを用いPMVの推測を行い、推測し
たPMVを空調の制御指標として用いるものである。こ
の場合、学習に用いる教師データは、場合の数が多いた
めに、活動量や着衣量は複数の組み合わせの固定値を用
いたものである。
A second field to be solved by the present invention relates to a control index for air conditioning. In recent years, as for the air conditioning control index, not only a temperature index but also a PMV (ISO 7730) that takes into account factors related to comfort other than temperature.
(1984). For example, a configuration described in an embodiment of Japanese Patent Application Laid-Open No. 4-84055 is known. The configuration will be described below. Air temperature, radiation temperature, humidity, measure the airflow as the surrounding environment side element, and also estimate the amount of movement of the person, the amount of clothing as the human side element, and perform control based on the human side element and the environment side element, or , A PMV as a comfort index is calculated, and control is performed based on the calculated PMV. In this case, the method of deriving the input element is to measure all the surrounding environment-side elements using a sensor that measures each element, which leads to an increase in cost in commercialization,
In addition, there are many elements that are difficult to measure in terms of the measurement method.
Guess V. In other words, using a radiation sensor or an airflow sensor for PMV measurement leads to an increase in cost as a product, and arranging a sensor in a room is actually
Have difficulty. Even if the detection and estimation of these multiple elements can be performed, complicated calculations are required to calculate the PMV. In order to improve these points, six elements such as outside air temperature, room temperature, room temperature change over time, air volume, set temperature, and human position, which are relatively easy to measure, are input, and the PMV at that time is used as neural data in advance as teacher data. By making the network learn, a neural network for outputting the PMV with respect to the six types of inputs is formed, the PMV is estimated using the neural network, and the estimated PMV is used as a control index for air conditioning. In this case, since the teacher data used for learning has a large number of cases, the activity amount and the clothing amount use fixed values of a plurality of combinations.

【0005】本発明が解決しようとする第3の分野は、
不在時の空調に関するものである。従来より、人検知セ
ンサを設けるか、もしくは空調機操作手段の中に不在ボ
タンを設け、人が不在である空調機が判断したとき、室
温を所定の温度レベルは最低限維持するような制御を行
うものがあった。このことにより不在時の建物躯体の暖
房時の冷えすぎや冷房時の温まりすぎを抑え、入室時の
不快時間の削減につながった。また、不在時や就寝中の
自然室温または最低温度レベルから、設定温度に到るま
でには不快な時間が続くため、入室時刻または起床時刻
には設定温度になるようなタイマーを用いるものもあっ
た。
A third field that the present invention seeks to solve is:
It is related to air conditioning when not present. Conventionally, a human detection sensor is provided or an absent button is provided in the air conditioner operating means, and when the air conditioner in which a person is absent is determined, control is performed such that a predetermined temperature level is maintained at a minimum room temperature. There was something to do. As a result, it was possible to prevent the building frame from being overcooled during heating and from being overheated during cooling, and to reduce discomfort when entering the room. In addition, since there is an unpleasant time from the natural room temperature or the lowest temperature level during absence or bedtime to the set temperature, some timers use the timer to reach the set temperature at the time of entry or wake-up. Was.

【0006】[0006]

【発明が解決しようとする課題】しかし、従来の技術で
示した赤外線の熱画像を用いた空気調和機の制御装置
は、人の居る方向の検出には有効であるが、室内の個々
人の快適度を正確に算出するための個々人の位置、個々
人の姿勢判断等に関する正確な情報を検出することは困
難であった。
However, the control device for an air conditioner using an infrared thermal image shown in the prior art is effective for detecting the direction in which a person is present, but is comfortable for individuals in a room. It has been difficult to detect accurate information on the position of an individual, the determination of the posture of the individual, and the like for accurately calculating the degree.

【0007】更に、計測範囲があらかじめ固定された場
面のみであるので、想定された室内と形態が異なる室内
の場合は、壁を床と誤認識したりするので正確な床面温
度が検出されないなどの課題があった。
Further, since the measurement range is only a scene fixed in advance, if the room is different from the assumed room, the wall may be erroneously recognized as the floor, so that an accurate floor surface temperature may not be detected. There were challenges.

【0008】つまり、これらの課題は大きく分けて次の
2点の問題となる。 (1)画像の解像度が低い (2)個人や室内環境情報が正確に検出できない (1)は画像の読み取りセンサの分解能に起因する問題
である。画像の解像度が低いと個人や室内環境情報を正
確に検出することが難しい。そこで、本発明では、画像
は室内の一人の人間が複数個以上の画素のかたまりとし
て検出される程度の解像度が望ましい。
That is, these problems are roughly divided into the following two problems. (1) Image resolution is low (2) Individual or indoor environment information cannot be detected accurately (1) is a problem caused by the resolution of an image reading sensor. If the resolution of the image is low, it is difficult to accurately detect individual and indoor environment information. Therefore, in the present invention, it is desirable that the image has such a resolution that one person in the room is detected as a cluster of a plurality of pixels.

【0009】次に、(2)については(1)が問題とな
らない解像度の高い画像においても、個人情報を精度良
く検出し、これらの情報に基づく制御機器を行っていな
いために、生じる問題点である。本発明では、(2)に
関して従来手法の大きな課題として提起したい。
[0009] Next, the problem (2) arises even in a high-resolution image in which the problem (1) does not matter because the personal information is accurately detected and a control device based on the information is not used. It is. In the present invention, (2) is raised as a major problem of the conventional method.

【0010】従来の技術の第2の分野に示した空気調和
機の制御装置に関しては、ニューラルネットを用いて快
適度を推測する方式では、室内全体の平均的な快適度を
推測するもので、個人の快適度を考慮した制御指標では
なかった。快適度算出のための入力要素としては、気流
や輻射など検出するための方法が、各々の要素を計測す
るセンサを配置することも考えられるが、実際の家庭で
複数のセンサを室内に配置することは困難である。ま
た、リモコンなどにこれら周囲環境側要素を計測するセ
ンサを設置することも考えられるが、その場合室内の一
点の環境要素の計測でしかない。また、人間側要素に関
してもすでにいくつかの製品に用いられているように赤
外線センサの出力のピーク値の検出回数から人間側要素
である運動量を推測することも、部屋全体の活動度合い
は検出可能であるが、例えば5人の在室者が室内におり
4人が静止しており、1人が室内を動き廻っている状況
でも活動度合いが高いと推測されるので従来方法では、
個人毎の活動量検出の精度の点で課題がある。また、着
衣量を日射やカレンダ、外気温などから推測する方法も
考えられるが、実際に人体を計測しているものではない
ので、実際に在室している人間の着衣量とかけ離れてい
る場合もあり、やはり精度の点で課題があった。
With respect to the control device for an air conditioner shown in the second field of the prior art, the method of estimating comfort using a neural network estimates the average comfort of the entire room. It was not a control index that considered individual comfort. As an input element for calculating the degree of comfort, a method for detecting airflow, radiation, or the like may be considered in which a sensor for measuring each element is arranged, but a plurality of sensors are arranged indoors in an actual home. It is difficult. In addition, it is conceivable to install a sensor for measuring these surrounding environment-side elements on a remote controller or the like. In addition, as for the human element, the momentum that is the human element can be estimated from the number of detections of the peak value of the output of the infrared sensor, as is already used in some products, and the activity level of the whole room can be detected However, in the conventional method, for example, it is presumed that the activity level is high even in a situation where five occupants are in the room and four are stationary and one person is moving around the room.
There is a problem in the accuracy of activity amount detection for each individual. There is also a method of estimating the amount of clothing from sunlight, calendar, outside temperature, etc., but it is not actually measuring the human body, so it is far from the amount of clothing of the person who is actually in the room There was also a problem in terms of accuracy.

【0011】従来の技術の第3の分野に示した空気調和
機の制御装置に関しては、不在時に一定の最低限の温度
を保つ制御がされてきたが、それでも入室時もしくは起
床時に設定温度になるまで時間がかかり、その間不快で
あるという問題があった。また、維持する最低温度レベ
ルについても、暖房の場合、高すぎると電気代が不経済
であり、低すぎると設定温度になるまでかなりの時間を
要する問題があった。一方、タイマーについては、時刻
入力形式によるタイマセットおよびタイマリセットの際
の手間の問題があり、時刻設定の変更が少なく、効果の
大きな起床時以外はあまり利用されていないという問題
があった。
In the air conditioner control device shown in the third field of the prior art, control has been performed to maintain a certain minimum temperature in the absence of the air conditioner. It took a long time, during which time there was a problem of being uncomfortable. Also, with respect to the minimum temperature level to be maintained, in the case of heating, if it is too high, the electricity cost is uneconomical, and if it is too low, there is a problem that it takes a considerable time to reach the set temperature. On the other hand, the timer has a problem in that it is troublesome to set and reset the timer by the time input format, and there is a problem that the change of the time setting is small, and the timer is not used much except when the wake-up is effective.

【0012】本発明は、以上のような人体位置検出の精
度、および快適度算出のための入力要素の検出精度、お
よびタイマーセットに関するの利便性の悪さの問題に鑑
み、第1の目的は、赤外線熱画像を用いて検出エリア内
の人間の個人の情報および詳細な環境情報を検出するこ
と、第2の目的は、検出エリア内の人間の情報および室
内の詳細な環境情報を基に、空気調和機のきめ細かな制
御指標を定めること、第3の目的はタイマー操作をなく
することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems of the accuracy of detecting the position of a human body, the accuracy of detecting an input element for calculating a degree of comfort, and the inconvenience of a timer set. A second object is to detect human personal information and detailed environmental information in a detection area using an infrared thermal image. The second object is to detect air information based on human information in a detection area and detailed environmental information in a room. A third object of the present invention is to determine fine control indices of the harmony device, and to eliminate a timer operation.

【0013】[0013]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の技術的解決手段は、画像処理装置に関して
は、少なくとも検出エリア内の人間および環境の温度を
計測する赤外線画像(以降、熱画像と呼ぶ)入力手段を
持つセンサ部と、前記センサ部からの出力である検出温
度を画素値とする熱画像を処理し、次段の画像情報検出
部で用いる画像の特徴量を抽出する画像処理部と、ニュ
ーラルネットもしくはパターン認識機構を構成要素に有
し、前記画像処理部からの信号を基に、センサ部からの
出力信号より同等もしくは詳細な人間の個人情報信号も
しくは環境情報信号を、前記ニューラルネットもしくは
パターン認識機構により推測し、出力する画像情報検出
部を有している。
Means for Solving the Problems To achieve the above object, the technical solution of the present invention relates to an image processing apparatus comprising an infrared image (hereinafter, referred to as an infrared image) for measuring at least the temperature of a person and an environment in a detection area. A sensor unit having input means and a thermal image having a pixel value of a detected temperature output from the sensor unit are processed to extract a feature amount of an image used in an image information detecting unit at the next stage. An image processing unit, having a neural network or a pattern recognition mechanism as a component, and based on a signal from the image processing unit, a human personal information signal or an environmental information signal equivalent or more detailed than an output signal from a sensor unit. , An image information detecting section for estimating and outputting the information by the neural network or the pattern recognition mechanism.

【0014】また上記画像処理部に、人間領域検出部で
得られた人間画素ブロックの画素レベルでの補完および
消去を行う人間領域補正部と、人間領域検出部で得られ
た人間画素ブロックの代表点を所定の期間累積する累積
処理部と、累積処理部から得られる人間画素ブロックの
代表点の所定期間の累積から少なくとも床と壁、または
壁と壁の境界である室内代表点を判別し、熱画像上の各
画素と室内の床および壁の対応を関連付ける室内部位判
定部を付加した構成にすることも可能である。。
The image processing section includes a human area correcting section for complementing and erasing a human pixel block obtained by the human area detecting section at a pixel level, and a representative of a human pixel block obtained by the human area detecting section. Accumulation processing unit that accumulates points for a predetermined period, and at least floor and wall, or room representative points that are boundaries between walls are determined from the accumulation of representative points of the human pixel block obtained from the accumulation processing unit for a predetermined period, It is also possible to adopt a configuration in which an indoor part determining unit that associates the correspondence between each pixel on the thermal image and the floor and wall in the room is added. .

【0015】[0015]

【0016】また、第2の目的を達成するために、空気
調和機の制御装置に関しては、上記画像処理装置を構成
要素に有し、さらに温度や湿度などを検出するセンサ部
と、前記画像処理装置から得られる個人情報信号と、環
境情報信号から空調を行うための制御指標を決める制御
指標決定部と、空調機器の制御を行う空調制御部を有し
ている。上記制御指標決定部は、前記画像処理装置の個
人情報抽出部の出力である個人情報から個人別または室
内を代表する活動量を検出する活動量検出部と、前記個
人情報と、前記環境情報抽出部から得られる環境情報
と、空気調和機から得られる風向・風量情報と、前記活
動量検出部から得られる活動量から、個人別または代表
となる快適度を検出する快適度検出部を有しており、前
記快適度から空調制御部の制御目標値を出力する。
According to another aspect of the present invention, a control unit for an air conditioner includes the image processing device as a component, and further includes a sensor unit for detecting temperature, humidity, and the like. It has a control index determining unit that determines a control index for performing air conditioning from a personal information signal obtained from the device and an environmental information signal, and an air conditioning control unit that controls air conditioning equipment. The control index determination unit includes: an activity amount detection unit that detects an activity amount representative of an individual or a room from the personal information output from the personal information extraction unit of the image processing apparatus; the personal information; and the environment information extraction. Environmental information obtained from the unit, wind direction and air volume information obtained from the air conditioner, from the activity amount obtained from the activity amount detection unit, has a comfort level detection unit for detecting individual or representative comfort level And outputs a control target value of the air conditioning control unit from the comfort level.

【0017】また上記制御指標決定部にさらに、活動量
検出部から得られる活動量と、時刻と、環境情報抽出部
の出力である環境情報から生活シーンを推定する生活シ
ーン推定部を付加し、快適度が制御指標とならない過渡
的生活シーンと、在室者が所定の期間部屋に在室してお
り快適度が制御指標として用いることができる安定的生
活シーンを推定し、生活シーンに応じて快適度とシーン
毎に、あらかじめ定められた所定の制御指標の選択を行
う。
Further, a life scene estimating unit for estimating a living scene from the activity amount obtained from the activity amount detecting unit, time, and environmental information output from the environmental information extracting unit is added to the control index determining unit. Estimate a transient life scene in which the comfort level is not a control index and a stable life scene in which the occupant is in the room for a predetermined period and the comfort level can be used as the control index, and according to the life scene. A predetermined control index that is predetermined is selected for each comfort level and each scene.

【0018】また、第3の目的を達成するために、在室
データ記憶手段と、在室パターン分類手段と、不在時間
の最低維持温度レベルであるベース温度を前記在室パタ
ーン分類手段から得られる部屋の使用状況に応じて定め
るベース温度変換手段の構成からなる不在時制御指標決
定部およびカレンダを有している。
In order to achieve the third object, the occupancy data storage means, the occupancy pattern classification means, and the base temperature which is the minimum maintenance temperature level of the absence time can be obtained from the occupancy pattern classification means. It has an absent-time control index determining unit and a calendar, each of which has a configuration of base temperature conversion means determined according to the use state of the room.

【0019】[0019]

【作用】本発明の画像処理装置は、この構成によって、
最初にセンサ部の赤外線画像入力手段により、熱画像と
して入力される。入力された画像データは人間領域検出
部において人体部分の切り出し温度を基に人体部分の切
り出しと、これら人間画素ブロックとその代表点の算出
を行う。次に、例えば本画像処理装置で検出する信号の
一つである人間の位置と姿勢の検出方法について言え
ば、この人間画素ブロックとその代表点および代表点の
周囲環境から画像処理部で、人の位置検出用の特徴量や
姿勢判定用の特徴量を検出する。次に、画像情報検出部
で前記の各特徴量を入力として、人の位置や姿勢の検出
を行う。人の位置と姿勢の検出は各々別のニューラルネ
ットワークで構成された姿勢検出手段と足元位置検出手
段により行われる。また、足元位置検出手段では、姿勢
の種類により、例えば立位用と座位用と言うように判別
する姿勢の数に合わせて分けて判別を行い、姿勢毎の足
元位置を推測するニューラルネットからの出力を、姿勢
検出手段からの出力によって選択、選別している。この
ような処理を行うことで、より正確な位置検出が可能と
なる。
According to the image processing apparatus of the present invention,
First, the image is input as a thermal image by the infrared image input means of the sensor unit. Based on the input image data, the human region detection unit performs extraction of the human body part based on the extraction temperature of the human body part, and calculates these human pixel blocks and their representative points. Next, for example, regarding a method of detecting a position and a posture of a person, which is one of the signals detected by the image processing apparatus, the image processing unit uses the human pixel block and its representative point and the surrounding environment of the representative point. And the feature amount for position determination and the feature amount for posture determination. Next, the image information detection unit detects the position and orientation of a person by using the above-mentioned respective characteristic amounts as input. The detection of the position and the posture of the person is performed by the posture detecting means and the foot position detecting means each constituted by separate neural networks. Further, in the foot position detecting means, according to the type of the posture, for example, the classification is performed in accordance with the number of postures to be distinguished, such as for standing and for sitting, and a determination is made from the neural network for estimating the foot position for each posture. The output is selected and sorted by the output from the attitude detecting means. By performing such processing, more accurate position detection becomes possible.

【0020】また、実際の家庭では、検出対象となる人
体とセンサの間に家具などの障害物がある場合が考えら
れ、その場合、人体が分離され複数の在室者が居ると誤
られるので、人間領域補正部によって、人間画素ブロッ
クとして切り出された画素の周囲を検索し、画素の補完
を行ったり、ノイズと考えられる画素の消去を行う。さ
らに、テレビなどの静止発熱物体の除去を行うために累
積処理部において、切り出された人間画素ブロックの代
表点を所定期間累積し、特定画素だけがあらかじめ設定
した頻度しきい値を越える場合、静止発熱物体があるも
のとし、その熱画像上の位置を記憶し、以降人間領域検
出の際に人間画素ブロックの代表点が静止発熱物体の位
置と一致する場合は、当該人間画素ブロックを人体とし
て扱わない処理を行う。このことにより人体の精度の高
い検出が可能となる。また、累積処理部では前記静止発
熱物体の検出に用いた累積期間より長い期間、人間画素
ブロックの代表点を累積し、空気調和機の設置してある
壁面を除く3方の壁面と床面の境界を特定する代表点を
検出し、室内部位判定部では、その代表点を基に床面お
よび3方向の壁面と熱画像の対応を関連付ける。このこ
とにより環境情報抽出部では広さの異なる部屋でも、床
および3方向の壁の各部位温度が検出されることにな
り、さらに人の足元位置情報を用いることによって個人
毎の精度の良い輻射温度が検出可能となる。
Further, in an actual home, it is conceivable that there is an obstacle such as furniture between the human body to be detected and the sensor. In this case, it is erroneously assumed that the human body is separated and a plurality of occupants are present. The human area correction unit searches around the pixels cut out as a human pixel block, complements the pixels, or deletes pixels considered as noise. Further, in order to remove a stationary heating object such as a television, the accumulation processing section accumulates the representative points of the cut out human pixel block for a predetermined period, and when only a specific pixel exceeds a preset frequency threshold value, Assuming that there is a heating object, the position on the thermal image is stored, and when the representative point of the human pixel block matches the position of the still heating object at the time of detecting a human area, the human pixel block is treated as a human body. Perform no processing. This enables highly accurate detection of the human body. In addition, the accumulation processing unit accumulates the representative points of the human pixel block for a period longer than the accumulation period used for the detection of the stationary heat-generating object, and calculates the three walls and the floor except for the wall on which the air conditioner is installed. A representative point for specifying the boundary is detected, and the indoor part determining unit associates the floor surface and the wall surface in three directions with the correspondence of the thermal image based on the representative point. As a result, the environment information extraction unit detects the temperature of each part of the floor and the walls in three directions even in rooms having different sizes, and furthermore, by using the foot position information of the person, accurate radiation for each individual can be obtained. The temperature can be detected.

【0021】また、熱画像の入力手段の検出エリア内の
環境情報、例えば室内であればセンサに対する室内の大
きさや壁面の位置等の構造情報は熱画像から検出するこ
とは難しいために、使用者が直接コンソール部から入力
して正確な位置検出や姿勢の検出の補助情報として用い
ることができる。
Further, it is difficult to detect environmental information in the detection area of the thermal image input means, for example, structural information such as the size of the room and the position of the wall surface with respect to the sensor if the room is indoors. Can be directly input from the console unit and used as auxiliary information for accurate position detection and posture detection.

【0022】次に、本発明の画像処理装置は、熱画像の
処理のみでなく可視画像入力装置(カメラ)を用いたシ
ステムにすることにより、熱画像より得られた人間に関
連情報を、可視画像上に伝達して、可視画像の人の位置
を使用者に提供したりできる。
Next, the image processing apparatus of the present invention not only processes a thermal image but also employs a system using a visible image input device (camera) so that human-related information obtained from the thermal image can be visualized. It can be conveyed on the image to provide the user with the position of the person in the visible image.

【0023】また、逆の場合として可視画像から得られ
る人の情報、例えば動き情報を用いて熱画像上の人の位
置を検出することも可能であるとともに、熱画像や可視
画像の各処理を行っている画像情報検出部におけるニュ
ーラルネットワークの状態をお互いの情報を教師として
適応的な学習を行い、より性能のアップを図ることがで
きる。
In the opposite case, it is possible to detect the position of a person on the thermal image using information of the person obtained from the visible image, for example, motion information, and to perform each processing of the thermal image and the visible image. Adaptive learning is performed on the state of the neural network in the image information detection unit that is performing using each other's information as a teacher, and the performance can be further improved.

【0024】さらに、本発明の熱画像処理と可視画像処
理を組み合わせた画像処理装置を複数用いて、その複数
の装置が設置されたエリア内の人間の情報をより正確に
検出することができる。これは、1つの画像処理装置で
は重なった人を正確に分離することが難しいが、複数台
の装置を用いることにより、この課題も解決できる。ま
た、広いエリアにおいて人の追尾が可能となる。
Further, by using a plurality of image processing apparatuses that combine the thermal image processing and the visible image processing of the present invention, it is possible to more accurately detect information about a person in an area where the plurality of apparatuses are installed. Although it is difficult for one image processing apparatus to accurately separate people who overlap, this problem can be solved by using a plurality of apparatuses. In addition, a person can be tracked in a wide area.

【0025】次に、空気調和機の制御装置についてであ
るが、本発明は、この構成によって、最初に、上記画像
処理装置において検出エリア内の人間と環境の情報を検
出する。制御指標決定部では、例えば快適度を制御指標
に用いる場合、前記画像処理装置の個人情報抽出部で抽
出された個人情報と、同環境情報抽出部で算出された環
境情報を基に個人別の快適度を算出し、複数在室者が居
る場合は快適度が低い在室者を優先的に快適にするよう
な、風向、風量、快適度の制御指標を算出する。空調制
御部では制御指標決定部の指示に基づき、例えば、コン
プレッサー周波数の制御、垂直および水平フラップの制
御、室内機送風用ファンの制御を行う。
Next, with respect to the control device of the air conditioner, according to the present invention, first, with this configuration, the image processing device first detects the information of the person and the environment in the detection area. In the control index determination unit, for example, when the degree of comfort is used as the control index, the personal information extracted by the personal information extraction unit of the image processing apparatus and the individual information based on the environment information calculated by the environment information extraction unit. The degree of comfort is calculated, and when there are a plurality of occupants, a control index of the wind direction, the amount of air, and the degree of comfort is calculated so that the occupant having a low degree of comfort is preferentially comfortable. The air-conditioning control unit performs, for example, control of the compressor frequency, control of the vertical and horizontal flaps, and control of the indoor unit fan based on the instruction of the control index determination unit.

【0026】また、制御指標決定部では上に快適度を用
いる場合の例を示したが、生活シーン推定部を付加する
ことで、就寝、起床、入室、退室といった快適度が制御
指標とならない過渡的シーンと、人が入室後しばらく経
過した快適度が制御指標となる安定的シーンを判別し、
おのおののシーンに応じて過渡的シーンはあらかじめ定
められた制御指標を、安定的シーンは算出した快適度を
制御指標として用いる。また、シーン推定部のみを制御
指標とする場合は、過渡的シーンの推測に加え、安定的
シーンをさらに、人数と各個人の情報から算出した室内
を代表する活動量に応じて、だんらん、掃除、くつろぎ
などのシーンに分類し、各シーン毎にあらかじめ定めた
制御指標を用いる。
Although the control index determining section has shown an example in which the comfort level is used above, the addition of a life scene estimating section makes it possible for a transition such as sleeping, getting up, entering and leaving the room to become a control index. And a stable scene where the degree of comfort after a person has entered the room for a while becomes a control index,
A predetermined control index is used as a control index for a transient scene according to each scene, and a calculated comfort level is used as a control index for a stable scene. When only the scene estimating unit is used as the control index, in addition to estimating the transient scene, the stable scene is further cleaned and cleaned according to the activity amount representing the room calculated from the number of persons and information of each individual. , Relaxation, etc., and control indices predetermined for each scene are used.

【0027】また、次にこの構成によって、最初に一定
時間間隔で、人数検出部により室内の在室者の有無を在
室者が居る場合を1、居ない場合を0とし検出する。こ
の0、1のデータは部屋への人の出入りで大きく変化す
るので、10分を1単位にし、例えば10分以上継続し
て0の場合のみ0とするなどの補正を行う。在室データ
記憶手段ではこれら補完した1日分の在室データを当日
より一定期間分だけ記憶する。在室パターン分類手段で
はカレンダーからの平日、休日、曜日といった日の属性
の情報を基に、当日と日の属性が同じ日の在室データを
集め、時刻別の在室率(在室パターンと呼ぶ)を求め
る。ベース温度変換手段では、この在室パターンを基本
としてベース温度の値を算出する。空調制御手段では、
人検知手段の出力により、人が在室中は設定温度を目標
値とし、不在時は現在時刻から時刻別のベース温度の値
を目標値し、人の入室が検知された場合は、設定温度に
目標値を切り替える。このことによって、人が入室する
前には室内環境がスタンバイされているので快適性に優
れ、不在が多い時間帯は低めのベース温度なので経済性
にも優れた空調が実現できる。
Next, with this configuration, the presence / absence of an occupant in the room is initially set to 1 when the occupant is present and 0 when the occupant is not present by the number detection unit at predetermined time intervals. Since the data of 0 and 1 greatly change when a person enters and exits the room, a correction is made such that 10 minutes is set to 1 unit, and for example, 0 is set only when 0 is continued for 10 minutes or more. The occupancy data storage means stores the supplemented occupancy data for one day for a certain period from the current day. The occupancy pattern classification means collects occupancy data on the same day and the same day attribute based on information on the attributes of the day such as weekdays, holidays, and days of the week from the calendar, and occupies the occupancy rate by time (the occupancy pattern and the occupancy pattern). Call). The base temperature conversion means calculates the value of the base temperature based on the occupancy pattern. In the air conditioning control means,
Based on the output of the human detection means, the target temperature is set to the target temperature while the person is in the room, and the target temperature is set to the target temperature for each time from the current time when the person is absent. Switch the target value to. As a result, since the indoor environment is on standby before a person enters the room, the air conditioner is excellent in comfort, and the air conditioner is economically excellent since the base temperature is low during a time when there are many absences.

【0028】[0028]

【実施例】以下、本発明の第1の実施例の画像処理装置
について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to a first embodiment of the present invention will be described below.

【0029】図1は本実施例画像処理装置の構成図であ
る。1はセンサ部で熱画像を計測する。2は画像処理部
で熱画像から人の領域や特徴量を検出する。3は画像情
報検出部で人の姿勢や足元位置などを熱画像から推定す
る。画像情報検出部3は複数のニューラルネットワーク
等により構成されている。
FIG. 1 is a block diagram of the image processing apparatus of the present embodiment. Reference numeral 1 denotes a sensor unit for measuring a thermal image. Reference numeral 2 denotes an image processing unit that detects a human region and a feature amount from the thermal image. Reference numeral 3 denotes an image information detection unit that estimates a human posture, a foot position, and the like from a thermal image. The image information detection unit 3 is configured by a plurality of neural networks and the like.

【0030】図1の情報の基本的な流れを示す。外界4
は人間がいる領域で、センサ部1に含まれる2次元赤外
線センサ11で走査して、熱画像情報として検出可能な
エリアの温度を検出する。人の居住するエリアとしての
室内を示す場合もある。外界4の熱分布が2次元赤外線
センサ11により走査され、熱画像6として画像処理部
2に入力される。熱画像6には走査エリアの人を含めた
熱分布全てが画像となるために、画像処理部2で人の領
域の検出が行われる。この人の領域から後段の画像情報
検出部3に転送する人の領域の特徴量データを画像処理
部2で作成して、特徴量データ7として画像情報検出部
3に入力される。画像情報検出部3では、特徴量データ
7から姿勢判定や足元位置などの個人情報信号8を推定
する。
FIG. 1 shows a basic flow of information shown in FIG. Outside world 4
Is a region where a human is located, and is scanned by a two-dimensional infrared sensor 11 included in the sensor unit 1 to detect a temperature of an area that can be detected as thermal image information. In some cases, a room as an area where people live is shown. The heat distribution of the external world 4 is scanned by the two-dimensional infrared sensor 11 and input to the image processing unit 2 as a thermal image 6. Since the entire thermal distribution including the person in the scanning area becomes an image in the thermal image 6, the image processing unit 2 detects the region of the person. The image processing unit 2 creates feature amount data of the person's area to be transferred from the person's area to the subsequent image information detection unit 3, and is input to the image information detection unit 3 as feature amount data 7. The image information detection unit 3 estimates a personal information signal 8 such as a posture determination and a foot position from the feature amount data 7.

【0031】以上のように構成された画像処理装置を組
み込んだ空気調和機についてその動作を説明する。最初
に、壁掛け式の空気調和機の本体に設置された、例えば
縦方向に複数素子が並列されている焦電型の1次元赤外
線センサを、一定時間のサンプリングタイミングで室内
を間口方向に走査するような仕組みで構成された2次元
赤外線センサ11を用いて室内の在室者を含めた2次元
の熱画像を得る。図2(a)は第1の実施例における計
測された熱画像の例である。4角形の部屋に3人の人間
が在室しており、各人が異なる姿勢をとっている状況で
ある。21は臥位の在室者の画像ブロック、22は立位
の在室者の画像ブロック、23は椅子座位の在室者の画
像ブロックである。24は床面の画像ブロック、25は
左壁面の画像ブロック、26は奥壁面の画像ブロック、
27は右壁面の画像ブロックである。図2(b)はこの
ときの室内の平面図である。28は臥位の在室者、29
は立位の在室者、30は椅子座位の在室者、31は床、
32は左壁、33は奥壁、34は右壁、35は本画像処
理装置を構成要素に持つ空気調和機、36は空気調和機
35に設置された赤外線2次元センサであり、37は赤
外線2次元センサ36の走査方向と検出範囲である。こ
のように、2次元赤外線センサ36を間口方向に走査す
ることによって、遠い人物は熱画像上、上部に検出さ
れ、近い人物は下部に検出される。また、床や壁につい
ても、空気調和機取付面の壁を除き、大部分が熱画像上
に検出される。
The operation of the air conditioner incorporating the image processing apparatus configured as described above will be described. First, a one-dimensional pyroelectric infrared sensor in which a plurality of elements are arranged in a vertical direction, for example, is installed in the body of a wall-mounted air conditioner, and scans the room in the frontage direction at a sampling timing for a predetermined time. Using the two-dimensional infrared sensor 11 configured in such a manner, a two-dimensional thermal image including the occupants in the room is obtained. FIG. 2A is an example of a measured thermal image in the first embodiment. In this case, three people are present in a quadrangular room, and each person is in a different posture. 21 is an image block of the occupant in the lying position, 22 is an image block of the occupant in the standing position, and 23 is an image block of the occupant in the chair sitting position. 24 is a floor image block, 25 is a left wall image block, 26 is a back wall image block,
Reference numeral 27 denotes an image block on the right wall surface. FIG. 2B is a plan view of the room at this time. 28 is a person in a lying position, 29
Is a standing occupant, 30 is a chair sitting occupant, 31 is a floor,
32 is a left wall, 33 is a back wall, 34 is a right wall, 35 is an air conditioner having the image processing apparatus as a component, 36 is an infrared two-dimensional sensor installed in the air conditioner 35, and 37 is an infrared sensor The scanning direction and the detection range of the two-dimensional sensor 36 are shown. Thus, by scanning the two-dimensional infrared sensor 36 in the frontage direction, a distant person is detected at the upper portion on the thermal image, and a near person is detected at the lower portion. Most of the floors and walls are detected on the thermal image, except for the wall of the air conditioner mounting surface.

【0032】次に、詳細な図1の説明をする。最初に画
像処理部2の説明をする。2次元赤外線センサ11で検
出した熱画像は、以降の処理を行うために画像記憶部1
2に一度記憶する。次に、人間領域検出部13では図3
に示す構成で、人間の領域の検出を行う。従来は、熱画
像データから人間の領域を検出する場合、室内に人間以
外の発熱がなく、人間以外の室内温度が25℃以下であ
るとすればとすれば、26℃から34℃の温度の画素を
検出することにより人体の領域を検出していた。しか
し、以上のような構成では2次元の熱画像から人間の切
り出しが正確に行えない場合があった。例えば、室内の
温度分布が床や各壁面によって温度が違う場合がある。
また、人の切り出しを温度範囲を用いずに、人の境界線
より人間を検出する方法もあるが、良好なエッジの検出
ができないと正確な検出は困難である。
Next, FIG. 1 will be described in detail. First, the image processing unit 2 will be described. The thermal image detected by the two-dimensional infrared sensor 11 is stored in the image storage unit 1 for performing subsequent processing.
Remember once in two. Next, in the human area detecting unit 13, FIG.
The configuration shown in FIG. 1 detects a human area. Conventionally, when detecting a human area from thermal image data, if it is assumed that there is no non-human heat generation in the room and that the temperature of the non-human room is 25 ° C. or less, a temperature of 26 ° C. to 34 ° C. The region of the human body has been detected by detecting pixels. However, with the above-described configuration, there are cases where a human cannot be cut out accurately from a two-dimensional thermal image. For example, the temperature distribution in a room may be different depending on the floor or each wall surface.
There is also a method of detecting a person from the boundary of the person without using the temperature range for cutting out the person. However, accurate detection is difficult if a good edge cannot be detected.

【0033】そこで、本実施例では画像記憶部12に記
憶された熱画像をM(Mは正の整数)分割して、領域分
けを行い(以降、各領域をブロックと呼ぶ)、熱画像の
各ブロック毎に人間の切り出し温度範囲を決定して人間
の位置を算出するようにし、室内の温度分布に連動し
て、人間の切り出し温度を算出することにより、人間の
検出が容易に算出できるようにした。
Therefore, in the present embodiment, the thermal image stored in the image storage unit 12 is divided into M (M is a positive integer) and divided into regions (hereinafter, each region is referred to as a block). The human cut-out temperature range is determined for each block to calculate the position of the human, and the cut-out temperature of the human is calculated in conjunction with the temperature distribution in the room, so that the detection of the human can be easily calculated. I made it.

【0034】また、熱画像のもつ特徴である人間や生物
の発熱物体を容易に捕らえる処理を有効に利用できる。
また、人間を発熱物体として捉える場合は、人間の領域
が周囲温度に対して、高い場合は凸になり、低い場合は
凹になる。そこで、熱画像の隣接する画素をG(n)、G
(n+1)をすると D(n) = (G(n)ーG(n-1))/2 のように差分をとり、その差D(n)の絶対値(ABS(D
(n))が ABS(D(n)) > TH 適切なしきい値THよりも大きい場合を人のエリアの境界
として検出して、その境界の内外の温度を基準にして人
の領域を切り出す方法もある。また、熱画像全体に雑音
が多い場合は、熱画像内の大きな凹凸を捉える方法とし
て、画像処理で良く知られた移動平均法の一つとして多
項式平滑化法を用いて雑音を除去しながら熱画素内の人
間にあたる凹凸を見つけて、その凹凸の部分の温度を基
準に領域を切り出す方法もある。この方法は、”科学計
測のための波形データ処理”CQ出版(株)発行等に掲
載されている。
In addition, a process of easily capturing a heat-generating object of a human or a living being, which is a characteristic of a thermal image, can be effectively used.
Further, when capturing the human as a heating object, and the human region to ambient temperature, Ri Do convexly case high, If no low is concave. Therefore, adjacent pixels of the thermal image are represented by G (n) and G (n).
(n + 1), a difference is obtained as D (n) = (G (n) -G (n-1)) / 2, and the absolute value of the difference D (n) (ABS (D
(n)) is detected as ABS (D (n))> TH greater than the appropriate threshold value TH as a boundary of a human area, and a human area is cut out based on the temperature inside and outside the boundary. There is also. In addition, if the entire thermal image is noisy, a method of capturing large irregularities in the thermal image is to remove the noise using a polynomial smoothing method as one of the well-known moving average methods in image processing. locate the unevenness corresponding to the human in the pixel, Ru method mower cutting the region based on the temperature of the portion of the irregularity. This method is described in "Waveform Data Processing for Scientific Measurement" published by CQ Publishing Co., Ltd.

【0035】また、熱画像の各画素を中心に温度が近い
画素を連結して人の領域を行う方法として”画像解析ハ
ンドブック”東京大学出版会発行等で示している領域分
割法として単純領域拡張法や反復型領域拡張法を用い
て、熱画像面の熱分布の領域を切り出し、その領域のな
かで人の領域と判断できる大きさと温度分布を持つ領域
を人として検出方法もある。
As a method of connecting a pixel having a similar temperature around each pixel of the thermal image to form a human region, a simple region expansion method is used as a region dividing method disclosed in "Image Analysis Handbook" published by The University of Tokyo Press. There is also a method of extracting a heat distribution area on a thermal image surface using a method or an iterative area expansion method, and detecting an area having a size and a temperature distribution that can be determined as a human area among the areas as a human.

【0036】人間領域検出部13の構成の一例につい
て、図3に基づいて説明する。図3において、40は熱
画像をM個のブロックに分割して、各々のブロックの平
均温度を算出する領域分割代表温度算出手段、41はブ
ロックの平均温度から人間の切り出し温度を決定する切
り出し温度決定手段、42は人間検出手段、43は人間
の領域の代表点を算出する代表点算出手段を示す。
An example of the configuration of the human area detecting section 13 will be described with reference to FIG. In FIG. 3, reference numeral 40 denotes a region division representative temperature calculating means for dividing a thermal image into M blocks and calculating an average temperature of each block; Determining means, 42 is a human detecting means, 43 is a representative point calculating means for calculating a representative point of the human area.

【0037】画像記憶部12に記憶された熱画像は、領
域分割代表温度算出手段40で、熱画像をM個のブロッ
クに分割され、各々のブロックの平均温度が算出され
る。算出されたブロックの平均温度は、人間の切り出し
温度範囲を決定する切り出し温度決定手段41に渡され
て、各ブロック毎の切り出し温度範囲が決定される。こ
こで、M個の複数ブロックに分割する理由は、壁が部分
的に温まっていたり、人体の衣服が冷えている場合など
一律的な切り出し温度では人体部分の精度良い切り出し
が困難なことによる。それゆえ、M個に熱画像を分割す
ることにより、背景温度を考慮した切り出しが可能とな
る。次に、切り出し温度範囲と熱画像は、人間の領域を
検出する人間検出手段42に入力されて人間の領域を示
す人間画素ブロックが検出される。代表点算出手段43
では、人間画素ブロックを入力とし、そのブロックの代
表する代表点、例えば温度に重み付けられた重心点画素
とか、足元位置に対応する最下点画素などの代表点を検
出する。また、代表点として演算が少なくてすむように
床面に最も近い画素の座標や床面から最も遠い画素の座
標が用いられることもある。また、重心のY座標の位置
と床面に最も近いXの位置を代表点の位置とすることも
できる。この代表点が分かることにより人間がどの位置
にいるのか、何人居るのかの大まかな決定をすることが
できる。
The thermal image stored in the image storage section 12 is divided into M blocks by a region representative temperature calculating means 40, and the average temperature of each block is calculated. The calculated average temperature of the block is passed to a cut-out temperature determining unit 41 that determines a cut-out temperature range of a person, and a cut-out temperature range for each block is determined. Here, the reason why the block is divided into a plurality of M blocks is that it is difficult to accurately cut out the human body portion at a uniform cutout temperature such as when the wall is partially warm or when the clothes of the human body are cold. Therefore, by dividing the thermal image into M images, it is possible to cut out the image in consideration of the background temperature. Next, the cut-out temperature range and the thermal image are input to human detection means 42 for detecting a human area, and a human pixel block indicating a human area is detected. Representative point calculation means 43
In this example, a human pixel block is input, and a representative point representative of the block, for example, a center-of-gravity point pixel weighted by temperature, or a representative point such as a lowest point pixel corresponding to a foot position is detected. In addition, the coordinates of the pixel closest to the floor surface or the coordinates of the pixel farthest from the floor surface may be used as the representative point so that the calculation is reduced. Further, the position of the Y coordinate of the center of gravity and the position of X closest to the floor surface may be set as the position of the representative point. By knowing the representative points, it is possible to roughly determine where the human is and how many are.

【0038】図4は、本発明の熱画像データから8個の
ブロックに分割し、各ブロックの平均温度の算出した例
を示す。各ブロック毎に領域分割代表温度算出手段40
で、平均温度T1〜T8が算出される。例えば、ブロック
Nの平均温度TNの値が 20℃ < TN < 22℃ の場合は、ブロックNの人の切り出し温度範囲は、25
℃から34℃というように各ブロック毎に人の切り出し
温度が決定される。つまり人間の露出皮膚温度は、36
℃から37℃であるが、着衣や背景と人体部分が1つの
画素の中に含まれる場合は平均化されてしまい検出温度
は低くなるので、人の切り出し温度は画像の解像度によ
って変化することになる。本発明では、ブロック毎の平
均温度値とブロックの全画像内における位置により適正
な人間の切り出し温度範囲を決定している。
FIG. 4 shows an example of dividing the thermal image data of the present invention into eight blocks and calculating the average temperature of each block. Area division representative temperature calculating means 40 for each block
Then, the average temperatures T1 to T8 are calculated. For example, when the average temperature TN of the block N is 20 ° C. <TN <22 ° C., the cut-out temperature range of the person in the block N is 25
The cutout temperature of a person is determined for each block, such as from 34 ° C to 34 ° C. In other words, the human exposed skin temperature is 36
The temperature is between 37 ° C and 37 ° C. However, if the clothing, background and human body are included in one pixel, they are averaged and the detection temperature becomes low. Become. In the present invention, an appropriate human cut-out temperature range is determined based on the average temperature value for each block and the position of the block in the entire image.

【0039】一方、上記の構成では、人間の領域の抽出
を正しく行うためには、画素が人体を含んでいると判断
する温度範囲を赤外線素子毎に、設定する必要があり、
素子数が多い場合には各検出素子について温度範囲を設
定することが装置の製造上困難であったり、人間と同じ
温度範囲を持つ物体、例えばテレビや暖房機などを人間
と誤ってしまういう課題も有していた。そこで、連続し
た画像により適切な人間切り出し温度範囲を決定する方
法がある。図5に、このような方法を用いた人間領域検
出部13の構成を示す。図3の構成と異なるのは領域分
割代表温度算出手段40の代わりに、差分画像作成手段
50と動物体画像作成手段51と度数分布作成手段52
を設けた点であり、以下は図3の構成と同様である。以
下に、図5を用いながらその動作を説明する。
On the other hand, in the above configuration, in order to correctly extract a human area, it is necessary to set a temperature range for determining that a pixel includes a human body for each infrared element.
When the number of elements is large, it is difficult to set a temperature range for each detection element in terms of manufacturing the device, or an object having the same temperature range as a human, such as a television or a heater, is mistaken for a human. Had also. Therefore, there is a method of determining an appropriate human cut-out temperature range from continuous images. FIG. 5 shows a configuration of the human area detection unit 13 using such a method. 3 is different from the configuration of FIG.
The following is the same as the configuration of FIG. The operation will be described below with reference to FIG.

【0040】この構成では、画像記憶部12には連続的
に複数の熱画像を記憶する。差分画像作成手段50で
は、記憶された連続した複数の熱画像の画像間の差分画
像を作成する。動物体画像作成手段51では、複数の熱
画像と検出された差分画像から動物体画像を作成する。
次に、度数分布作成手段52では、前記動物体画像作成
手段51により複数の熱画像の画素値の中で動物体に対
応する画像の画素ブロックが得られるのでこれらの画素
ブロックの温度値の度数分布を作成する。切り出し温度
決定手段53では、内部に設定された適切なしきい値
と、前記度数分布作成手段52から得られた度数分布を
用いて人間領域を検出可能な切り出し温度範囲を決定す
る。そして、以降は図3に示した人間検出手段42と代
表点算出手段43により、人間画素ブロックとその代表
点を算出する。
In this configuration, the image storage section 12 stores a plurality of thermal images continuously. The difference image creation means 50 creates a difference image between the stored plurality of thermal images. The moving object image creating means 51 creates a moving object image from the plurality of thermal images and the detected difference image.
Next, in the frequency distribution creating unit 52, the moving object image creating unit 51 obtains the pixel blocks of the image corresponding to the moving object from among the pixel values of the plurality of thermal images. Create a distribution. The cut-out temperature determining means 53 determines a cut-out temperature range in which a human region can be detected using an appropriate threshold value set therein and the frequency distribution obtained from the frequency distribution creating means 52. Thereafter, the human pixel block and its representative point are calculated by the human detecting means 42 and the representative point calculating means 43 shown in FIG.

【0041】次に、図5を参照しながら詳細な処理の手
順を示す。画像記憶部12に記憶された画像は、室内の
温度分布を熱画像として連続的に読み取った画像であ
る。本実施例では、この連続した計測した熱画像をそれ
ぞれ、画像Aと画像Bする。
Next, a detailed processing procedure will be described with reference to FIG. The image stored in the image storage unit 12 is an image obtained by continuously reading the temperature distribution in the room as a thermal image. In the present embodiment, the continuous measured thermal images are referred to as an image A and an image B, respectively.

【0042】まず、画像A、画像Bは順番で読み取られ
画像とする。画像は、座標(x,y)に存在する画素
をP(x,y)して表現するものとする。画像Aと画像
Bから差分画像作成手段50により、差分画像が作成さ
れる。この場合、画像にノイズ成分を含む場合は、しき
い値hを用いてもよい。つまり、画像中の座標(x,
y)にある画素値をT1(x,y)、画像B中の同一座
標の画素値をT2(x,y)、しきい値をh、画素値と
して絶対にありえない値をTNとするとき、差分画像中
の同一座標の画素の値dTを、 |T2(x,y)−T1(x,y)|<hならば dT(x,y)=TN |T2(x,y)−T1(x,y)|≧hならば dT(x,y)=T2(x,y)−T1(x,y) (|x|はxの絶対値を求めることを示す) とする処理を各画像中の全ての画素に対して行うことに
より差分画像を作成できる。図6に、画像A,Bからの
差分画像の作成例を示す。2つの画像の差分をとること
で値が正のエリアは移動後のエリアで、負のエリアは移
動前のエリアであることが分かる。TNについては、た
とえば、温度値が摂氏で測られる場合には、TN=−1
000というような絶対0度未満の値にするか、TN=
10000のような非常な高温にすればよい。また、
画像中の各画素は、その温度値がTN以外の値であれ
ば、その画素は動物体をとらえたことを示し、温度値が
TNであれば、静止した物体をとらえたことを示してい
る。次に、画像Aと画像Bとの差分画像2から動物体画
像作成手段51により動物体画像が作成される。動物体
画像の作成は次のように行われる。つまり、差分画像中
の各画素の温度差値をdT(x,y)、動物体画像の同
一座標の画素の温度値をV(x,y)とするとき、 dT(x,y)<0 ならば V(x,y)=T1(x,y) dT(x,y)>0 ならば V(x,y)=T2(x,y) dt(x,y)=TNならば V(x,y)=TN というような処理を差分画像中の全画素に対して行うこ
とにより、動物体画像を作成することができる。次に、
動物体画像から度数分布作成手段52により熱画像中の
各画素ごとに温度Tについての度数分布H(x,y,
T)が作成される。度数分布の作成は次のように行われ
る。つまり、動物体画像中の座標(x,y)にある画素
値をV(x,y)、熱画像中の同一座標の画素について
の度数分布をH(x,y,T)とするとき、 H(x,y,V(x,y))←H(x,y,V(x,y))+1 という処理を動物体画像中の全画素に対して行うことに
より、画像中の各画素ごとに温度についての度数分布が
作成できる。
First, the images A and B are read in order.
It is assumed that image. In the image, pixels existing at coordinates (x, y) are represented by P (x, y). A difference image is created from the image A and the image B by the difference image creation means 50. In this case, if the image contains a noise component, the threshold value h may be used. That is, the coordinates in the image A (x,
When the pixel value in y) is T1 (x, y), the pixel value of the same coordinates in the image B is T2 (x, y), the threshold value is h, and the value which cannot be absolutely determined as the pixel value is TN, If | T2 (x, y) −T1 (x, y) | <h, the value dT of the pixel at the same coordinates in the difference image is given as dT (x, y) = TN | T2 (x, y) −T1 ( If x, y) | ≧ h, dT (x, y) = T2 (x, y) −T1 (x, y) (| x | indicates that the absolute value of x is to be obtained). A differential image can be created by performing the process on all the pixels in the middle. FIG. 6 shows an example of creating a difference image from images A and B. By taking the difference between the two images, it can be seen that the area having a positive value is the area after the movement, and the negative area is the area before the movement. For TN, for example, if the temperature value is measured in degrees Celsius, TN = -1
Or a value less than absolute zero such as 000, or TN =
What is necessary is just to make it very high temperature, such as 10,000. Also the difference
If each pixel in the minute image has a temperature value other than TN, it indicates that the pixel has captured a moving object, and if the temperature value is TN, it indicates that a stationary object has been captured. I have. Next, a moving object image is created from the difference image 2 between the image A and the image B by the moving object image creating means 51. Creation of a moving object image is performed as follows. That is, when the temperature difference value of each pixel in the difference image is dT (x, y) and the temperature value of the pixel at the same coordinates in the moving object image is V (x, y), dT (x, y) <0 Then, if V (x, y) = T1 (x, y) dT (x, y)> 0, then V (x, y) = T2 (x, y) If dt (x, y) = TN, then V ( By performing a process such as (x, y) = TN for all pixels in the difference image, a moving object image can be created. next,
From the moving object image, the frequency distribution creating means 52 uses the frequency distribution H (x, y,
T) is created. The frequency distribution is created as follows. That is, when the pixel value at the coordinates (x, y) in the moving object image is V (x, y), and the frequency distribution of the pixels at the same coordinates in the thermal image is H (x, y, T), By performing the process of H (x, y, V (x, y)) ← H (x, y, V (x, y)) + 1 on all the pixels in the moving object image, each pixel in the image is obtained. A frequency distribution can be created for each temperature.

【0043】以上の熱画像の検出から度数分布の作成ま
での処理を計測されたすべての熱画像に対して行うこと
により、画素ごとに度数分布が構築されていき、十分に
時間が経過すれば、その画素の温度が人間をとらえてい
ると判断できる温度範囲を反映した度数分布となる。た
だし、2次元赤外線センサ2の精度によっては、次に述
べるように度数しきい値を設け、小さな度数の温度値は
除外するようにするとよい。
By performing the processing from the detection of the thermal image to the creation of the frequency distribution for all the measured thermal images, the frequency distribution is constructed for each pixel, and if sufficient time elapses, , The frequency distribution reflects the temperature range in which the temperature of the pixel can be determined to be human. However, depending on the accuracy of the two-dimensional infrared sensor 2, a frequency threshold may be provided as described below, and a temperature value having a small frequency may be excluded.

【0044】さらに、画像Aと度数分布と内部に持つ適
切な度数しきい値kから人間を切り出す温度範囲を切り
出し温度決定手段53により決定する。そして、人間検
出手段42で、画像A中の座標(x,y)にある画素の
温度値をT1(x,y)、その画素についての度数分布
をH(x,y,T)、度数しきい値をk、画素毎の温度
切り出し範囲を示す温度切り出し温度決定手段53によ
り、同一座標にある画素の温度値をM1(x,y)とす
るとき、 H(x,y,T1(x,y))<kならば M1(x,y)=TN H(x,y,T1(x,y))≧kならば M1(x,y)=T1(x,y) という処理を画像Aの全画素に対して行うことにより、
画像Aから人間画素ブロックを抽出することができる。
また、画像Bと度数分布と度数しきい値から切り出し温
度決定手段53と人間検出手段42により、画像Bから
人間を表す画素だけを抽出することで、人間画素ブロッ
クが作成される。この処理は、画像Aから人間画素ブロ
ックを抽出する場合と同様に人間領域の抽出が行われ
る。
Further, a temperature range from which a human is cut out is determined by the cut-out temperature determining means 53 from the image A, the frequency distribution, and an appropriate frequency threshold value k contained therein. Then, the human detection means 42 calculates the temperature value of the pixel at the coordinates (x, y) in the image A as T1 (x, y) and the frequency distribution of the pixel as H (x, y, T). When the threshold value is k and the temperature value of pixels at the same coordinates is M1 (x, y) by the temperature cutout temperature determining means 53 indicating the temperature cutout range for each pixel, H (x, y, T1 (x, y)) <k M1 (x, y) = TNH (x, y, T1 (x, y)) ≧ k If M1 (x, y) = T1 (x, y) By performing for all pixels of
A human pixel block can be extracted from the image A.
In addition, a human pixel block is created by extracting only pixels representing a human from the image B by using the temperature determination unit 53 and the human detection unit 42 that are cut out from the image B, the frequency distribution, and the frequency threshold. In this process, a human region is extracted in the same manner as when a human pixel block is extracted from the image A.

【0045】また、度数しきい値k以上の度数を持つ温
度値の中で、最低値と最高値を選び、画素の温度が最低
値と最高値の間であるならば、画素が人間をとらえてい
ると判断する方法も考えられる。この方法は、装置が動
作開始直後であり、度数分布が画素の温度が人間をとら
えていると判断できる温度範囲を十分には反映していな
いような場合に有効である。以上の本実施例の構成する
と、センサの各検出素子間のばらつきが大きい場合や画
像にノイズが上乗された場合でも、画素ごとに人間をと
らえていると判断できる温度範囲を人間が設定するする
必要がなく、人間領域検出部が装置が使用されるにつれ
て、自動的に人間をとらえていると判断できる温度範囲
を画素ごとに設定することができる。
Further, the minimum value and the maximum value are selected from the temperature values having the frequency equal to or higher than the frequency threshold value k. There is also a method of judging that there is. This method is effective when the apparatus has just started operation and the frequency distribution does not sufficiently reflect the temperature range in which it can be determined that the temperature of the pixel captures a person. With the configuration of the present embodiment described above, even when the variation between the detection elements of the sensor is large or when noise is added to the image, the human sets the temperature range in which it can be determined that the human is captured for each pixel. The temperature range in which the human region detection unit can automatically determine that a person is captured can be set for each pixel as the device is used.

【0046】なお、本実施例では、連続した画像を2つ
としたが、3つ以上の熱画像を用いる場合でも同様な処
理が行うことができ、差分画像がより多く得られるの
で、度数分布の構築が速くなるという利点がある。
In this embodiment, two continuous images are used. However, even when three or more thermal images are used, the same processing can be performed, and more difference images can be obtained. It has the advantage of faster construction.

【0047】また、実施例では、2次元に配列された度
数分布を使用したが、例えば、垂直方向に1次元的に検
出素子が配列された検出手段を水平方向に機械的に走査
することで、結果として2次元の熱画像検出手段とする
ような場合には、度数分布を画素ごとに作成する必要は
なく、画像の行ごとに作成すれば良いので、度数分布記
憶手段の記憶容量を少なくすることができ、度数分布か
ら得られる行ごとに共通な温度範囲により熱画像からの
人間の領域の抽出が行われる。水平方向に1次元的に検
出素子が配列された検出手段を垂直方向に機械的に走査
する場合についても同様で、熱画像の列ごとに度数分布
が作成され、度数分布から得られる列ごとに共通な温度
範囲により熱画像からの人間の領域の抽出が行われる。
さらに、単一の検出素子を機械的に水平方向と垂直方向
に走査することで、結果として2次元の熱画像検出手段
とするような場合には、度数分布を画素ごとに作成する
必要はなく、度数分布が1つでよいことはいうまでもな
く、度数分布から得られる全画素に共通な温度範囲によ
り熱画像からの人間の領域の抽出が行われる。
In the embodiment, the frequency distribution arranged two-dimensionally is used. However, for example, the detection means in which the detection elements are arranged one-dimensionally in the vertical direction is mechanically scanned in the horizontal direction. When the two-dimensional thermal image detection means is used as a result, the frequency distribution need not be created for each pixel, but may be created for each row of the image. The extraction of the human region from the thermal image is performed according to the common temperature range for each row obtained from the frequency distribution. The same applies to the case where the detection means in which the detection elements are arranged one-dimensionally in the horizontal direction is mechanically scanned in the vertical direction. The extraction of the human region from the thermal image is performed by the common temperature range.
Further, when a single detecting element is mechanically scanned in the horizontal and vertical directions, resulting in a two-dimensional thermal image detecting means, it is not necessary to create a frequency distribution for each pixel. Needless to say, only one frequency distribution is required, and a human region is extracted from a thermal image by using a temperature range common to all pixels obtained from the frequency distribution.

【0048】次に図1の個人情報抽出部14の構成につ
いて図7を参照しながら説明する。個人情報抽出部14
では人間領域検出部から得られる人間画素ブロックとそ
の代表点および、画像記憶部12に記憶されている熱画
像から、画像情報検出部において、より詳細な人間に関
する情報を推測するための特徴量を算出する。60は人
数特徴検出部、61は姿勢判定特徴量検出部、62は位
置判定特徴量検出部、63は皮膚温度判定特徴量検出
部、64は着衣量判定特徴量検出部である。
Next, the configuration of the personal information extraction unit 14 of FIG. 1 will be described with reference to FIG. Personal information extraction unit 14
In the image information detection unit, a feature amount for estimating more detailed information about a person is determined from the human pixel block obtained from the human region detection unit and its representative point, and the thermal image stored in the image storage unit 12. calculate. Reference numeral 60 denotes a number-of-persons characteristic detecting unit, 61 denotes a posture determining characteristic amount detecting unit, 62 denotes a position determining characteristic amount detecting unit, 63 denotes a skin temperature determining characteristic amount detecting unit, and 64 denotes a clothing amount determining characteristic amount detecting unit.

【0049】最初に、人数の検出方法について説明す
る。従来は、画像から画像内の人数を検出する場合に、
画像より人間らしい部分の領域を検出し、その領域の形
状から人間かどうかを判断し、その数がいくつあるかに
よって、人数の算出を行っていた。しかし、この方法で
は画像から領域の形状認識が正確に行えないと人数の良
好な検出は難しい。また人間が重なった場合も、人数算
出が難しくなる。そこで、本実施例では画素数算出手
段、ブロック形態判定手段、人間画素ブロック計数手段
により人数を求めている。
First, a method for detecting the number of people will be described. Conventionally, when detecting the number of people in the image from the image,
A human-like area is detected from the image, and whether or not the area is a human is determined based on the shape of the area, and the number of persons is calculated based on the number of humans. However, with this method, it is difficult to detect a good number of people unless the shape of the region can be accurately recognized from the image. Also, when people overlap, it becomes difficult to calculate the number of people. Therefore, in the present embodiment, the number of persons is obtained by the number-of-pixels calculating means, the block form determining means, and the human pixel block counting means.

【0050】図8に人数検出手段60の構成を示す。図
8において70は画素数算出手段、71はブロック形態
判定手段、72は人間画素ブロック計数手段である。人
間領域検出手段13により検出された室内の人間画素ブ
ロックのブロック数と各ブロックの画素数から、人間の
数を判別する。人数の判断は、検出された画素ブロック
のブロック数を用い。また、人間が重なって検出される
可能性があるので、各画素ブロックの形状を用いて人数
を判断する。この場合、形状は、図9に示した形状から
縦長、横長、正方形の形状種別に分類するものとし、
像情報検出部3のニューラルネットを用いた人数検出手
段を用いる。図9に人間が重なった場合の人数の簡単な
判別方法を示す。簡単な人数の判別方法として画素ブロ
ックの画素の個数GAとした場合に、GA < TH1 のとき
に人数は一人とし、TH1 ≦ GA <TH2のときに2人等に
分類する。判別に必要な人数Nに併せてしきい値をN個
(TH1,TH2,・・・,THN)用意する。ただし、TH1,TH2,・・・,TH
Nは正の整数である。
FIG. 8 shows the structure of the number-of-people detecting means 60. In FIG. 8, reference numeral 70 denotes a pixel number calculating unit, 71 denotes a block type determining unit, and 72 denotes a human pixel block counting unit. The number of humans is determined from the number of human pixel blocks in the room detected by the human region detection means 13 and the number of pixels in each block. The number of persons is determined using the number of detected pixel blocks. In addition, since there is a possibility that a human is detected overlapping, the number of persons is determined using the shape of each pixel block. In this case, the shape is different from the shape shown in FIG.
It is assumed that the image information is to be classified into portrait, landscape, and square shape types, and the number detection means using a neural network of the image information detection unit 3 is used. FIG. 9 shows a simple method of determining the number of persons when people overlap. Assuming that the number GA of pixels in the pixel block is a simple method of determining the number of persons, the number of persons is set to one when GA <TH1, and to two persons when TH1 ≦ GA <TH2. N thresholds (TH1, TH2,..., THN) are prepared in accordance with the number N of persons required for discrimination. However, TH1, TH2, ..., TH
N is a positive integer.

【0051】なお、この構成は、可視画像を入力する画
像入力手段でも、エッジ、線や色から人間の領域とその
領域を構成する画素数の判定により人数の判定が行え
る。
In this configuration, even in the image input means for inputting a visible image, the number of persons can be determined by judging the human area and the number of pixels constituting the area from the edges, lines and colors.

【0052】次に、上記の画素ブロックからの人数判定
では、しきい値の決定は画像の入力装置、その設置位
置、画質および画像の解像度等により調整が必要であ
る。そこで、この様な調整を簡単にするために、ニュー
ラルネットワーク等の学習機能を利用する方法がある。
図10にニューラルネットワークの実施例を示す。73
は人数推定用のニューラルネットワークである。ニュー
ラルネットワーク73は、人数特徴検出部60から得ら
れる人間画素ブロックの画素数と代表点と形状種別を入
力として、出力に人数が算出されるようにする。ニュー
ラルネットワーク73は、各種の工学モデルが適用でき
る。例えば、多層型のパーセプトロンを用いた場合は、
学習の方法としてバックプロパゲーション(誤差逆伝般
法)が有名である。この学習は、ニュールネットワーク
に入力情報とその時の望ましい出力情報を与えて、内部
の状態を調整する。上記の場合であると、特徴信号2、
3と人間画素ブロック代表点とその時の室内の人数をニ
ューラルネットワークに与えて学習する。この構成は、
学習により内部の状態を調整するためにしきい値の経験
的に決める作業を少なくできる。また、ニューラルネッ
トワークの代替として、回帰分析等の統計処理にも置き
換えることもできる。
Next, in the above-described determination of the number of persons from the pixel block, the determination of the threshold value requires adjustment depending on the image input device, its installation position, image quality, image resolution, and the like. Therefore, in order to simplify such a regulation, there is a method to take advantage of the learning function, such as a neural network.
FIG. 10 shows an embodiment of the neural network. 73
Is a neural network for estimating the number of people. The neural network 73 receives the number of pixels of the human pixel block, the representative point, and the shape type obtained from the number-of-persons characteristic detection unit 60 as inputs, and calculates the number of people in the output. Various engineering models can be applied to the neural network 73. For example, when using a multilayer perceptron,
As a method of learning, back propagation (inverse error propagation method) is famous. In this learning, input information and desired output information at that time are supplied to the neural network, and the internal state is adjusted. In the above case, the feature signal 2,
3 and the human pixel block representative point and the number of persons in the room at that time are given to the neural network for learning. This configuration,
The work of empirically determining the threshold value for adjusting the internal state by learning can be reduced. Further, as an alternative to the neural network, a statistical process such as a regression analysis can be used.

【0053】次に、足元位置の検出方法について説明す
る。図11は足元位置を検出するための第1の実施例に
おける構成を示す図である。図11において、90は列
データを抽出する列データ抽出手段、91は足元位置を
検出する足元位置推測手段により構成される。足元位置
推測手段91は、アルゴリズムによる方法、回帰分析等
の統計手法およびニューラルネットワークによる方法等
がある。本実施例では、ニューラルネットワークによる
方法を示す。
Next, a method of detecting a foot position will be described. FIG. 11 is a diagram showing a configuration in the first embodiment for detecting a foot position. In FIG. 11, reference numeral 90 denotes a column data extracting unit for extracting column data, and 91 denotes a foot position estimating unit for detecting a foot position. The foot position estimating means 91 includes an algorithm method, a statistical method such as regression analysis, a neural network method, and the like. In this embodiment, a method using a neural network will be described.

【0054】人間領域検出部13で検出された人間画素
ブロック、画素ブロックの代表点座標および熱画像上の
上記人間画素ブロックの周辺画素値が、位置判定特徴量
検出部62に入力される。最初に人間画素ブロックは、
列データ抽出手段90に入力される。列データ抽出手段
90では、人間領域の最下端の画素を含む縦1列のデー
タを、足元位置推測手段91に入力する。最下端の画素
が複数ある場合は、画素値が最も高い画素を含む列を抽
出する方法や、中央や左右の位置により抽出する方法が
ある。熱画像の解像度が縦8画素である場合には、それ
ぞれの画素の表す温度値8個が抽出される。列データ抽
出手段90で抽出された列データを元に、ニューラルネ
ットワーク使用の足元位置推測手段91で計算させるこ
とで人間の足元位置が得られる。ニューラルネットワー
ク使用の足元位置推測手段91は、あらかじめバックプ
ロパゲーション法を用いて十分な数のデータと適当な教
師信号を与えることで学習を行い、誤差が収束したとみ
なされる状態にあるものとする。なお、この足元位置推
測手段91においては、多層パーセプトロン以外にも、
LVQ等の他のニューラルネットワークのモデルを使用
することも可能である。
The human pixel block detected by the human area detecting unit 13, the coordinates of the representative point of the pixel block, and the peripheral pixel values of the human pixel block on the thermal image are input to the position determining feature detecting unit 62. First, the human pixel block
The data is input to the column data extracting means 90. In the column data extracting means 90, one vertical column of data including the lowermost pixel of the human area is input to the foot position estimating means 91. When there are a plurality of pixels at the lowermost end, there are a method of extracting a column including a pixel having the highest pixel value, and a method of extracting the column based on the center and left and right positions. If the resolution of the thermal image is eight pixels vertically, eight temperature values represented by each pixel are extracted. Based on the column data extracted by the column data extracting means 90, the foot position estimating means 91 using a neural network is used to calculate the human foot position. The foot position estimating means 91 using the neural network performs learning by providing a sufficient number of data and an appropriate teacher signal using the back propagation method in advance, and it is assumed that the error is considered to have converged. . In this step position estimating means 91, in addition to the multilayer perceptron,
It is also possible to use other neural network models such as LVQ.

【0055】図12は、立っている人間の熱画像と人体
の対応関係を示す模式図である。a〜oは、熱画像の各
画素を表し、斜線部分は人体に該当する領域を表す。こ
の場合、f,g,hは画素のほとんどが人体部分が大部
分を占めているので切り出しはうまく行われるが、iの
場合、足元の位置が画素の中心近くにあるので、上半分
は温度が高く、下半分は温度が低い。この時の画素値
は、一画素に占める人体部分の面積が小さいために人間
の部分の温度と背景の部分の温度が重なり結果的に中間
程度となり、切り出し温度範囲を下回ってしまい、実際
に切り出されるのはf,g,hの3画素だけとなる。こ
こから足元位置を推定しても、正確には求められない
が、iの値もニューラルネットワークに入力する事で、
正確な足元位置を求めることが可能となる。
FIG. 12 is a schematic diagram showing the correspondence between a standing human thermal image and a human body. a to o represent pixels of the thermal image, and hatched portions represent regions corresponding to the human body. In this case, f, g, and h are cut out well because most of the pixels are occupied mostly by the human body, but in the case of i, the upper half is the temperature because the position of the foot is near the center of the pixel. And the lower half has a lower temperature. At this time, since the area of the human body portion occupying one pixel is small, the temperature of the human portion and the temperature of the background portion overlap, and as a result, the pixel value becomes approximately intermediate, and falls below the cutout temperature range. Only three pixels, f, g, and h, are obtained. Even if the foot position is estimated from this, it cannot be accurately obtained, but by inputting the value of i to the neural network,
An accurate foot position can be obtained.

【0056】また、ニューラルネットワーク以外の方法
としてアルゴリズムによる場合は、足元位置推測手段9
1において、h,i,jの3画素の値だけを用いて、h
は人間の温度、jは背景の温度であるとき、人間が画素
iに占める割合をαとすれば、 i=α*h+(1−α)*j からαを求め、それを基にして足元位置を算出すること
もできる。
In the case of using an algorithm as a method other than the neural network, the foot position estimating means 9
1, using only the values of the three pixels h, i, and j, h
Is the temperature of the human, and j is the temperature of the background. If α is the ratio of the human to the pixel i, α is obtained from i = α * h + (1−α) * j, and based on that, The position can also be calculated.

【0057】図13は、位置判定特徴量検出部62にお
ける特徴量を説明するものである。人を含めた外界情報
110は赤外線センサ111により熱画像112として
取り組まれ、人の領域検出により、斜線の部分の人のブ
ロックが切り出される。検出された人のブロックの温度
値(画素値)の重心点を求めて、その重心点を垂直方向
に降ろした人のブロックの最下位点の画素Aの値を画素
値(A)とする。この画素を中心に垂直方向に1つ上の
画素Bの値を画素値(B)、垂直方向に1つ下の画素C
の値を画素値(C)、その隣の画素Dの値を画素値
(D)とする。また、人のブロックの背景の温度か、
は画素Cの水平方向の数画素の平均値を足元温度、人の
ブロック全体の平均温度およびセンサの内部の基準温度
を特徴量として算出する。これらの特徴量は画像情報検
出部3内部の位置推定用のニューラルネット113に入
力され、人の位置114を推定する。
FIG. 13 is a diagram for explaining the characteristic amount in the position determination characteristic amount detecting section 62. The outside world information 110 including the person is addressed as a thermal image 112 by the infrared sensor 111, and the person's block in the hatched portion is cut out by detecting the region of the person. The center of gravity of the detected person's block temperature value (pixel value) is obtained, and the value of the pixel A at the lowest point of the person's block whose center of gravity is lowered in the vertical direction is defined as the pixel value (A). The value of the pixel B one immediately above the pixel in the vertical direction is the pixel value (B), and the pixel C one immediately below the pixel in the vertical direction.
Is the pixel value (C), and the value of the adjacent pixel D is the pixel value (D). In addition, the background temperature of the human block, or the average value of several pixels in the horizontal direction of the pixel C is used as the foot temperature, the average temperature of the entire human block, and the reference temperature inside the sensor as the feature amount. calculate. These feature amounts are input to a position estimation neural network 113 inside the image information detection unit 3 to estimate a position 114 of a person.

【0058】次に、姿勢の検出方法について説明する。
姿勢検出では、検出対象となる姿勢を立位、臥位、座位
の3種類としている。図14は姿勢を検出するための第
1の実施例における構成を示す図である。図14におい
て、120は人間領域検出部13から得られる人間画素
ブロックと熱画像から人間を含む長方形ブロックを抽出
し、前記長方形ブロックの縦の大きさを検出する辺画素
数検出手段A、121は前記長方形ブロックの横の大き
さを検出する辺画素数検出手段B、122は長方形ブロ
ックを3×3の大きさのブロックに標準化する変換手
段、123は姿勢推測手段である。姿勢推測手段123
は、統計処理やニューラルネットワークを用いる方法等
の各種の方法があるが、本実施例では、バックプロパゲ
ーション法によってあらかじめ学習済みの多層パーセプ
トロンを用いた。
Next, a method of detecting a posture will be described.
In the posture detection, three types of postures to be detected are provided: standing, lying, and sitting. FIG. 14 is a diagram showing a configuration in the first embodiment for detecting a posture. In FIG. 14 , reference numeral 120 denotes a human pixel block obtained from the human region detection unit 13 and a rectangular block including a human from the thermal image, and side pixel number detecting means A and 121 for detecting the vertical size of the rectangular block. Side pixel number detecting means B 122 for detecting the horizontal size of the rectangular block is a converting means for standardizing the rectangular block into a block of 3 × 3, and 123 is a posture estimating means. Posture estimating means 123
There are various methods such as statistical processing and a method using a neural network. In this embodiment, a multilayer perceptron that has been learned in advance by a back propagation method is used.

【0059】人間領域検出部13で検出された人間画素
ブロックは、120と121の辺画素検出手段A,Bに
おいて、人間画素ブロックと熱画像から、周辺を含む長
方形ブロックを抽出し、その縦と横の画素数を検出しそ
れぞれ縦辺画素数、横辺画素数を出力する。変換手段1
22においては、様々な大きさの人間画素ブロックを3
×3画素のブロックに相当する信号に標準化し、定型画
素信号として出力する。前記、縦辺画素数、横辺画素
数、定型画素信号、また必要に応じて足元位置検出手段
17から得られた足元位置情報を入力とし、ニューラル
ネットワーク使用の姿勢推測手段123で計算させるこ
とで人間の姿勢が得られる。ニューラルネットワーク使
用の姿勢推測手段123は、あらかじめバックプロパゲ
ーション法を用いて、様々な位置で異なる姿勢をとった
十分な数のデータと適当な教師信号を与えることで学習
を行い、誤差が収束したとみなされる状態にあるものと
する。なお、この姿勢推測手段123においては、多層
パーセプトロン以外にも、LVQ等の他のニューラルネ
ットワークのモデルを使用することが可能である。
The human pixel block detected by the human area detection unit 13 is extracted from the human pixel block and the thermal image by the side pixel detection means A and B of 120 and 121, and a rectangular block including the periphery is extracted. The number of horizontal pixels is detected, and the number of vertical pixels and the number of horizontal pixels are output. Conversion means 1
At 22, the human pixel blocks of various sizes are
The signal is standardized to a signal corresponding to a block of × 3 pixels and output as a fixed pixel signal. The number of vertical pixels, the number of horizontal pixels, the standard pixel signal, and the foot position information obtained from the foot position detecting means 17 as required are input, and the posture estimating means 123 using a neural network calculates the position information. Human posture is obtained. The posture estimating means 123 using the neural network performs learning by giving a sufficient number of data having different postures at various positions and appropriate teacher signals by using a back propagation method in advance, and the error converges. It is assumed that it is in a state considered to be. In the posture estimating means 123, other neural network models such as LVQ can be used in addition to the multilayer perceptron.

【0060】図15に、姿勢を検出する際の処理例を示
す。130は計測された熱画像、131は人間領域検出
部13から得られる人間画素ブロックである。この人間
画素ブロックを熱画像を用い辺画素検出手段A120お
よび辺画素検出手段B121を用い縦横の長さを検出
し、長方形ブロック132に改める。長方形ブロック1
32は、人の位置により人間領域の大きさが一定しない
ため、様々な大きさとなることが考えられる。これをニ
ューロンの数が固定されている多層パーセプトロンにそ
のまま入力することはできないので、何らかの方法でデ
ータの標準化を行わなければならない。ここでは122
の変換手段において、面積比を用いて3×3の9画素の
データに標準化する場合について説明する。図16に、
4×5の長方形ブロックを標準化する手順を示す。4×
5の20画素それぞれの値をa〜tとし、標準化された
3×3の9画素それぞれの値をA〜Iとすれば、面積比
を用いて標準化して、例えばAの値は A={0.25*0.2*a+0.25*(0.33-0.2)*e+(0.33-0.25)*0.2*b
+(0.33-0.25)*(0.33-0.2)*f}/(0.33*0.33) となる。同様にしてB〜Iも求めることができる。
FIG. 15 shows an example of processing for detecting a posture. 130 is a measured thermal image, and 131 is a human pixel block obtained from the human area detection unit 13. The human pixel block is converted into a rectangular block 132 by detecting the length and width of the human pixel block using the side image detecting means A120 and the side pixel detecting means B121 using the thermal image. Rectangular block 1
Since the size of the human area varies depending on the position of the person, the size of the area 32 may be various. Since this cannot be directly input to a multi-layer perceptron having a fixed number of neurons, the data must be standardized by some method. Here, 122
A case where the conversion means standardizes data of 9 pixels of 3 × 3 using the area ratio will be described. In FIG.
The procedure for standardizing a 4 × 5 rectangular block is shown. 4x
If the values of each of the 20 pixels of 5 are a to t and the values of each of the standardized 3 × 3 9 pixels are A to I, the values of A are standardized using the area ratio. 0.25 * 0.2 * a + 0.25 * (0.33-0.2) * e + (0.33-0.25) * 0.2 * b
+ (0.33-0.25) * (0.33-0.2) * f} / (0.33 * 0.33). Similarly, B to I can be obtained.

【0061】そのほかに補助的なデータとして、足元位
置情報、縦横の画素数とともにあらかじめバックプロパ
ゲーション法によって学習済みの、12入力4出力の多
層パーセプトロンに入力することによって、室内の人間
の姿勢が得られる。
In addition, as auxiliary data, together with the foot position information and the number of pixels in the vertical and horizontal directions, a 12-input, 4-output multi-layer perceptron, which has been learned in advance by the back propagation method, is used to obtain the posture of a human in the room. Can be

【0062】また、ニューラルネットで学習させる際、
学習データに2次元赤外線センサからの人体の向きを変
えたデータを加えることで各姿勢における向きを含めた
出力を行うことも可能である。さらに対象となる姿勢に
ついては、向きを考慮したもの、姿勢の種類を細分化し
たものを扱うことも可能である。
When learning with a neural network,
By adding the data obtained by changing the direction of the human body from the two-dimensional infrared sensor to the learning data, it is possible to output including the direction in each posture. Further, as the target posture, it is possible to handle a posture in which the orientation is taken into consideration and a posture in which the type of the posture is subdivided.

【0063】次に、姿勢判定特徴量検出部61の特徴量
について図17に基づいて説明する。図17は熱画像か
ら姿勢判定までの本発明の流れを示したものである。図
17において熱画像140内の人の領域を斜線で示す。
前述した人の領域が検出されると、その領域を内挿する
正方形(太い実線部)内の画素領域を切り出し、特徴抽
出部141で3x3の9個の姿勢判定のための領域判定
を行う。9個(3x3)の特徴量の算出方法は各種の方
法があるが、例えば図17で示すように熱画像の正方形
が2x2とすると、各画素がG(1)、G(2)、G(3)、G
(4)とすると、9 個の特徴量、F(1)、F(2)、・・・、F(9) F(1) = G(1) F(2) = (G(1)+G(2))/2 F(3) = G(2) F(4) = (G(1)+G(3))/2 F(5) = (G(1)+G(2)+G(3)+G(4))/4 ・ ・ F(9) = G(4) となる。また、その他の特徴量としては人のブロックの
重心点また重心点から垂直方向に降ろし人のブロッ
クの最下位点の画素の熱画像内の位置と人のブロックの
ブロック数、人のブロックの平均温度等を算出する。こ
れらの特徴量を画像情報検出部3内のニューラルネット
143に入力して姿勢を判別結果の姿勢を示す値144
を出力する。なお、図17におけるニューラルネットワ
ークの出力145、146は後述する位置判定用に選別
信号もしくは補正信号として用いる。
Next, the characteristic amount of the posture determination characteristic amount detecting section 61 will be described with reference to FIG. FIG. 17 shows the flow of the present invention from the thermal image to the posture determination. In FIG. 17, the area of a person in the thermal image 140 is indicated by oblique lines.
When the above-described human region is detected, a pixel region within a square (thick solid line portion) that interpolates the region is cut out, and the feature extraction unit 141 performs region determination for nine 3 × 3 posture determinations. There are various methods for calculating nine (3 × 3) feature amounts. For example, assuming that the square of the thermal image is 2 × 2 as shown in FIG. 17, each pixel has G (1), G (2), G ( 3), G
Assuming (4), nine feature values, F (1), F (2),..., F (9) F (1) = G (1) F (2) = (G (1) + G (2)) / 2 F (3) = G (2) F (4) = (G (1) + G (3)) / 2 F (5) = (G (1) + G (2) + G (3) + G (4)) / 4 F (9) = G (4). Also, other blocks of position and human blocks in human block center of gravity or thermal image of the pixels of the lowest point of the human blocks down in the vertical direction from the center of gravity of a characteristic quantity, the human block Calculate the average temperature and so on. These feature amounts are input to a neural network 143 in the image information detecting unit 3 to determine a posture.
Is output. The outputs 145 and 146 of the neural network in FIG. 17 are used as a selection signal or a correction signal for position determination described later.

【0064】次に図18に基づいて画像情報検出部3の
別の構成の説明を行う。画像情報検出部3内部には、姿
勢検出手段18と姿勢毎の位置判定部を持つ足元位置検
出手段17の構成を有するものとする。位置判別部は姿
勢分類しない場合は1つの構成でも可能であるし、臥位
やその他の姿勢分類、例えば座位を椅子座位と平座位等
に細かく分類する場合は姿勢の分類だけ増やすことがで
きる。本発明の実施例では図18の構成に基づいて処理
の流れを示す。
Next, another configuration of the image information detecting section 3 will be described with reference to FIG. It is assumed that the image information detecting unit 3 has a configuration of a foot position detecting unit 17 having a posture detecting unit 18 and a position determining unit for each posture. The position discriminating unit can be configured by one configuration when the posture classification is not performed, and when the posture is classified into a sitting position or a flat sitting position, for example, when the sitting position is finely classified into a chair sitting position and a flat sitting position, the number of posture classifications can be increased. In the embodiment of the present invention, the flow of processing will be described based on the configuration of FIG.

【0065】画像処理部3で算出した姿勢判定用の個人
特徴量A150は図17に示したように姿勢判定部とし
て構成したニューラルネットに入力され、姿勢信号14
4を出力する。姿勢判定部のニューラルネットは実際に
人を熱画像の走査エリアのできるだけ着衣や体型の異な
る多数の人を、多数位置で特徴量データを検出し、その
時の姿勢を教師信号にしてニューラルネットに学習を行
う。学習方法はニューラルネットの種類により異なる
が、例えば良く知られたものとしてバックプロパゲーシ
ョンと呼ばれる出力と正解との2乗誤差を少なくするよ
うに内部状態を調整する最急降下法を用いた学習があ
る。姿勢判定部からの信号152と信号153について
は、位置判定部の説明の後に全体の流れのなかで説明す
る。位置判定部161、162は、161が座位用で、
162が立位用である。各々の推定部は図13に示した
ようにニューラルネットで構成されており、推定した人
の位置154、155を出力する。各々の位置判定部の
ニューラルネットは実際に人を熱画像の走査エリアので
きるだけ着衣や体型が異なる多数の人を、多数位置で特
徴量データを検出し、その時のセンサからの位置を教師
信号にしてニューラルネットに学習を行う。学習方法は
姿勢判定部でも説明したようにニューラルネットの種類
により異なるが、例えば良く知られたものとしてバック
プロパゲーションと呼ばれる出力と正解との2乗誤差を
少なくするように内部状態を調整する最急降下法を用い
た学習がある。位置判定用の個人特徴量B151は位置
判定部161、162に入力され、位置判定結果15
4、155を出力する。この2つの出力を選択または加
工して出力する必要があるが、大きく分けて154、1
55の選別する方法は以下の2つがある。 (1)姿勢判定部の出力結果144に基づいて154か
叉は155を選択する。 (2)姿勢判定部の出力値152、153と154、1
55を加工して出力する。(1)の方法は、一般的には
IF-THENルールに基づいて行うものが多い。つま
り IF 出力144が座位 THEN 154を出力 IF 出力144が立位 THEN 155を出力 という形が最も簡単な方法である。しかし、(1)の方
法は姿勢が曖昧な値(座位か立位かの判断がつかない場
合)がでた場合でも強制的にどちらかの選択をせざる得
ない。
The individual for posture determination calculated by the image processing unit 3
Feature amount A 0.99 is input to the neural network configured as a posture determining unit as shown in FIG. 17, attitude signal 14
4 is output. The neural network of the posture judging unit detects the feature data of many people with different clothes and body shapes as much as possible in the scanning area of the thermal image at many positions, and learns the posture at that time as a teacher signal to the neural network. I do. The learning method differs depending on the type of the neural network. For example, a well-known method is backpropagation, which uses a steepest descent method that adjusts the internal state so as to reduce the square error between the output and the correct answer. . The signals 152 and 153 from the attitude determination unit will be described in the overall flow after the description of the position determination unit. In the position determination units 161 and 162, 161 is for a sitting position,
162 is for standing. Each estimating unit is formed of a neural network as shown in FIG. 13, and outputs the estimated positions 154 and 155 of the person. The neural network of each position judging unit actually detects a person with as many different clothing and body types as possible in the scanning area of the thermal image, detects feature data at many positions, and uses the position from the sensor at that time as a teacher signal. To learn by neural network. Although the learning method differs depending on the type of the neural network as described in the posture determination unit, for example, it is well known that the internal state is adjusted so as to reduce the square error between the output and the correct answer called back propagation. There is learning using the descent method. The personal characteristic amount B 151 for position determination is input to the position determination units 161 and 162, and the position determination result 15
4, 155 are output. It is necessary to select or process these two outputs and output them.
There are the following two methods for selecting 55 items. (1) 154 or 155 is selected based on the output result 144 of the attitude determination unit. (2) Output values 152, 153 and 154, 1 of the attitude determination unit
55 is processed and output. In many cases, the method (1) is generally performed based on the IF-THEN rule. In other words, the simplest method is that the IF output 144 outputs the sitting position THEN 154 and the IF output 144 outputs the standing position THEN 155. However, in the method (1), even when the posture has an ambiguous value (when it is not possible to determine whether the person is sitting or standing), the user is forced to select one of them.

【0066】そこで、図18に示すように姿勢判定部か
らX154、X155を加工するための出力D152、
D153を出力し、以下の加工を行って画像情報検出部
の位置推定値を出力する。
[0066] Therefore, whether the posture determination unit as shown in FIG. 18
Output D152 for processing X154 and X155,
D153 is output, and the following processing is performed to output the position estimation value Y of the image information detection unit.

【0067】 Y = D152 × X153 + D153 × X154 この利点は、X152、X153は姿勢判別結果は明確
な場合は、10を出力するが、曖昧な場合は、0〜1
までの曖昧度に応じた値を出力するために、位置推定値
163より正確な位置を推定することができる。なお、
姿勢判定部160の出力152、153の調整は、ニュ
ーラルネットの学習として位置判定部の161、162
の座位と立位別の学習が済んだ後に、座位と立位に分け
学習データを合わせて学習することにより実施するこ
とができる。これらの学習方法は、構造化ニューラルネ
ットの学習法として、前述したバックプロパゲーション
を用いる等の方法である。なお、個人情報抽出部14は
本発明では画像処理部2で入れたが、後段の画像情報検
出部3に組み入れることも当然可能である。
Y = D152 × X153 + D153 × X154 The advantage is that X152 and X153 output 1 or 0 when the posture discrimination result is clear, but 0 to 1 when ambiguous.
In order to output a value corresponding to the ambiguity up, it is possible to estimate the position estimate 16 3 good Ri exact position. In addition,
The adjustment of the outputs 152 and 153 of the attitude determination unit 160 is performed by the position determination units 161 and 162 as learning of the neural network.
After learning by sitting and standing, you can divide into sitting and standing
It can be implemented by learning together with the learned data. These learning methods are methods for using the above-described back propagation as a learning method for the structured neural network. Although the personal information extraction unit 14 is included in the image processing unit 2 in the present invention, it is naturally possible to incorporate the personal information extraction unit 14 into the image information detection unit 3 at the subsequent stage.

【0068】次に、個人情報抽出部14の詳細な説明を
する。個人情報抽出部14では第1の実施例の人数検出
および足元位置の検出と、在室者の姿勢の検出に加えて
皮膚温度の検出と、着衣量の検出を行う。図19は第1
の実施例における個人情報抽出部14の構成図である。
Next, the personal information extracting section 14 will be described in detail. The personal information extraction unit 14 detects the number of people and the position of the feet, detects the posture of the occupant, detects the temperature of the skin, and detects the amount of clothes in the first embodiment. FIG. 19 shows the first
FIG. 5 is a configuration diagram of a personal information extraction unit 14 in the example of FIG.

【0069】次に、皮膚温度検出方法について説明す
る。皮膚温度検出手段20では、室内に居る在室者の皮
膚表面温度の検出を行う。図20は皮膚温度検出手段2
0の構成図である。以下に、皮膚温度検出手段20につ
いて説明する。360は人間領域検出部13から得られ
る人間画素ブロックと姿勢検出手段18から得られる姿
勢から人間画素ブロックを体の部位に合わせて分割する
ブロック分割手段、361はブロック分割手段360で
分割されたブロックの平均温度を算出するブロック温度
算出手段、362はブロック温度算出手段361で得ら
れた各温度を比較し、体表面が現れている皮膚温度に対
応するブロックと衣服などで覆われているブロックを分
離する温度比較手段である。
Next, a method of detecting skin temperature will be described. The skin temperature detecting means 20 detects the skin surface temperature of the occupant in the room. FIG. 20 shows the skin temperature detecting means 2
FIG. Hereinafter, the skin temperature detecting means 20 will be described. Reference numeral 360 denotes a block dividing unit that divides the human pixel block according to the body part based on the human pixel block obtained from the human region detecting unit 13 and the posture obtained from the posture detecting unit 18, and 361 denotes a block that is divided by the block dividing unit 360. The block temperature calculating means 362 for calculating the average temperature of the blocks 362 compares the respective temperatures obtained by the block temperature calculating means 361, and determines the block corresponding to the skin temperature at which the body surface appears and the block covered with clothes or the like. This is a temperature comparison means for separation.

【0070】上記のように構成された皮膚温度検出手段
20について、以下にその動作を説明する。人間領域検
出部13から得られる人間画素ブロックを姿勢の情報を
用いて人体を頭部、胸部、左腕、右腕、腰部、脚部が含
まれるように最大6つに分割する。各ブロック分割はあ
らかじめ各姿勢毎に人間画素ブロックの分割標準パター
ンを決めておき、パターン認識を行う。その際、人物の
位置により人間画素ブロックの大きさが変わるので姿勢
検出手段13の変換手段122の標準化に用いた比率を
用いてブロック分割を行う。図21(a)および図21
(b)にブロック分割の例を示す。図21(a)は立位
の在室者の人間画素ブロックである。簡単のために大き
さは標準とする。この場合、Aは頭部を含むブロック、
Bは胸部を含むブロック、Cは右腕を含むブロック、D
は左腕を含むブロック、Eは腰部を含むブロック、Fは
脚部を含むブロックである。上記6ブロックに分割する
のは、各ブロックが、露出および被覆が独立に行われる
可能性がある身体の部位に対応するからである。図21
(b)は向かって左向きに、椅子に座っている在室者の
人間画素ブロックである。この場合、右腕は隠れている
ので分割は5つである。次に、ブロック温度算出手段3
61において、分割された各ブロックの画素値の平均を
求める。体表面が露出している場合はブロック平均温度
は高くなり、衣服などで覆われている場合は低くなる。
そこで、次に温度比較手段362であらかじめ定められ
たしきい値温度とブロック平均温度の比較を行い、前記
しきい値温度より高いブロックの中で、最大の平均値を
持つブロック平均温度を出力する。つまり、顔面のよう
に体表面が露出している部分が大きい場合、ブロック平
均温度は高くなるが、背景や体の衣服に覆われている部
位が同じ画素の中に入る場合ブロック平均温度は低くな
るので、一番高い平均温度を持つブロックが露出部分の
最も大きな体の部位と判断することができる。以上のよ
うな構成で皮膚温度の検出を行う。
The operation of the skin temperature detecting means 20 configured as described above will be described below. The human pixel block obtained from the human area detection unit 13 is divided into a maximum of six human bodies using the posture information so that the human body includes the head, chest, left arm, right arm, waist, and legs. In each block division, a division standard pattern of a human pixel block is determined in advance for each posture, and pattern recognition is performed. At this time, since the size of the human pixel block changes depending on the position of the person, block division is performed using the ratio used for standardization of the conversion unit 122 of the posture detection unit 13. FIG. 21 (a) and FIG.
(B) shows an example of block division. FIG. 21A shows a human pixel block of a standing occupant. The size is standard for simplicity. In this case, A is a block including the head,
B is the block containing the chest, C is the block containing the right arm, D
Is a block including the left arm, E is a block including the waist, and F is a block including the legs. The division into six blocks is because each block corresponds to a part of the body where exposure and covering can occur independently. FIG.
(B) is a human pixel block of a occupant sitting on a chair facing left. In this case, since the right arm is hidden, there are five divisions. Next, the block temperature calculating means 3
At 61, the average of the pixel values of each divided block is determined. The average block temperature increases when the body surface is exposed, and decreases when the body surface is covered with clothing.
Therefore, the temperature comparison unit 362 compares the predetermined threshold temperature with the block average temperature, and outputs the block average temperature having the maximum average value among the blocks higher than the threshold temperature. . In other words, the average temperature of the block is high when the part where the body surface is exposed, such as the face, is high, but the average temperature of the block is low when the part covered by the background or body clothes is in the same pixel. Therefore, the block having the highest average temperature can be determined to be the body part having the largest exposed portion. The skin temperature is detected with the above configuration.

【0071】次に、着衣量の検出方法について説明す
る。着衣量検出手段19では、熱画像より抽出される人
間のclo値を検出する。図22は着衣量検出手段の構
成図である。
Next, a method of detecting the amount of clothes will be described. The clothing amount detecting means 19 detects a human clo value extracted from the thermal image. FIG. 22 is a configuration diagram of the clothing amount detection means.

【0072】図22において363は面積比較手段で
図20の皮膚温度検出手段20の構成と同様なものであ
る。ここで、検出対象としている着衣量はclo値と呼
ばれ、例えば、裸の状態で0、パンツのみの状態で0.
1、上下下着姿で0.3、半袖とズボンの夏服で0.
5、長袖と長ズボンの軽作業着で0.7、冬場の室内に
おける服装で1.0、3ピースの背広で1.5、冬場の
屋外着であるオーバーでは3.0の値が対応づけられて
いる。着衣量は、体表面の面積のどの程度が衣服などで
覆われているかと、覆われている部分がどの程度の厚さ
なのかで定まる。そこで、着衣の厚さについては、皮膚
温度検出手段20の中の温度比較手段362で、温度し
きい値を設けることにより、体表面が衣服などで覆われ
ている着衣ブロックと露出している体表面ブロックの分
離を行うことが可能なので、その温度差をとることによ
り推測する。つまり、温度差が大きい場合は厚めの着衣
量、温度差が小さい場合は薄目の着衣量と判断できる。
一方、体表面面積が衣服などでどの程度、覆われている
かについては、面積比較手段363で着衣ブロックと体
表面ブロックの2つに分離したブロックの画素数を計数
し、面積比を比較する。このことにより、裸体体表面積
に対する着衣表面積の比を、面積比から推測することが
できる。さらに面積比較手段363では、前記着衣の厚
さと裸体体表面積に対する着衣表面積の比からclo値
を対応付け、出力する。ここでは、快適度算出のために
clo値を出力したが、体表面の被覆面積比や着衣表面
温度を用いる快適度計算式を用いる場合はこれらの値を
直接出力することも可能である。さらに、着衣量検出の
ための特徴量と着衣量の関係をあらかじめニューラルネ
ットに学ばせておきニューラルネットを用いclo値を
求めることも可能である。
In FIG. 22, reference numeral 363 denotes area comparison means .
This is the same as the configuration of the skin temperature detecting means 20 of FIG. Here, the amount of clothing to be detected is called a clo value, and is, for example, 0 in a naked state and 0. in a state of only pants.
1, 0.3 in upper and lower underwear, 0 in short sleeves and summer pants.
5. The value of 0.7 for light work clothes with long sleeves and long pants, 1.0 for clothes in winter in the room, 1.5 for 3-piece suit, and 3.0 for over in outdoor clothes in winter. Have been. The amount of clothing is determined by how much of the body surface area is covered with clothes and the like and how thick the covered part is. Therefore, regarding the thickness of the clothes, the temperature comparing means 362 in the skin temperature detecting means 20 sets a temperature threshold value so that the clothes block whose body surface is covered with clothes or the like and the exposed body block are provided. Since the surface block can be separated, it is estimated by taking the temperature difference. That is, when the temperature difference is large, it can be determined that the clothing is thick, and when the temperature difference is small, it can be determined that the clothing is thin.
On the other hand, as to how much the body surface area is covered by clothes or the like, the area comparison unit 363 counts the number of pixels of the block separated into the clothing block and the body surface block, and compares the area ratio. Thus, the ratio of the clothing surface area to the naked body surface area can be estimated from the area ratio. Further, the area comparing means 363 associates the clo value with the clo value based on the ratio of the thickness of the clothing to the surface area of the clothing to the surface area of the naked body, and outputs the clo value. Here, it outputs the clo values for comfort calculation, in the case of using a comfort equation using a coating area ratio and clothes surface temperature of the body surface can also output these values directly. Furthermore, it is also possible to make a neural network learn the relationship between the feature amount and the amount of clothing for detecting the amount of clothing in advance, and to obtain the clo value using the neural network.

【0073】次に図23に、環境情報抽出部15の構成
を示す。なお環境情報抽出部15は、必ずしも本画像処
理装置の必要不可欠な構成要素ではなく、必要に応じて
付加する構成要素である。370は足元位置情報と熱画
像から足元付近の温度を検出する足元温度検出手段、3
71は熱画像から壁と床の部位毎の平均温度を算出する
室内部位温度検出手段、372は足元温度検出手段37
0により検出される足元温度と室内部位温度検出手段3
71から検出される室内の各部位の温度と、足元位置検
出手段17から出力される足元位置情報から在室者毎の
輻射温度を検出する輻射温度検出手段である。以下に、
各手段について説明する。足元温度検出手段370につ
いて述べる。本手段は、室内の人間近くの床面温度を容
易にかつ正確に検出することを目的としている。室内の
熱画像を元に、人間近くの床面温度を検出しようとした
場合、問題となるのは、どこが床面であるのかの特定が
難しいという点と、床面の温度が必ずしも一様ではない
ため、人間近くの床面の温度を抽出しなければならない
点である。本発明では、まず室内の人間を切り出し、そ
の足元位置を検出した後、その周辺の画素から人間に与
える影響が大きいと思われる床面の温度を抜き出すとい
う手法を用いる。
Next, FIG. 23 shows the configuration of the environment information extracting unit 15. The environment information extraction unit 15 is not an indispensable component of the image processing apparatus, but is a component added as necessary. 370 is a foot temperature detecting means for detecting a temperature near the foot from the foot position information and the thermal image;
Reference numeral 71 denotes an indoor part temperature detecting means for calculating an average temperature for each part of the wall and floor from the thermal image, and 372 denotes a foot temperature detecting means 37
0 and indoor part temperature detecting means 3 detected by 0
Radiation temperature detection means for detecting the radiation temperature of each occupant from the temperature of each part in the room detected from 71 and the foot position information output from the foot position detection means 17. less than,
Each means will be described. The step temperature detecting means 370 will be described. The object of the present invention is to easily and accurately detect a floor temperature near a human in a room. When trying to detect the floor temperature near a human based on the thermal image of the room, the problems are that it is difficult to identify where the floor is, and the temperature of the floor is not always uniform. The point is that the temperature of the floor near a human must be extracted because there is no human. In the present invention, a method is used in which a person in a room is first cut out, the foot position of the person is detected, and then the temperature of the floor surface, which is considered to have a large effect on the person, is extracted from surrounding pixels.

【0074】図24は足元温度検出手段370の構成を
示す構成図である。図24において、380は人間の足
元周辺の画素を抽出する周辺画素抽出手段、381は足
元温度を検出する足元温度算出手段である。足元温度算
出手段381は、アルゴリズムにより構成する方法、統
計処理を用いる方法およびニューラルネットワークを用
いる方法がある。本実施例では、ニューラルネットワー
クを例にして示す。
FIG. 24 is a configuration diagram showing the configuration of the foot temperature detection means 370. In FIG. 24, reference numeral 380 denotes peripheral pixel extracting means for extracting pixels around the human foot, and 381 denotes a foot temperature calculating means for detecting the foot temperature. The foot temperature calculating means 381 includes a method using an algorithm, a method using statistical processing, and a method using a neural network. In this embodiment, a neural network will be described as an example.

【0075】最初に、室内の人間画素ブロックと画素ブ
ロックの代表点を示す信号(足元位置情報)および熱画
像は、周辺画素抽出手段380に入力される。周辺画素
抽出手段380では、熱画像より、人間足元領域に最も
近いと思われる画素4点の値を抽出し、周辺画素信号と
する。周辺画素信号と足元位置情報等の人間の足元周辺
に関する情報を、多層パーセプトロンである足元温度算
出手段381に入力する。ニューラルネットワーク使用
の足元温度算出手段381は、入力情報と入力情報に対
する教師情報はその位置で実際に計測した輻射温度とし
て、あらかじめバックプロパゲーション法を用いて十分
な数のデータと適当な教師信号を与えることで学習を行
い、誤差が収束したとみなされる状態にあるものとす
る。なお、この足元温度算出手段381においては、多
層パーセプトロン以外にも、LVQ等のニューラルネッ
トワークのモデルを使用することが可能である。このよ
うにして足元温度検出手段370において、周辺画素信
号を元に処理され、室内の人間の足元の床面温度が得ら
れる。
First, a signal (foot position information) indicating a human pixel block in the room and a representative point of the pixel block and a thermal image are input to the peripheral pixel extracting means 380. The peripheral pixel extracting unit 380 extracts, from the thermal image, values of four pixels that are considered to be closest to the human foot region, and sets them as peripheral pixel signals. Information about the periphery of the human foot, such as the peripheral pixel signal and the foot position information, is input to the foot temperature calculating means 381 which is a multilayer perceptron. The foot temperature calculating means 381 using the neural network calculates the input information and the teacher information corresponding to the input information as a radiation temperature actually measured at the position, and in advance a sufficient number of data and an appropriate teacher signal using the back propagation method in advance. It is assumed that learning is performed by giving the error and that the error is considered to have converged . In this step temperature calculating means 381, a neural network model such as LVQ can be used other than the multilayer perceptron. In this way, the foot temperature detecting means 370 performs processing on the basis of the peripheral pixel signal, and obtains the floor temperature at the foot of a person in the room.

【0076】図25は足元温度検出手段370における
処理例を示す。390は画像記憶部12に取り込まれた
熱画像データである。391は、人間領域検出部13か
ら得られる人間画素ブロックである。次に人間画素ブロ
ック391を元に周辺画素抽出手段380により人間の
足元位置に対応する画素を検出し、人間の足元周辺の画
素を抽出するわけだが、今回は足元周辺画素を4画素と
した。これは、検出された足元位置を基準として、その
で人間領域外の2画素ずつが基本である。ただし、
人間領域が熱画像データの端に位置していたり、近接し
て他の人間領域があったりすると有効な画素が得られな
い。その場合は少ない画素から足元温度を検出してもよ
いが、足元温度検出装置に多層パーセプトロンを使用す
る場合は入力データの数が揃っている事が望ましいの
で、その周辺の画素の394に示すように、足元位置に
該当する画素を中心として優先順位リストを作成し、優
先順位の高いものから順に4画素を抽出するという手法
を用いた。このようにして抽出された4画素の値と足元
位置情報等が周辺画素信号になる。
FIG. 25 shows an example of processing in the foot temperature detecting means 370. 390 is thermal image data taken into the image storage unit 12. Reference numeral 391 denotes a human pixel block obtained from the human area detection unit 13. Next, based on the human pixel block 391, the peripheral pixel extracting means 380 detects a pixel corresponding to the position of the foot of the human and extracts pixels around the foot of the human. This, based on the detected foot position, the <br/> by 2 pixels outside the human region on both sides is the basic. However,
If the human area is located at the end of the thermal image data or if there is another human area in the vicinity, effective pixels cannot be obtained. In this case, the foot temperature may be detected from a small number of pixels. However, when a multilayer perceptron is used in the foot temperature detection device, it is desirable that the number of input data is uniform. Then, a method was used in which a priority list was created centering on the pixel corresponding to the foot position, and four pixels were extracted in descending order of priority. The values of the four pixels extracted in this way, the foot position information, and the like become peripheral pixel signals.

【0077】ニューラルネットワークを用いた足元温度
検出手段381の代わりに、周辺画素抽出手段380か
ら得られた4画素の値を平均して足元温度とする足元温
度検出手段を用いる方法もあり、より簡易な処理で実現
できる。
Instead of the foot temperature detecting means 381 using the neural network, there is a method using a foot temperature detecting means for averaging the values of the four pixels obtained from the peripheral pixel extracting means 380 to obtain the foot temperature. Can be realized by simple processing.

【0078】次に、室内部位温度検出手段371につい
て説明する。壁上の2次元赤外線センサ11の取付位置
が中央、右、左のいずれかであるか、および室内の広さ
に関する情報が得られれば、熱画像上のどの位置に壁と
床の境界が現れるかがあらかじめ算出できる。そこで、
室内部位温度検出手段371では、これらの室内の広さ
およびエアコンの取付位置に関する情報を空気調和機に
スイッチを付けることにより得、これらの情報を基に壁
や床の境界線の画素を算出し、各境界線画素により囲ま
れる領域をそれぞれ3方面の壁と床とする。さらに、各
領域毎に平均温度を算出し、室内の各部位毎の平均温度
を算出する。ここで、発熱物体や隣室条件、日射などの
影響により、同一の床や壁でも部分的に温度が異なるこ
とがあるので、各部位を複数のブロックに分割して扱っ
てもよい。図26(a)は、空気調和機が8畳の正方形
の室内の一壁面に中央設置した場合の、壁及び床の熱画
像の見え方の例である。ここでは、床面を6分割してい
る。390は左壁、391は奥壁、392は右壁、39
3から398は6つに分割された床面ブロックである。
図26(b)は左設置の場合の壁及び床の熱画像の見え
方の例である。400は左壁、401は奥壁、402は
右壁、403から408は6つに分割された床面ブロッ
クである。このように、部屋の広さと空気調和機の設置
位置に関する情報を得ることにより、熱画像上のどの位
置に室内の各部位が現れるかをあらかじめ知ることがで
きる。
Next, the room temperature detecting means 371 will be described. If information on the mounting position of the two-dimensional infrared sensor 11 on the wall is at the center, right, or left and the size of the room, the boundary between the wall and the floor appears at which position on the thermal image. Can be calculated in advance. Therefore,
The indoor part temperature detecting means 371 obtains information on the size of the room and the mounting position of the air conditioner by switching on the air conditioner, and calculates a pixel of a boundary line of a wall or a floor based on the information. The area surrounded by each boundary pixel is defined as a wall and a floor in three directions. Further, an average temperature is calculated for each region, and an average temperature is calculated for each part in the room. Here, since the temperature may be partially different even on the same floor or wall due to the influence of a heat-generating object, adjacent room conditions, solar radiation, etc., each part may be divided into a plurality of blocks. FIG. 26A is an example of the appearance of thermal images of walls and floors when the air conditioner is installed centrally on one wall surface of an 8-tatami square room. Here, the floor is divided into six. 390 is the left wall, 391 is the back wall, 392 is the right wall, 39
3 to 398 are floor blocks divided into six.
FIG. 26B is an example of how a thermal image of a wall and a floor is viewed in the case of the left installation. 400 is a left wall, 401 is a back wall, 402 is a right wall, and 403 to 408 are floor blocks divided into six. In this way, by obtaining information on the size of the room and the installation position of the air conditioner, it is possible to know in advance where the respective parts in the room appear on the thermal image.

【0079】次に、輻射温度検出手段372について説
明する。前記3方面の壁と床の各部位からの温度および
足元付近の温度から個人毎の輻射温度を算出する。従
来、輻射を考慮した機器として、床面上の離れた複数領
域の温度を計測し、より冷えた方の床面領域を優先的に
暖める空調機があるが、しかしながら、輻射温度を機器
制御指標の一部に用いる場合、床だけでは不十分で、室
外が寒い日など壁や窓からの輻射が大きい場合も多い。
また、床や壁は異なった物性値を持った材質や壁体構成
をしており、さらに人体に対する輻射の方向が床と各壁
面では異なるので、壁や床など各部位からの影響を分け
て考慮する方が輻射の算出については正確である。図2
7に輻射温度検出手段372の構成を示す。410は、
室内部位温度検出手段371で得られた室内の各部位の
画素ブロックの平均温度を算出する平均温度算出手段、
411は足元温度検出手段370から得られる足元温度
と平均温度算出手段410から得られる各部位毎の平均
温度から、個人毎の輻射温度を算出する輻射温度算出手
段である。輻射温度算出部では在室者付近の足元温度、
床面ブロックの平均温度、および室内の3方面の壁の平
均温度に合計が1となる例えば形態係数のような係数を
掛け加えることで、在室者毎に各部位からの輻射を算出
する。床面ブロックについては、在室者の位置に応じて
分割した床面の一部を用いることも可能である。
Next, the radiation temperature detecting means 372 will be described. The radiation temperature for each individual is calculated from the temperature from each part of the wall and floor in the three directions and the temperature near the feet. Conventionally, there is an air conditioner that measures the temperature of a plurality of distant areas on the floor surface and preferentially warms the colder floor area as equipment that considers radiation. When it is used for a part of the floor, the floor alone is not enough, and the radiation from the wall or the window is often large on a cold outdoor day.
In addition, floors and walls are made of materials and walls with different physical properties, and the direction of radiation to the human body is different between the floor and each wall. Is more accurate in calculating the radiation. FIG.
FIG. 7 shows the configuration of the radiation temperature detecting means 372. 410 is
Average temperature calculating means for calculating the average temperature of the pixel block of each part in the room obtained by the indoor part temperature detecting means 371;
Reference numeral 411 denotes a radiation temperature calculation unit that calculates a radiation temperature for each individual from the foot temperature obtained from the foot temperature detection unit 370 and the average temperature of each part obtained from the average temperature calculation unit 410. The radiation temperature calculation unit calculates the foot temperature near the occupant,
Radiation from each part is calculated for each occupant by multiplying the average temperature of the floor block and the average temperature of the walls in the three directions in the room by a coefficient such as a form factor that sums up to 1, for example. As for the floor block, it is also possible to use a part of the floor divided according to the position of the occupant.

【0080】次に、環境情報抽出部304の異なる構成
について説明する。図28において420は補助暖房検
出手段、421は床暖房検出手段で、以上は第1の実施
例における前記環境情報抽出部304の構成と同様なも
のである。ここでいう、補助暖房とはストーブや石油フ
ァンヒータなどの燃焼もしくは電熱型の暖房器である。
また、床暖房とは通常の床暖房に加え電気カーペットも
含む。補助暖房検出手段420では、補助暖房が人体温
度より高温であるために、計測された熱画像に、人体よ
り高いある温度しきい値を設けることにより検出する。
Next, a different configuration of the environment information extraction unit 304 will be described. In FIG. 28, reference numeral 420 denotes an auxiliary heating detecting unit, and 421, a floor heating detecting unit. The above is the same as the configuration of the environment information extracting unit 304 in the first embodiment. Here, the auxiliary heating is a combustion or electric heating type heater such as a stove or an oil fan heater.
In addition, floor heating includes electric carpet in addition to normal floor heating. Since the auxiliary heating is higher than the temperature of the human body, the auxiliary heating detection unit 420 detects this by setting a certain temperature threshold higher than that of the human body in the measured thermal image.

【0081】また、床暖房は人体温度に近い温度をして
いるので人間領域検出部13で人間画素ブロックとして
一度は検出されるが、床暖房検出手段421で、床暖房
の場合は熱画像上、面積が人体より大きいこと、および
形態が通常四角形であることから、切り出された人間画
素ブロックの大きさと形態とに範囲を設けて、床暖房有
無の判定を行う。また、床暖房検出の際に床暖房が電源
オン時およびオフ時を除いて時間と共にあまり変化しな
いことから、所定期間、切り出された人間画素ブロック
の変化を調べることで、人間画素ブロックの変化がない
ことを条件とし検出することも可能である。このことに
より、床暖房による直接床面からの伝熱の影響や、スト
ーブの燃焼などによる高い輻射の影響による算出快適度
に対する影響を補正することができる。また、例えば床
暖房や補助暖房がある場合は、省エネルギーもかねて快
適度を低めに抑えて空気調和機を制御することが可能で
ある。次に、画像処理部2の異なる構成について説明す
る。以降構成が異なるので画像処理部430とする。図
29を参照しながら画像処理部430の説明をする。4
31は人間領域補正部、432は累積処理部、433は
室内部位判定部である。
Further, since the floor heating is at a temperature close to the human body temperature, it is detected once as a human pixel block by the human area detection unit 13. Since the area is larger than the human body and the form is usually a rectangle, the presence or absence of floor heating is determined by providing a range in the size and form of the extracted human pixel block. In addition, since the floor heating does not change much with time except when the power is turned on and off when the floor heating is detected, the change in the human pixel block is determined by examining the change in the extracted human pixel block for a predetermined period. It is also possible to detect on condition that there is no such condition. Thereby, it is possible to correct the influence of the heat transfer directly from the floor surface due to the floor heating and the influence on the calculated comfort due to the influence of the high radiation due to the combustion of the stove. In addition, for example, when there is floor heating or auxiliary heating, it is possible to control the air conditioner with a low degree of comfort while saving energy. Next, different configurations of the image processing unit 2 will be described. Hereinafter, since the configuration is different, the image processing unit 430 is used. The image processing unit 430 will be described with reference to FIG. 4
31 is a human area correction unit, 432 is an accumulation processing unit, and 433 is an indoor part determination unit.

【0082】最初に、人間領域補正部431について説
明する。前記人間領域検出部13では、温度分布を表す
画像の各画素に対して、その画素の温度値が、画素が人
間をとらえていると判断できる温度範囲に含まれていれ
ば、その画素を有効な画素として残し、そうでなければ
無効な画素として取り除くというような処理を行うこと
で人間領域画像作成した。しかし、人間の服装などの
具合で、本来は人間をとらえている画素の温度値が、人
間をとらえていると判断できる温度範囲と合わず、その
画素が無効な画素として処理されるため、本来1つの領
域となるべき人間の領域が複数の領域に分断された人間
領域画像が作成されてしまう場合が発生する。この様な
人間領域検出部13の不具合を人間領域補正部431で
は補っている。
First, the human area correcting section 431 will be described. The human region detecting unit 13 determines that each pixel of the image representing the temperature distribution is valid if the temperature value of the pixel is included in a temperature range in which the pixel can be determined to capture a human. A human area image was created by performing processing such as leaving the pixel as a normal pixel and removing it as an invalid pixel otherwise. However, due to the condition of human clothes, the temperature value of the pixel that originally captures the human does not match the temperature range in which it can be determined that the human is captured, and the pixel is processed as an invalid pixel. There is a case where a human region image in which a human region to be one region is divided into a plurality of regions is created. Such a defect of the human area detecting unit 13 is compensated by the human area correcting unit 431.

【0083】人間領域補正部431の一実施例につい
て、図面を参照しながら説明する。図30において、4
40は切り出し画素接続手段、441は孤立点検索手
段、442は周辺画素検索手段である。
An embodiment of the human area correcting section 431 will be described with reference to the drawings. In FIG. 30, 4
40 is a cut-out pixel connection means, 441 is an isolated point search means, and 442 is a peripheral pixel search means.

【0084】人間領域検出部13で検出された人間画素
ブロックは代表点と共に、切り出し画素接続手段440
に入力される。この人間画素ブロックの各画素の2次元
座標の周囲8画素に切り出された画素が存在するかどう
かの情報を生成するのが切り出し画素接続手段440で
ある。この接続情報を孤立点検索手段441に入力す
る。孤立点検索手段441は、接続情報に基づいて周囲
8画素に切り出された画素孤立した点があるかどうか
を確認し、孤立点情報を出力する。孤立点情報は、周辺
画素検索手段442に入力され、孤立点の2次元座標の
一画素離れた周囲16画素に切り出された画素が存在す
るかどうかを検索する。周囲16画素に切り出された画
素が存在する場合は、その切り出し画素と連結する。ま
た、存在しない場合は、該当孤立点を消去する処理を行
う。この結果、周辺画素検索手段442からは、修正さ
れた人間画素ブロックが出力され、その中には孤立点を
含まないことになる。ただし、画像の2次元座標上の画
素の位置によっては孤立点が存在する可能性がある場合
は、孤立点の座標により、消去および連結を行わない例
外処理を入れる。最後に再度修正された人間画素ブロッ
クを基に代表点の算出を行う。
The human pixel block detected by the human area detecting unit 13 is cut out together with the representative points together with the cut-out pixel connecting means 440.
Is input to It is the cut-out pixel connection means 440 that generates information as to whether or not the cut-out pixel exists in eight pixels around the two-dimensional coordinates of each pixel of the human pixel block. This connection information is input to the isolated point search means 441. Isolated point searching unit 441 checks if there is isolated points to a pixel which is cut out around 8 pixels on the basis of the connection information, and outputs the isolated-point information. The isolated point information is input to the peripheral pixel search means 442, and searches whether there is a pixel cut out in 16 pixels around the isolated point two-dimensionally one pixel apart. If there is a pixel cut out from the surrounding 16 pixels, it is connected to the cut out pixel. If there is no such point, a process of deleting the corresponding isolated point is performed. As a result, the corrected human pixel block is output from the peripheral pixel search means 442, and does not include an isolated point. However, if there is a possibility that an isolated point may exist depending on the position of a pixel on the two-dimensional coordinates of the image, an exception process in which erasure and connection are not performed is inserted depending on the coordinates of the isolated point. Finally, a representative point is calculated based on the corrected human pixel block.

【0085】以上の人間領域補正部431は、画像に上
乗するノイズ除去や他の暖房器具が小さな人間領域とし
て判断されたり、人間の服装などの具合で、本来は1つ
の人間領域であるはずのものが分断されたりするような
場合においても、小さな人間領域を孤立点として消去し
たり、分断された人間領域の間を補完することにより、
正しく人間領域を抽出し、その人間領域画像から人間情
報が検出することができる。
The above-described human area correction unit 431 is supposed to be a single human area, depending on the noise removal added to the image and other heating equipment is determined as a small human area, or human clothes, etc. Even when things are divided, by removing small human areas as isolated points or complementing between divided human areas,
A human region can be correctly extracted, and human information can be detected from the human region image.

【0086】次に、累積処理部432について説明す
る。累積処理部432は、画像から領域の形状認識が正
確に行えない場合、人間や室内の情報の検出は難しい
が、人間と室内の情報を人間の動きと関連付けて、その
情報を有効に利用して容易に人間と室内情報を算出す
る。
Next, the accumulation processing section 432 will be described. When it is difficult to accurately recognize the shape of the area from the image, the accumulation processing unit 432 can hardly detect information about a person or a room. easily calculating information for human and indoor Te.

【0087】図31に累積処理部の構成図を示す。図3
1において450は人間の位置の累積記憶手段A、45
1は静止物体判定手段、452は静止物体の画素位置記
憶手段、453は累積記憶手段B、454は室内代表点
判定手段を示す。
FIG. 31 shows a configuration diagram of the accumulation processing section. FIG.
1, reference numeral 450 denotes a cumulative storage means A, 45 of a human position.
Reference numeral 1 denotes a stationary object determining unit, 452 denotes a stationary object pixel position storing unit, 453 denotes a cumulative storing unit B, and 454 denotes an indoor representative point determining unit.

【0088】人間領域補正部431で得られた人間画素
ブロック代表点は、画像と同程度の解像度を持つ累積記
憶手段A450に記憶される。この累積記憶手段A45
0には枚の熱画像から検出された人間の代表点の画素
位置の回数が記憶される。枚の熱画像についての累積
記憶が完了した累積記憶手段A450からの累積位置情
報は、静止物体判定手段451により人と静止物体の区
別等が行われ、検出された静止物体の画素位置記憶手段
452に記憶される。また、累積記憶手段A450はデ
ータを加工され累積記憶手段B453に記憶される。累
積記憶手段A450には人間の居た場所には1、人間が
居ない場所には0が記憶される。累積記憶手段A450
は、累積記憶手段B453にデータを記憶すると消去さ
れ、再度累積記憶が行われる。累積記憶手段B453
、累積記憶手段A450からのデータをn回書き込ん
だ時点で、室内代表点判定手段454で後述のような処
理が実行され、消去される。累積記憶手段B453も消
去された後は、同様な処理を最初から実行される。累積
記憶手段B453のデータを処理することにより2次元
赤外線センサの室内の設置位置や室内の壁面や床面の位
置、および容積等が算出される。
The representative point of the human pixel block obtained by the human area correcting section 431 is stored in the accumulating storage means A450 having the same resolution as that of the image. This accumulation storage means A45
“0” stores the number of pixel positions of a representative point of a human detected from the K thermal images. The cumulative position information from the cumulative storage unit A450 in which the cumulative storage of the K thermal images has been completed is discriminated between a human and a stationary object by the stationary object determination unit 451, and the detected pixel position of the stationary object is stored. 452. Further, the accumulation storage means A450 processes the data and stores it in the accumulation storage means B453. In the accumulation storage means A450, 1 is stored in a place where a human is, and 0 is stored in a place where no human is. Cumulative storage means A450
Is deleted when data is stored in the accumulating storage means B453, and the accumulating storage is performed again. Cumulative storage means B453
When the data from the cumulative storage unit A450 is written n times , the indoor representative point determination unit 454 executes a process described later and is deleted. After the accumulation storage means B 453 is also deleted, the same processing is executed from the beginning. By processing the data in the accumulating storage unit B453, the installation position of the two-dimensional infrared sensor in the room, the position of the wall surface and floor surface in the room, the volume, and the like are calculated.

【0089】次に図31の静止物体判定手段451の詳
細な処理を述べる。累積記憶A450内部には、熱画像
の各画素毎に人間の位置として検出された回数が格納さ
れている。例えば、2次元の累積記憶手段A450上の
座標(X2,Y2)における結果をSx2,y2とする。この回数
Sx2,y2は、しきい値TH1(正の整数)と比較され、TH1
よりも大きな値を示すものは、静止物体として静止物体
リスト(記憶)が作成される。図32では、を120
回にした例を示しているので、TH2を100にした。以
上のように、枚熱画像の内、同じ位置の切り出された
回数が記憶されて累積記憶にMに近い値を持つ物体の位
置は、人と誤って切り出された静止物体(例えば、スト
ーブや電気カーペット等が挙げられる)であると判断す
ることができる。つまり、静止物体は動きがないため
に、その記憶された位置には値に近い数値が格納され
ているので、多少動きがある人体と区別することができ
る。
Next, the detailed processing of the stationary object determining means 451 shown in FIG. 31 will be described. The number of times of detection as a human position is stored in the cumulative storage A450 for each pixel of the thermal image. For example, the result at the coordinates (X2, Y2) on the two-dimensional accumulation storage means A450 is Sx2, y2. This number Sx2, y2 is compared with a threshold value TH1 (positive integer), and TH1
For those indicating a larger value, a still object list (memory) is created as a still object. In FIG. 32, K is 120
Since the example of turning is shown, TH2 was set to 100. As described above, of the K thermal images, the position of an object having a value close to M in the cumulative storage in which the number of cuts at the same position is stored is determined as a person and a stationary object erroneously cut out (for example, a stove). Or an electric carpet). That is, since the stationary object does not move, a numerical value close to the K value is stored in the stored position, so that it can be distinguished from a human body having a slight movement.

【0090】次に、図33に、累積記憶手段A450の
情報を累積記憶手段B453に記憶する処理を示す。累
積記憶手段1のSx2y2の値をしきい値TH2と比較して Sx2y2 > TH2 の場合、累積記憶手段B453上の座標(x2,y2)に1を
書き込み、その他の場合は何もしない。この処理をN回
繰り返すことにより、累積記憶手段B453の1の領域
を確認すると人間の移動範囲を示すことになる。しきい
値TH2との比較は誤って人と検出された処理の結果を除
去するために行っている。累積記憶手段B453の情報
は、室内代表点判定手段454で処理することにより、
例えば、図34に示すような処理が行える。以下に、室
内代表点判定手段454について説明する。累積記憶手
段B453には人間の居た位置には1、居ない場所には
0が格納されので、これを水平方向に3つに分割する。
この分割されたブロックA,B,Cの領域毎に1の累計
を求める。求められた各ブロックの累計をSA、SB、S
Cの値を次のような判断を行い、空調機器が壁面上の中
央設置なのか、左設置なのか、右設置なのかを判断す
る。
Next, FIG. 33 shows a process of storing the information of the cumulative storage means A450 in the cumulative storage means B453. The value of Sx2y2 in the accumulative storage means 1 is compared with the threshold value TH2, and if Sx2y2> TH2, 1 is written to the coordinates (x2, y2) on the accumulative storage means B453, otherwise nothing is performed. By repeating this process N times, if one area of the accumulative storage unit B453 is confirmed, it indicates the moving range of the human. The comparison with the threshold value TH2 is performed in order to remove the result of the process in which a person is erroneously detected as a person. The information in the accumulation storage means B 453 is processed by the indoor representative point determination means 454,
For example, the processing as shown in FIG. 34 can be performed. Hereinafter, the indoor representative point determination unit 454 will be described. Since 1 is stored in the accumulation storage means B 453 at a position where a person is present and 0 is stored at a position where no person is present, this is divided into three in the horizontal direction.
A total of 1 is obtained for each of the divided blocks A, B, and C. The sum of the obtained blocks is represented by SA, SB, S
The value of C is determined as follows, and it is determined whether the air conditioner is installed at the center on the wall, left, or right.

【0091】SA < TH で SC ≧ TH の場合はC側
設置とする。SC < TH で SA ≧ TH の場合はA側
設置とする。この他の場合は、中央設置とする。
When SA <TH and SC ≧ TH, the C side is set. If SC <TH and SA ≥ TH, install on the A side. In other cases, it will be installed at the center.

【0092】また、室内の床・壁面等の各部位も室内代
表点判定手段454で実行される。図35に室内の各部
位の判定の例を示す。図35において、累積記憶B45
3から得られる人間の移動範囲をA、B、C、Dで囲ま
れた範囲とする。Aの座標を(X1,Y1)、Bの座標を(X2,Y
2)、Cの座標を(X3,Y3)、Dの座標を(X4,Y4)とすると、
Aは、X1がしきい値TX以上で、Y1が最も大きな点とす
る。Bは、X2がしきい値TX未満で、Y2が最も大きな点と
する。Cは、X1がしきい値TX以上で、Y1が最も小さな点
とする。Dは、X2がしきい値TX未満で、Y2が最も小さな
点とする。これらA,B,C,Dは十分長い時間の累積
の下では、室内の人間の移動範囲である床面のの形態を
表す代表点となる。そこで、各代表点の座標を出力す
る。また、室内が四角形でない部屋についても床面形状
を代表する点を判定することができる。
Further, each part such as a floor and a wall surface in the room is also executed by the room representative point determining means 454. FIG. 35 shows an example of determination of each part in the room. In FIG. 35, the cumulative storage B45
The moving range of the human obtained from 3 is a range surrounded by A, B, C, and D. The coordinates of A are (X1, Y1) and the coordinates of B are (X2, Y
2) If the coordinates of C are (X3, Y3) and the coordinates of D are (X4, Y4),
A is a point where X1 is equal to or larger than the threshold TX and Y1 is the largest. B is a point where X2 is less than the threshold value TX and Y2 is the largest. C is a point where X1 is equal to or larger than the threshold value TX and Y1 is the smallest. D is a point where X2 is less than the threshold value TX and Y2 is the smallest. These A, B, C, and D become representative points that represent the form of the floor, which is the range of movement of the person in the room, when accumulated for a sufficiently long time. Therefore, the coordinates of each representative point are output. In addition, a point representing the floor shape can be determined for a room whose room is not square.

【0093】累積処理部432は、可視画像を入力する
画像入力手段でも、エッジ、線や色を用いて人間の位置
を検出することにより、本発明の累積記憶部432によ
り人間と室内情報を獲得することができる。
The accumulation processing section 432 detects the position of a person using edges, lines, and colors even when the image input means inputs a visible image, thereby acquiring the information of the person and the room by the accumulation storage section 432 of the present invention. can do.

【0094】次に、室内部位判定部433について説明
する。累積処理部432で得られた図35に示したごと
くA、B、C、Dのポイントが求められたら、A−B−
C−Dで囲まれた範囲を床面、A−D−D’−A’で囲
まれた範囲を左壁面、A−B−B’−A’で囲まれた範
囲を正面壁面、B−C−C’−B’で囲まれた範囲を右
壁面として判定する。各、床や壁と画素の対応関係は熱
画像の画素と同じ個数同じ形態を持った配列データ構造
を用意し、配列内に領域毎に異なった記号を代入するこ
とで、各画素がどの部位に対応するかを知ることができ
る。
Next, the indoor part determining section 433 will be described. When points A, B, C, and D are obtained as shown in FIG.
The area enclosed by CD is the floor surface, the area enclosed by ADD'-A 'is the left wall surface, the area enclosed by ABB'-A' is the front wall surface, and B- The range surrounded by CC′-B ′ is determined as the right wall surface. The correspondence between floors and walls and pixels is the same as the number of pixels in the thermal image.Preparing an array data structure with the same form and assigning different symbols to each region in the array, We can know whether we cope.

【0095】以下、本発明の第2の実施例について説明
する。図36は本発明第2の実施例の構成図である。図
36は前述した図1に使用者が各種の情報を入力するコ
ンソール部460を設けたものである。コンソール部4
60からの情報以外の処理は、図1の説明で実施したの
で省略する。コンソール部460は熱画像からのでは検
出できない情報を、使用者が入力した情報に基づいて補
正することで、図1に示した画像情報検出部における足
元位置の検出や姿勢の検出の出力値を、より正確にでき
るようになる。例として、コンソール部からの情報を以
下に示す。
Hereinafter, a second embodiment of the present invention will be described. FIG. 36 is a configuration diagram of the second embodiment of the present invention. FIG. 36 is provided with a console unit 460 for inputting various information by the user in FIG. 1 described above. Console part 4
Processing other than the information from step 60 is performed in the description of FIG. The console unit 460 corrects information that cannot be detected from the thermal image based on the information input by the user, and outputs the output values of the detection of the foot position and the detection of the posture in the image information detection unit illustrated in FIG. , Will be able to do more accurately. As an example, information from the console unit is shown below.

【0096】赤外線センサを室内が見渡せる高さに設置
し、室内の熱分布を熱画像として走査する場合に、セン
サから見た場合の室内の左右、正面の壁面の位置を熱画
像から判定することは難しい。このため、使用者がセン
サからの正面の壁面や左右の壁面の距離を入力すること
により、位置判定部からの位置判定結果が正面の壁面以
上遠い位置の推定を行った場合は正面の壁面の位置まで
に修正したり、叉は壁面上の人以外の発熱物体として処
理することができる。また、壁面単位の温度分布の識別
できるために、位置判定部で推定された人の位置におけ
る温熱環境の快適度合いを推測することができる。
When the infrared sensor is installed at a height that allows the room to be seen, and the heat distribution in the room is scanned as a thermal image, the position of the left, right, front, and front walls of the room as viewed from the sensor is determined from the thermal image. Is difficult. For this reason, when the user inputs the distance of the front wall surface or the left and right wall surfaces from the sensor, the position determination result from the position determination unit estimates the position farther than the front wall surface. It can be corrected to the position, or can be treated as a non-human heating object on the wall. In addition, since the temperature distribution for each wall surface can be identified, the degree of comfort of the thermal environment at the position of the person estimated by the position determination unit can be estimated.

【0097】以下、本発明の第3の実施例について説明
する。図37は本発明第3の実施例の構成図である。図
37は図36に可視画像のセンサ部470(カメラ)
と、可視画像処理部472と、可視画像情報検出部47
3を付加させ、画像処理装置としての機能を高めたのも
である。
Hereinafter, a third embodiment of the present invention will be described. FIG. 37 is a configuration diagram of the third embodiment of the present invention. FIG. 37 shows the sensor section 470 (camera) for the visible image in FIG.
, A visible image processing unit 472, and a visible image information detecting unit 47
3 to enhance the function as an image processing apparatus.

【0098】可視カメラを用いた画像処理装置の利用方
法として監視システムがある。従来から、監視システム
では人が可視画像を常時監視していることが行われてい
る。これは、可視画像から人の認識を行う技術の開発が
行われているが、実用化に至ったものは少ない。しか
し、可視画像から動き物体を検出技術は実用化されてい
るものが多い。これは、可視画像のS/N比が向上して
いるために時間的に連続した可視画像の差分をとること
により動き物体の検出が簡易に行えることが挙げられ
る。しかし、動きによって捉えられる物体は人以外も含
まれるために、動き物体から人を正確に捉えることは難
しい。また、動きの少ない人の検出も不可能である。こ
れに対して、赤外線画像は発熱物体としての人間を捉え
ることは非常に容易である。ただし、人以外の発熱物体
も検出されるので、この区分けは難しい。この様に、可
視画像処理の得意とする検出と赤外線画像処理の得意と
する検出を合わせて、より正確な人間または環境の情報
を検出しようとするのが図37に示した装置である。
As a method of using the image processing apparatus using the visible camera, there is a monitoring system. 2. Description of the Related Art Conventionally, in a monitoring system, a person constantly monitors a visible image. For this, a technology for recognizing a person from a visible image is being developed, but few have come to practical use. However, many techniques for detecting a moving object from a visible image have been put to practical use. This is because, since the S / N ratio of the visible image is improved, the detection of the moving object can be easily performed by taking the difference between the temporally continuous visible images. However, since an object captured by motion includes a person other than a person, it is difficult to accurately capture a person from a moving object. Also, it is impossible to detect a person with little movement. On the other hand, it is very easy for an infrared image to capture a person as a heating object. However, since a heating object other than a person is also detected, this classification is difficult. In this way, the apparatus shown in FIG. 37 is intended to detect human or environmental information more accurately by combining detection that is good at visible image processing and detection that is good at infrared image processing.

【0099】図37に基づいて処理の流れを示す。外界
4から得られた情報5の内、カメラ470で可視光を検
知して可視画像473を得る。可視画像473は、可視
画像処理部471に転送され前処理や時間的な連続画像
の差分処理等を行われる。次に可視画像情報検出部47
2において、動き情報を検出する。この情報475、4
76として、動き物体の有り無し、その数、動き物体の
位置等を画像処理部2と画像情報検出部3に伝達する。
また情報477に基づいて、画像処理部2では人の領域
検出処理における領域の数やその位置を参考に領域検出
を行う。また、可視画像情報検出部472は、動き物体
の有り無し、その数、動き物体の位置と、画像情報検出
部3で検出した人の位置との対応を取りながら、外界4
における人の情報474を検出する。
The flow of the process will be described with reference to FIG. Of the information 5 obtained from the outside world 4, visible light is detected by the camera 470 to obtain a visible image 473. The visible image 473 is transferred to the visible image processing unit 471 and subjected to preprocessing, temporal difference processing of continuous images, and the like. Next, the visible image information detecting section 47
In 2, the motion information is detected. This information 475, 4
As 76, the presence or absence of the moving object, the number thereof, the position of the moving object, and the like are transmitted to the image processing unit 2 and the image information detecting unit 3.
Further, based on the information 477, the image processing unit 2 performs area detection with reference to the number and position of the areas in the human area detection processing. Further, the visible image information detecting unit 472 associates the presence or absence of the moving object, the number thereof, the position of the moving object with the position of the person detected by the image information detecting unit 3, and outputs
Is detected.

【0100】可視画像処理部472と画像情報検出部3
の相互の情報により検出する対象の例を以下に示す。 例1:可視画像処理部471または可視画像情報検出部
472で検出された動き物体が、人であるかどうかを、
熱画像から情報を検出する画像情報検出部3で検出した
人の位置とマッチさせて判断を行う。 例2:画像情報検出部3で検出した人の位置から算出し
た可視画像の位置に、人の検知マークを示し、使用者が
可視画像上で確認し易くする。 例3:画像情報検出部3で検出した人の姿勢が座位の場
合のみ、対象者が静止者である可能性が高いので、その
人の位置を可視画像上にマークする。 例4:画像情報検知部3で検出した人の姿勢が座位の場
合、画像情報検出部3から情報476に伝え、可視画像
処理部471で処理した結果と合わせて、可視画像情報
検出部472で、人の情報474を作成する。 例5:画像情報検知部3で検出した人の位置や姿勢を情
報476に伝え、その情報476を教師信号にして、可
視画像処理部にニューラルネット等の学習機構を持つ処
理系で構成し、人の認識処理を進化させる。 例6:可視画像処理部471および可視画像情報検出部
472で検出した動き情報信号から、検出した人の位置
を情報475として伝え、その情報475を教師信号と
して、前述した画像情報検出部3内部のニューラルネッ
ト等の学習機構を持つ処理系の能力を学習、進化させ
る。
The visible image processing section 472 and the image information detecting section 3
An example of a target to be detected based on the mutual information is shown below. Example 1: Whether the moving object detected by the visible image processing unit 471 or the visible image information detecting unit 472 is a person,
The determination is made by matching the position with the position of the person detected by the image information detection unit 3 that detects information from the thermal image. Example 2: A human detection mark is shown at the position of the visible image calculated from the position of the person detected by the image information detection unit 3 so that the user can easily check the visible image. Example 3: Only when the posture of a person detected by the image information detecting unit 3 is sitting, the position of the person is marked on the visible image because the possibility that the target person is a stationary person is high. Example 4: When the posture of the person detected by the image information detection unit 3 is sitting, the image information detection unit 3 transmits the information to the information 476, and the visible image processing unit 471 processes the information. , And creates the person information 474. Example 5: The position and orientation of a person detected by the image information detecting unit 3 are transmitted to information 476, and the information 476 is used as a teacher signal, and the visible image processing unit is configured with a processing system having a learning mechanism such as a neural network, Evolve human recognition processing. Example 6: The position of the detected person is transmitted as information 475 from the motion information signal detected by the visible image processing unit 471 and the visible image information detection unit 472, and the information 475 is used as a teacher signal, inside the image information detection unit 3 described above. Learn and evolve the capabilities of processing systems with learning mechanisms such as neural networks.

【0101】次に図38について説明する。図38は、
前述した図7の情報474や画像情報検出部の出力を入
力として、統合的に処理する監視情報検出部480を設
けて、不審者警告信号481や異常信号482を出力す
る。その情報統合の例としては、カメラ470やセンサ
部1で計測しているエリアが、人が留まるべきでないと
きに、進入した人についての動きがあるときには情報4
74から動き情報が出力され、なおかつ画像情報検出部
3から人の位置情報が出力されるが、そのエリア内で姿
勢が座位として検知させた後、人の位置が変化しなくな
り、ある時間以上その状態が継続するようであれば、不
審者警告信号481と異常信号482を出力する。
Next, FIG. 38 will be described. FIG.
A monitoring information detection unit 480 that performs integrated processing by using the information 474 and the output of the image information detection unit in FIG. 7 described above as inputs is provided, and a suspicious person warning signal 481 and an abnormal signal 482 are output. As an example of the information integration, when the area measured by the camera 470 or the sensor unit 1 indicates that a person should not stay or that there is a movement of a person who has entered, the information 4
The motion information is output from 74, and the position information of the person is output from the image information detecting unit 3. However, after the posture is detected as a sitting position in the area, the position of the person does not change, and for a certain period of time, if such state continues, you output suspicious individual alert signal 481 and error signal 482.

【0102】また、コンソール部460よりセンサ部で
の計測エリア内の人の進入禁止エリアを設定して、その
エリアに進入する人を検出することも可能である。
Further, it is also possible to set an area where no person is allowed to enter the measurement area in the sensor section by using the console section 460 and detect a person entering the area.

【0103】また、本画像処理装置は監視システムのみ
ならず図39に示すように、可視画像情報検出部472
と画像情報検出部3の出力と、前述の例に示した適応学
習部490の出力から、情報を統合し、個人識別部49
4において検出エリア内の個人の識別または追尾を行う
こともできる。つまり例えば、可視画像情報検出部47
から人間の着衣の色に関する情報または体格に関する
情報491が得られ、画像情報検出部3から姿勢や足元
位置情報492が得られる場合、適応学習部490
は、人間の位置と姿勢と体格と着衣の色などから個人を
識別するための特徴を学習する。個人識別部494では
適応学習部490から得られる特徴量をもとに、パター
ン認識を行い個人の識別を行う。このことにより、精度
の高い個人識別が可能となる。
The image processing apparatus is not only a monitoring system but also a visible image information detecting section 472 as shown in FIG.
The information is integrated from the output of the adaptive learning unit 490 shown in the above example with the output of the image information detecting unit 3 and the personal identification unit 49.
In step 4, identification or tracking of an individual in the detection area can be performed. Thus, for example, the visible image information detecting section 47
In the case where the information 491 on the color or the physique of the clothes of the human is obtained from 1 and the posture and the foot position information 492 are obtained from the image information detecting unit 3, the adaptive learning unit 490 determines the position, the posture, the physique, and the clothes of the human. Learn features to identify individuals from their colors and the like. The individual identification unit 494 performs pattern recognition based on the feature amount obtained from the adaptive learning unit 490 to identify an individual. As a result, highly accurate personal identification becomes possible.

【0104】最後に、前述した本発明の画像処理装置を
統合したシステムの構成例を示す。図40に基づいて全
体の構成を説明する。図40は前述した本発明の画像処
理装置500〜502、3台の画像処理装置からの情報
をまとめて処理する統合処理部503により構成され
る。3台の画像処理装置500〜502は各々別の角度
または違う計測エリアを持つ。3台の装置から得られた
情報504から506を統合処理部503で時間的、空
間的に処理を行い、人の追尾や人の位置および姿勢等の
情報507または環境情報508を出力する。以下に具
体的な例として2例を示す。
Finally, an example of the configuration of a system integrating the above-described image processing apparatus of the present invention will be described. The overall configuration will be described with reference to FIG. FIG. 40 includes an integrated processing unit 503 that collectively processes information from the above-described image processing apparatuses 500 to 502 of the present invention and three image processing apparatuses. Each of the three image processing apparatuses 500 to 502 has a different angle or a different measurement area. Information 504 to 506 obtained from the three devices is processed temporally and spatially by the integrated processing unit 503, and information 507 or environmental information 508 such as tracking of a person and position and posture of the person is output. Two specific examples will be described below.

【0105】例1:画像処理装置500〜502を各々
別の地点からほぼ同一のエリアを計測、処理を行う。画
像処理装置500〜502の各々のコンソール部から各
々の観測ポイントや配置関係を入力しておく。画像処理
装置500では人が重なって一人の人間として位置や姿
勢を判別していた場合に、画像処理装置501、502
から得られた情報が複数人の位置や姿勢を示している場
合には統合処理部503で、画像処理装置500〜50
2の配置から、人間に関する正確な情報507を検出し
て出力する。
Example 1: The image processing apparatuses 500 to 502 measure and process substantially the same area from different points. Each observation point and arrangement relation are input from each console unit of the image processing apparatuses 500 to 502. In the image processing apparatus 500, when a person overlaps and determines the position and posture as one person, the image processing apparatuses 501 and 502
If the information obtained from the information indicates the positions and postures of a plurality of persons, the integrated processing unit 503 uses the image processing apparatuses 500 to 50
From the arrangement 2, accurate information 507 about a human is detected and output.

【0106】例2:画像処理装置500〜502を各々
別の方向のエリアを計測、処理を行う。画像処理装置5
00〜502の各々のコンソール部から各々の観測ポイ
ントや配置関係を入力しておく。画像処理装置500で
検出され人が画像処理装置500の計測エリアから去っ
て、画像処理装置501の計測エリアに進入して去った
後に、画像処理装置502の計測エリアに進入した後に
座位で静止した。このような場合に時間的に連続する人
の動き、位置、姿勢を統合処理部503で処理し、情報
507として出力する。
Example 2: Each of the image processing apparatuses 500 to 502 measures and processes an area in a different direction. Image processing device 5
The observation points and arrangement relations are input from the console units 00 to 502. A person detected by the image processing device 500 leaves the measurement area of the image processing device 500, enters the measurement area of the image processing device 501, leaves, and then enters the measurement area of the image processing device 502 and then stands still in a sitting position. . In such a case, the motion, position, and posture of a person who is temporally continuous are processed by the integration processing unit 503 and output as information 507.

【0107】なお、例1、2を同時に実行させるため
に、画像処理装置500を多数用意して空間的、時間的
な処理を行うこともできる。
In order to execute Examples 1 and 2 simultaneously, a large number of image processing apparatuses 500 may be prepared to perform spatial and temporal processing.

【0108】以上の画像処理装置の具体的な応用機器と
しては、画素数のあまり多くない画像からの人間や環境
情報を検出する監視装置が考えられる。画素数をあまり
必要とせず、画像処理が容易で検出する情報量に問題が
ない場合、画素数が少ない方がコストが安価であるため
用いられやすい。さらに可視画像と熱画像を併用するこ
とで特に人間情報の検出精度が高くなる。
As a specific application device of the above image processing apparatus, a monitoring apparatus for detecting human or environmental information from an image having a small number of pixels can be considered. In the case where the number of pixels is not so required, the image processing is easy and there is no problem in the amount of information to be detected, the smaller the number of pixels, the lower the cost and the easier to use. Further, by using both the visible image and the thermal image, the detection accuracy of human information is particularly improved.

【0109】また、医療や介護といった人の看護におい
ても、被看護者が在床しているか、目を覚ましている
か、体を起こしているか、眠っているかなどの状態を、
看護する人が24時間そばにいなくても看護できる装置
が、本画像処理装置を用いることで可能となる。また着
衣量や皮膚温度が検出し、寝具がずれていないか、体温
が通常より高くないかなどの判断をすることも可能であ
る。
Also, in the nursing of a person such as medical care or nursing care, the state such as whether the care recipient is asleep, awake, awake, or asleep is determined.
By using the image processing apparatus, an apparatus capable of nursing without a nursing person being around for 24 hours is possible. It is also possible to detect the amount of clothing and the skin temperature, and determine whether the bedding has shifted or the body temperature is not higher than usual.

【0110】以下、本発明の画像処理装置を用いた空気
調和機の制御装置について第4の実施例について説明す
る。
Hereinafter, a fourth embodiment of an air conditioner control apparatus using the image processing apparatus of the present invention will be described.

【0111】図41は第4の実施例の構成図である。6
01はセンサ部で、室内の温度分布を計測する2次元赤
外線センサ602と、室温センサ603と湿度センサ6
04と外気温センサ605で構成される。606は画像
処理装置で、2次元赤外線センサ602は画像処理装置
606のセンサ部と共有している。610は、風向風量
情報である。快適度検出部613において、在室者毎の
床面上の足元位置が画像処理装置606検出されるの
で、吹き出し口からの風向と風量が分かれば、床面上の
任意の位置における空気調和機による気流(m/s)を
算出することができる。そこで、風向を決定する上下お
よび左右のフラップの角度と、風量を決定する室内機フ
ァンの回転数をなどの風向風量情報610を空調機から
得ることで、それぞれの位置における在室者毎の気流の
強さの算出を行う。611は制御指標決定部で活動量検
出部612と、快適度PMVを算出する快適度検出部6
13で構成される。614は空調制御部であり、615
はカレンダである。
FIG. 41 is a block diagram of the fourth embodiment. 6
Reference numeral 01 denotes a sensor unit, which includes a two-dimensional infrared sensor 602 for measuring a temperature distribution in a room, a room temperature sensor 603 and a humidity sensor 6.
04 and an outside air temperature sensor 605. Reference numeral 606 denotes an image processing device, and the two-dimensional infrared sensor 602 is shared with the sensor unit of the image processing device 606. Reference numeral 610 is wind direction / wind amount information. The comfort level detection unit 613 detects the foot position on the floor for each occupant in the image processing device 606. Therefore, if the wind direction and the air volume from the outlet are known, the air conditioner at an arbitrary position on the floor is detected. Can calculate the airflow (m / s). Therefore, by obtaining from the air conditioner the wind direction and wind amount information 610 such as the vertical and horizontal flap angles for determining the wind direction and the rotation speed of the indoor unit fan for determining the air flow, the airflow for each occupant at each position is obtained. Is calculated. Reference numeral 611 denotes a control index determination unit, and an activity amount detection unit 612 and a comfort level detection unit 6 for calculating a comfort level PMV.
13. Reference numeral 614 denotes an air-conditioning control unit.
Is a calendar.

【0112】次に、制御指標決定部611について説明
する。第1の実施例における制御指標決定部611では
在室者毎の快適度を算出し、優先的に空調する制御対象
を選択する。快適度算出のために、人間的要素として在
室者毎に活動量算出と着衣量推測を行う。また、環境的
要素としては室温、湿度、輻射温度および気流は環境情
報抽出部から得る。以下に、活動量検出部、快適度検出
部の順で説明する。
Next, the control index determining section 611 will be described. The control index determination unit 611 in the first embodiment calculates the degree of comfort for each occupant, and selects a control object to be preferentially air-conditioned. In order to calculate the comfort level, the activity amount calculation and the clothing amount estimation are performed for each occupant as a human element. The environmental factors such as room temperature, humidity, radiation temperature, and airflow are obtained from the environmental information extraction unit. Hereinafter, the activity amount detection unit and the comfort level detection unit will be described in this order.

【0113】制御指標として快適度としてPMVを制御
指標とする場合、人間の状態として活動量が重要な要素
であることは知られている。PMVで用いられる活動量
は、MET値と呼ばれ、MET値と人の状態の関係は、
臥位で横になりリラックスしている場合でMET値0.
8、静かに椅子に座っている状態で1.0、立位でリラ
ックスしている状態で1.4、立位で軽作業をしている
状態で1.6、時速3キロメートルで歩行している状態
で2.0、時速5キロメートルで走っている場合や激し
く動いている状態で3.0である。通常、家庭内では標
準的な生活を行っている場合、0から2.0の間のME
T値をとる。従来の活動量の検出方法は、ある領域の発
熱物体の動きを赤外線センサで検出し、その出力値の大
きさで活動量の大小を判断していた。しかしながら、上
記従来の活動量検出方式では、例えば室内に複数の在室
者が居て何人かは静止していても、他の在室者が室内を
動き回れば一律的に活動量が大きい状態であると判断さ
れ、活動量の大きな人に合わせて空調機が制御されてし
まうという課題があった。また、活動量を検出するため
の赤外線センサの検出領域も室内の一部だけであるだけ
でなく、赤外線センサの出力値と実際の人の動きの関係
付けが曖昧であるため活動量の検出精度は低かった。そ
こで、本発明では上記従来の課題を解決するために、室
内の広い範囲について在室者の位置を検出し、在室者毎
の現在位置に対する静止継続時間である滞在頻度を求め
ることで、在室者毎の活動量を検出する。
It is known that when PMV is used as a control index as a control index, the amount of activity is an important factor as a human state. The amount of activity used in PMV is called the MET value, and the relationship between the MET value and the state of a person is:
When lying down in a lying position and relaxing, the MET value is 0.
8, walk 1.0 at a time sitting quietly in a chair, 1.4 at a state of relaxation in a standing position, 1.6 at a state of light work in a standing position, and 3 km / h. 2.0 when the vehicle is running, and 3.0 when the vehicle is running at 5 km / h or when the vehicle is moving violently. Normally, if you live a standard life in your home, the ME between 0 and 2.0
Take the T value. In the conventional activity amount detection method, the movement of a heating object in a certain area is detected by an infrared sensor, and the magnitude of the activity amount is determined based on the magnitude of the output value. However, in the above conventional activity amount detection method, for example, even if there are a plurality of occupants in the room and some of them are stationary, if other occupants move around the room, the activity amount is uniformly large. There is a problem that the air conditioner is controlled according to a person who has a large activity amount. In addition, the detection area of the infrared sensor for detecting the activity amount is not only a part of the room, but the relation between the output value of the infrared sensor and the actual movement of the person is ambiguous, so the detection accuracy of the activity amount is Was low. Therefore, in the present invention, in order to solve the above-mentioned conventional problems, the position of the occupant is detected over a wide range of the room, and the stay frequency, which is the continuation duration of the occupant with respect to the current position, is determined for each occupant. The activity amount for each room is detected.

【0114】図42に第1の実施例の活動量検出部61
2の構成図を示す。620は在室者の足元位置情報を記
憶しておくための個人情報記憶手段、621はあらかじ
め複数領域に分割した各床面領域毎の滞在頻度を計数す
る滞在頻度算出手段、622は滞在頻度と活動量を関係
付ける活動量算出部である。以上のように構成された活
動量検出装置について、その動作を説明する。
FIG. 42 shows an activity amount detecting section 61 of the first embodiment.
FIG. 620 is a personal information storage means for storing the foot position information of the occupants, 621 is a stay frequency calculation means for counting the stay frequency for each floor area divided into a plurality of areas in advance, and 622 is a stay frequency and It is an activity amount calculation unit that associates an activity amount. The operation of the activity amount detection device configured as described above will be described.

【0115】室内が8畳の正方形の部屋である場合、人
の位置検出用に図43(a)に示すように、あらかじめ
床面を、例えば60cmを単位として6×6に分割し、
位置番号としてナンバリングしておく。画像処理装置6
06により得られた在室者毎の床面位置は個人情報とし
て個人情報記憶手段620に記憶される。図43(b)
に個人情報記憶手段620に記憶されている個人情報の
例を示す。個人情報には計測された時刻、そのときの在
室者の人数、各在室者の床面番号が人数分記載されてい
る。次に滞在頻度算出手段621では、サンプリング周
期30秒で現在時点から過去3分間の足元位置情報を用
いる場合、個人情報の中の床面位置番号から各床面番号
毎の滞在者の頻度を計数する。そして、現時点の画像処
理装置606で得られた在室者の床面番号に対応する滞
在頻度の部分だけを抽出する。
When the room is a square room of 8 tatami mats, the floor surface is previously divided into 6 × 6 in units of 60 cm, for example, as shown in FIG.
Number them as position numbers. Image processing device 6
The floor position for each occupant obtained in step 06 is stored in the personal information storage means 620 as personal information. FIG. 43 (b)
9 shows an example of personal information stored in the personal information storage means 620. The personal information includes the measured time, the number of occupants at that time, and the floor number of each occupant for the number of persons. Next, the stay frequency calculating means 621 counts the frequency of the visitor for each floor number from the floor position number in the personal information when using the foot position information for the past three minutes from the current time at a sampling period of 30 seconds. I do. Then, only the part of the stay frequency corresponding to the floor number of the occupant obtained by the image processing device 606 at the present time is extracted.

【0116】図44(a)に床面位置に対応する滞在頻
度の例を示す。位置番号32の滞在頻度は6で静止して
いると考えられ、位置番号17の人の滞在頻度は1でど
こか他の位置から移動して来たばかりであると考えられ
る。位置番号9の人は、9の位置に滞在して2分しか経
過していないか、3分の時間の中で途中に1分間どこか
別の場所に移動したと考えることができる。ここで得ら
れた滞在頻度は、当該床面位置に対して過去にどの程
度、在室者が静止していたかを表す指標となる。つまり
人が移動している場合は30秒のサンプリング周期では
計測間隔が長すぎて在室者毎の移動距離などを算出する
ことはできず、人の移動距離を活動量として用いること
はできない。しかし、室内においては人は移動している
より静止していることが多いため、30秒程度の長い時
間間隔でも同じ位置に人がいれば、同じ人が滞在し続け
ていると判断して良い場合が多い。
FIG. 44A shows an example of the stay frequency corresponding to the floor position. It is considered that the stay frequency of the position number 32 is 6 and the stay frequency is 1, and the stay frequency of the person of the position number 17 is 1 and the person has just moved from some other position. It can be considered that the person at the position number 9 has stayed at the position 9 and only two minutes have elapsed, or has moved to another place for one minute during the three minutes. The stay frequency obtained here serves as an index indicating how much the occupant has been stationary with respect to the floor position in the past. In other words, when a person is moving, the measurement interval is too long with a sampling period of 30 seconds, so that it is not possible to calculate the moving distance or the like of each occupant, and the moving distance of the person cannot be used as the activity amount. However, in a room, a person is often stationary rather than moving. Therefore, if there is a person in the same position even at a long time interval of about 30 seconds, it may be determined that the same person continues to stay. Often.

【0117】活動量算出手段622では滞在頻度算出手
段621で得られた、現在の在室者毎の滞在頻度と活動
量を関係づける。図44(b)に関係付けの対応関係の
例を示す。滞在頻度が最大値の6の場合静止していると
考えられるので活動量は1.0である。滞在頻度が5は
静止しつつも多少移動した可能性が考えられるので活動
量1.2、滞在頻度3、4については静止状態への過渡
的な状態か、他の在室者の滞在頻度を取り込んだ可能性
があるので中程度の1.6、滞在頻度1、2については
別の場所から移動してきたばかりなので高い活動量2を
対応付けた。この対応付けは個人情報記憶手段5で記憶
するサンプルの数によって変わってくる。このようにし
て、逐次この滞在頻度を算出することによって、静止度
合いの高い人の場合は、滞在頻度が最大頻度近辺の値を
出力し続け、掃除などのように移動していることが多い
場合は滞在頻度が小さい値が出力され続けるので、精度
良く活動量を検出することができる。また、静止者と活
動的な在室者の分離が可能なので、活動量の高い在室者
と活動量の低い在室者が在室している場合は、制御指標
である快適度を活動量の低い在室者に合わせることもで
きる。
The activity amount calculating means 622 associates the current staying frequency of each occupant obtained by the stay frequency calculating means 621 with the activity amount. FIG. 44 (b) shows an example of a correspondence relationship for association. When the stay frequency is 6, which is the maximum value, it is considered to be stationary, so the activity amount is 1.0. When the stay frequency is 5, it may be possible that the user has moved a little while standing still. Since there is a possibility that the activity has been imported, medium 1.6 and stay frequencies 1 and 2 are associated with a high activity amount 2 since they have just moved from another place. This association changes depending on the number of samples stored in the personal information storage unit 5. In this way, by sequentially calculating the stay frequency, in the case of a person with a high degree of stillness, the stay frequency frequently outputs a value near the maximum frequency, and often moves like cleaning. Since the value of staying frequency is continuously output, the activity amount can be detected with high accuracy. In addition, since a stationary person and an active occupant can be separated, when a occupant with a high activity amount and a occupant with a low activity amount are present, the comfort level, which is a control index, is determined by the activity amount. It can be adapted to low occupants.

【0118】また、室内を領域分割すると必ず領域の境
界に人間が居る場合が出てくる。その場合多少の人の動
きや、画像処理装置606における足元位置検出精度が
非常に高精度でないと、計測の度にたとえ人が静止して
いても検出位置がずれてしまう可能性がある。そこで、
あらかじめ各床面位置に対して周辺床面領域を定めてお
き滞在頻度算出の際に周辺領域の滞在頻度度も考慮する
ことで静止している人を精度良くとらえることができ
る。図45(a)に床面に対する周辺定義の例を示す。
床面番号31は角にあるので、それをとりまく床面番号
25、26、32を周辺とする。床面番号3については
辺に位置しているので、それをとりまく床面番号2、
4、8、9、10を周辺領域と定義する。床面番号23
は中にあるのでそれをとりまく床面番号16、17、1
8、22、24、28、29、30を周辺領域と定義す
る。滞在頻度算出手段621では現在の在室者の床面番
号に加え周辺領域の床面番号の滞在頻度を計数する。図
45(b)は、図43(b)の個人情報に対する周辺領
域を含めた滞在頻度算出の例である。床面番号17の位
置にいる人の滞在頻度は周辺を含めない場合1であった
が、周辺を含めると滞在頻度4となり、移動の仕方が離
れた場所を動き回っているのではなく、現在居る点の付
近を動き回っていることが分かり活動量としてはそれほ
ど高くはない値を関係づけることができる。
Further, when a room is divided into regions, there is always a case where a person is present at the boundary between the regions. In this case, if the movement of a person is slightly higher or the accuracy of detecting the position of the foot in the image processing device 606 is not very high, the detection position may be shifted at each measurement even if the person is stationary. Therefore,
By defining the peripheral floor area for each floor position in advance and considering the frequency of stay in the peripheral area when calculating the stay frequency, a person who is stationary can be captured accurately. FIG. 45A shows an example of the peripheral definition for the floor surface.
Since the floor number 31 is at a corner, the floor numbers 25, 26, and 32 surrounding it are set as the periphery. Since floor number 3 is located on the side, floor number 2 surrounding it is
4, 8, 9, and 10 are defined as peripheral areas. Floor number 23
Is inside, so floor numbers 16, 17, 1 surrounding it
8, 22, 24, 28, 29, and 30 are defined as peripheral areas. The stay frequency calculating means 621 counts the stay frequency of the floor number in the peripheral area in addition to the floor number of the current occupant. FIG. 45 (b) is an example of stay frequency calculation including the peripheral area for the personal information of FIG. 43 (b). The stay frequency of the person at the floor number 17 is 1 when the surrounding area is not included, but the stay frequency is 4 when the surrounding area is included, and the way of movement is not moving around in a distant place but staying now. It can be seen that the subject moves around the point, and a value that is not so high as the amount of activity can be related.

【0119】また、活動量検出部613では熱画像計測
のサンプリング周期が1、2秒程度以内の短い期間の場
合、室内での人の移動速度に限界があることから、2枚
の熱画像から抽出された在室者の足元位置から在室者の
対応付けを行い、移動速度を求めることができる(以
降、移動量と呼ぶ)。このようにして、移動している在
室者についても移動量を求めることで、活動量検出の精
度を高めることができる。以下に、移動量を用いた活動
量検出例を示す。
Further, when the sampling period of the thermal image measurement is a short period of about 1 or 2 seconds or less in the activity amount detecting section 613, there is a limit to the moving speed of the person in the room. The occupants are associated with each other from the extracted feet of the occupants, and the moving speed can be obtained (hereinafter, referred to as the moving amount). In this manner, the accuracy of activity amount detection can be improved by obtaining the amount of movement for the occupant who is moving. Hereinafter, an example of activity amount detection using the movement amount will be described.

【0120】図46に第1の実施例の移動量を用いた活
動量検出部613の構成図を示す。630は連続する2
つの計測間隔の足元位置情報から移動距離を算出する移
動量検出手段、631は現時点より過去T1分間の位置
と移動量に関する情報を記憶する個人情報記憶手段、6
32は所定期間の代表となる移動量を得る期間移動量算
出手段、621は図42に示したと同様な静止者を検出
するための滞在頻度算出手段、633は活動量算出手段
である。
FIG. 46 shows a configuration diagram of the activity amount detection unit 613 using the movement amount according to the first embodiment. 630 is continuous 2
Moving amount detecting means for calculating the moving distance from the foot position information at two measurement intervals; 631 a personal information storing means for storing information on the position and moving amount for the past T1 minutes from the current time;
Reference numeral 32 denotes a period movement amount calculation unit for obtaining a movement amount representative of a predetermined period, 621 denotes a stay frequency calculation unit for detecting a stationary person similar to that shown in FIG. 42, and 633 denotes an activity amount calculation unit.

【0121】以上のように構成された活動量検出部61
3について、その動作を説明する。図47に、室内で最
も活動的であると思われる掃除機を用いた掃除のシーン
について、実際の家庭でビデオ録画し1秒毎の移動距離
を、60cmを一単位としてプロットしたグラフを示
す。横軸が掃除開始からの経過時間で1秒毎にサンプリ
ングしている。縦軸は距離で1目盛りが60cmであ
る。掃除の特徴としては、単位時間に移動する距離、す
なわち速さが速いというよりも、距離の短い移動が継続
する点に特徴がある。移動量は、室内にある物を取りに
行く、であるとか、室内を通り過ぎるなどの行動の場合
の方が速いが、数秒で完結してしまうので活動的である
とはいえない場合が多い。それゆえ、在室者の活動量を
判断する場合、ある瞬時の移動距離で判断するよりも、
一定期間の移動距離の積分で判断することが適している
ことがわかる。さて、この活動量検出部613の動作で
あるが、得られた在室者毎の足元位置情報を入力として
移動量検出手段630に送られる。以下に、移動量検出
手段630について説明する。
The activity amount detector 61 configured as described above
The operation of No. 3 will be described. FIG. 47 is a graph showing a scene of cleaning using a vacuum cleaner which is considered to be the most active in a room, in which video is recorded at an actual home and the moving distance per second is plotted with 60 cm as one unit. The horizontal axis represents the time elapsed from the start of cleaning and is sampled every second. The vertical axis is distance and one scale is 60 cm. The feature of the cleaning is that the moving distance per unit time, that is, the moving speed of the unit is shorter than the moving speed of the unit time. The amount of movement is faster in the case of an action such as going for a thing in the room or passing through the room, but since it is completed in a few seconds, it is often not possible to say that it is active. Therefore, when judging the amount of activity of the occupants, it is better to judge based on a certain instantaneous travel distance.
It can be seen that it is appropriate to make a judgment by integrating the moving distance for a certain period. Now, regarding the operation of the activity amount detection unit 613, the obtained foot position information for each occupant is input to the movement amount detection unit 630. Hereinafter, the movement amount detection means 630 will be described.

【0122】図48は、移動量検出手段630の構成図
である。ここで、サンプリング時間を△tとし、時刻t
に検出された足元位置情報を足元位置情報F(t)、1
サンプル前に検出された足元位置情報を足元位置情報F
(t−△t)と呼ぶ。640は在室者の足元位置情報お
よびを記憶する位置記憶手段である。641は位置記憶
手段に記憶された足元位置情報F(t)と足元位置情報
F(t−△t)を入力とし、あらかじめ定められた時間
△t内で人間が移動できる距離の最大値である最大移動
距離を用いて、足元位置情報F(t)について最大移動
距離内にある在室者を足元位置情報F(t−△t)から
検索する移動可能判定手段である。642は移動可能判
定手段から出力される足元位置情報F(t−△t)の中
から足元位置情報F(t)に、最も距離が近い足元位置
情報を検索し、順に2対の組み合わせを定める最近傍検
索手段である。643は最近傍検索手段から出力される
距離を入力とし、在室者毎に移動量を出力する移動速度
計算手段である。
FIG. 48 is a block diagram of the moving amount detecting means 630. Here, the sampling time is Δt, and the time t
The foot position information detected at step S1 is converted to the foot position information F (t),
The foot position information detected before the sample is converted to the foot position information F
(T−Δt). Reference numeral 640 denotes a position storage unit that stores information on the foot position of the occupant. Numeral 641 is a maximum value of a distance that a human can move within a predetermined time Δt with the input of the foot position information F (t) and the foot position information F (t−Δt) stored in the position storage means. This is a movement determination unit that searches for a occupant within the maximum movement distance from the foot position information F (t−Δt) using the maximum movement distance. Numeral 642 searches the foot position information F (t) output from the movable determination means for the foot position information closest to the foot position information F (t), and determines two pairs of combinations in order. Nearest neighbor search means. Reference numeral 643 denotes a moving speed calculating unit that receives a distance output from the nearest neighbor searching unit and outputs a moving amount for each occupant.

【0123】以上のように構成された移動量検出手段6
30について、その動作を説明する。まず、各サンプリ
ングタイミングで画像処理装置606で検出された足元
位置情報を位置記憶手段640に順次記憶する。次に、
移動可能判定手段641で位置記憶手段640に記憶さ
れている足元位置情報F(t)と足元位置情報F(t−
△t)の距離計算を行う。その際、tおよびt−△tの
在室者の組み合わせ全てについて距離計算を行い、最大
移動距離以内にある組み合わせが選ばれる。次に、最近
傍検索手段642では、移動可能判定手段641から出
力される足元位置情報F(t−△t)と足元位置情報F
(t)の組み合わせの中から、最も距離が近い位置の組
み合わせの対が出力される。この時、△t間に人数が増
加した場合、足元位置情報F(t)の中に対になれず余
るものができるが、この場合は、他の部屋からの入室で
あると考えられるので最大移動距離を移動距離の代替と
する。また、△t間に人数が減少した場合、足元位置情
報F(t−△t)の中に対になれず余るものができる
が、この場合は現時点で人が減ったので問題にしない。
次に、移動速度計算手段643では、最近傍検索手段6
42から出力される各組の移動距離と時間間隔△tから
各在室者の移動速度が計算される。以上のような構成
で、移動量を計算することにより、人間が例えば部屋の
両角に離れて存在していた場合であっても、人間が可能
な移動速度を越えることなく、正しい人間の移動速度を
求めることができる。また、室内を複数領域に分割せ
ず、足元位置を座標で求め、座標から移動距離を算出
し、移動量を求めることも可能である。このようにし
て、室内の在室者毎の移動量を求めた後、室内の一定期
間の代表となる移動量(以降、期間移動量と呼ぶ)を算
出する。図49に個人情報記憶手段631に記憶されて
いる個人情報の例を示す。個人情報には計測された時
刻、そのときの在室者の人数、各在室者の床面番号およ
び距離が人数分記載されている。図43(b)と異なる
のは距離が含まれている点である。期間移動量算出手段
632では、個人毎の移動量と期間移動量を関係づけ
る。期間移動量は活動度合いの大きい順にA、B、Cの
ランクで表現する。ランクAの求め方について図50
(a)を見ながら説明する。最初に各在室者の移動量の
平均値を求め、しきい値H1を越えるか否かを判定す
る。この処理をT1分間のおのおのの計測サンプルに対
して行い、T1分間に何回あるかを計数する。そして、
その値があらかじめ定められた頻度のしきい値N1より
大きい場合期間移動量ランクAとする。次に図50
(b)を見ながら期間移動量ランクCの求め方について
説明する。前記移動量の平均値がしきい値H2を下回る
頻度をT1分間について計数し、その値があらかじめ定
められた頻度のしきい値N2より大きい場合を期間移動
量ランクCとする。上記ランクAまたはランクCの両方
に入らない場合、期間移動量ランクBとする。ここで、
移動量だけでなく頻度についてもしきい値を設けたのは
活動的な生活シーンの中にも移動しないことや、くつろ
いでいるシーンの中にも移動することがあるためであ
る。
The moving amount detecting means 6 configured as described above
The operation of 30 will be described. First, the foot position information detected by the image processing device 606 at each sampling timing is sequentially stored in the position storage unit 640. next,
The foot position information F (t) and the foot position information F (t−) stored in the position storage unit 640 by the movable possibility determination unit 641.
Δt) distance calculation is performed. At that time, distance calculation is performed for all combinations of the occupants of t and t−Δt, and a combination within the maximum movement distance is selected. Next, in the nearest neighbor search means 642, the foot position information F (t−Δt) and the foot position information F output from the movable judgment means 641 are obtained.
From the combinations of (t), a pair of combinations at the closest position is output. At this time, if the number of persons increases during Δt, there is an extra pair of foot position information F (t) that cannot be paired, but in this case, it is considered that the person is entering a room from another room. The moving distance is substituted for the moving distance. Also, if the number of persons decreases during Δt, there is a surplus in the foot position information F (t−Δt). However, in this case, there is no problem because the number of persons has decreased at this time.
Next, the moving speed calculating means 643 calculates the nearest neighbor searching means 6.
The moving speed of each occupant is calculated from the moving distance of each set and the time interval Δt output from 42. With the above configuration, by calculating the amount of movement, even if a person is present, for example, at both corners of a room, the correct person's moving speed can be achieved without exceeding the man's possible moving speed. Can be requested. Further, it is also possible to calculate the foot position by coordinates, calculate the moving distance from the coordinates, and calculate the moving amount without dividing the room into a plurality of regions. After the movement amount of each occupant in the room is obtained in this way, a movement amount representative of a certain period of the room (hereinafter, referred to as a period movement amount) is calculated. FIG. 49 shows an example of personal information stored in the personal information storage means 631. The personal information describes the measured time, the number of occupants at that time, the floor number of each occupant, and the distance for each occupant. The difference from FIG. 43B is that a distance is included. The period movement amount calculating means 632 associates the movement amount for each individual with the period movement amount. The period movement amount is represented by ranks A, B, and C in descending order of activity. Figure 50: How to find rank A
Explanation will be given while looking at (a). First, the average value of the movement amount of each occupant is determined, and it is determined whether or not the average exceeds the threshold value H1. This process is performed for each measurement sample for T1 minutes, and the number of times during T1 minutes is counted. And
When the value is larger than the predetermined frequency threshold N1, the period movement amount rank A is set. Next, FIG.
A method of obtaining the period movement amount rank C will be described with reference to FIG. The frequency at which the average value of the movement amount falls below the threshold value H2 is counted for T1 minutes, and a case where the value is larger than a predetermined frequency threshold value N2 is defined as a period movement amount rank C. If both the ranks A and C are not included, the period movement amount rank B is set. here,
The reason why the threshold value is set not only for the amount of movement but also for the frequency is that the object may not move in an active life scene or may move in a relaxing scene.

【0124】上記の方法で算出した期間移動量に、滞在
頻度算出手段621から得られる静止者の有無や人数を
組み合わせて、活動量算出手段633では活動量と対応
付ける。図51に期間移動量算出手段632から得られ
る期間移動量と、滞在頻度算出手段621から得られる
滞在頻度と、画像処理装置606から得られる人数を活
動量に関係づけた例を示す。図51で、表の中の値は活
動量であり、静止者とは滞在頻度算出手段621で滞在
頻度が最大値の90%以上の頻度の在室者居る場合を表
している。上記方法で活動量を検出することにより、生
活シーンに沿った活動量検出が可能となる。
The amount of period movement calculated by the above method is combined with the presence or absence and the number of stationary persons obtained from the stay frequency calculation unit 621, and the activity amount calculation unit 633 associates the amount with the activity amount. FIG. 51 shows an example in which the period movement amount obtained from the period movement amount calculation unit 632, the stay frequency obtained from the stay frequency calculation unit 621, and the number of people obtained from the image processing device 606 are related to the activity amount. In FIG. 51, the value in the table is the amount of activity, and the stationary person indicates a case where the stay frequency calculating unit 621 has a occupant whose stay frequency is 90% or more of the maximum value. By detecting the amount of activity by the above method, the amount of activity can be detected along the life scene.

【0125】次に、快適度検出部613について説明す
る。従来は快適度算出の際、室内を代表する快適度の算
出を行うものがあったが、ここでは、主に個人毎に快適
度の算出を行い、それらを制御指標とする。快適度PM
Vの入力要素として、環境的要素としては室温、湿度、
気流、輻射温度が必要であり、人間に関する要素として
は活動量、着衣量が必要である。また、算出のためのP
MV算出式が必要である。各要素は、それぞれ室温は空
気調和機の吸い込み温度を計測する室温センサ603の
計測値を用い、湿度については空気調和機の本体に設置
した湿度センサ604の計測値を用いる。気流について
は風向風量情報と画像処理装置606から得られる個人
毎の足元位置から得る。輻射温度についても、画像処理
装置606より得る。個人別の活動量については活動量
検出部612より得る。着衣量は画像処理装置606か
ら得る。その際、外気温と季節によって一般的に着衣を
変える場合が多いので、カレンダ615の値を基に春夏
秋冬の四季に各月を対応させ、月と外気温の値から前記
ランクを条件分けや補正をすることも可能である。この
ことにより対象となる人物の熱画像を用いた着衣量の検
出が可能となる。PMV算出式については、以下に例を
示す。
Next, the comfort level detector 613 will be described. Conventionally, when calculating the degree of comfort, there has been a method of calculating the degree of comfort representing a room. Here, the degree of comfort is mainly calculated for each individual, and these are used as control indexes. Comfort PM
As input elements of V, environmental factors include room temperature, humidity,
Airflow and radiation temperature are required, and factors related to humans include the amount of activity and the amount of clothing. Also, P for calculation
MV calculation formula is required. Each element, each room temperature using the measured value of the room temperature sensor 603 for measuring the intake temperature of the air conditioner, the humidity using the measured value of the humidity sensor 60 4 installed in the main body of the air conditioner. The airflow is obtained from the wind direction information and the foot position of each individual obtained from the image processing device 606. The radiation temperature is also obtained from the image processing device 606. The activity amount for each individual is obtained from the activity amount detection unit 612. The clothing amount is obtained from the image processing device 606. At that time, clothes are generally changed depending on the outside temperature and the season. Therefore, each month is made to correspond to each of the four seasons of spring, summer, autumn and winter based on the value of the calendar 615, and the rank is conditionally classified based on the values of the month and the outside temperature. It is also possible to make corrections. This makes it possible to detect the amount of clothing using the thermal image of the target person. Examples of the PMV calculation formula are shown below.

【0126】PMV=(0.303e-2.1M+0.028)・{58.
15(M−W)−3.05・10-3[5733−406.7(M−W)−
Pa]−24.42[(M−W)−1]−10-3・M(5867−P
a)−0.0814・M(34−ta)−3.96・10-8fcl[(t
cl+273)4−(tr+273)4]−fcl・hc(tcl−t
a)} ここで、各記号の意味は以下のとおりとする。 M :代謝量(Met値) W :外部への機械仕事(大部分の代謝量について零と
仮定できる) Pa :水の水蒸気圧 ta :空気温度 tr :平均輻射温度 fcl:衣服で覆われた部分と露出部分の面積比 tcl:衣服の表面温度 hc :対流熱伝達係数 対流熱伝達係数hcはVrを気流(m/s)としたとき 2.38(tcl−ta)0.25 > 12.1kgVr の条件が満たされればhc=2.38(tcl−ta)0.25であ
り、 2.38(tcl−ta)0.25 ≦ 12.1kgVr の場合hc=12.1kgVrと定めることができるので気流
が分かれば算出可能である。
PMV = (0.303e-2.1M + 0.028) {58.
15 (MW)-3.05 · 10 -3 [5733-406.7 (MW)-
Pa] -24.42 [(M-W ) -1] -10 -3 · M (5867-P
a) −0.0814 · M (34−ta) −3.96 · 10 −8 fcl [(t
cl + 273) 4 − (tr + 273) 4 ] −fcl · hc (tcl−t
a)} Here, the meaning of each symbol is as follows. M: Metabolic rate (Met value) W: External mechanical work (can be assumed to be zero for most metabolic rates) Pa: Water vapor pressure ta: Air temperature tr: Average radiation temperature fcl: Part covered with clothes And the exposed area ratio tcl: surface temperature of clothes hc: convective heat transfer coefficient The convective heat transfer coefficient hc satisfies the condition of 2.38 (tcl-ta) 0.25 > 12.1 kgVr when Vr is the airflow (m / s). For example, hc = 2.38 (tcl-ta) 0.25 , and in the case of 2.38 (tcl-ta) 0.25 ≤ 12.1 kgVr, hc = 12.1 kgVr can be determined.

【0127】また、衣服で覆われた部分の面積と露出部
分の面積比fclについても、clo値をIclとした場
合、 Icl<0.5 の条件が満たされればfcl=1.00+0.2・Ic
l Icl≧0.5 の条件が満たされればfcl=1.05+0.1・Ic
l と定めることができる。
Also, as for the area ratio fcl of the area covered with the clothes and the area of the exposed part, if the clo value is Icl, if the condition of Icl <0.5 is satisfied, fcl = 1.00 + 0.2 · Ic
l If the condition of Icl ≧ 0.5 is satisfied, fcl = 1.05 + 0.1 · Ic
l.

【0128】このように、PMV算出のための各入力要
素が検出可能なので各個人別の快適度PMVを算出する
ことができる。次に、個人別に算出した快適度を基に空
気調和機の制御を行うための制御指標を判定する。複数
の在室者が室内に居る場合、活動度合い、空間的な輻射
の影響など内外の条件により各個人の快適度が異なる場
合がある。その場合、上記方法で検出した快適度があら
かじめ決められた快適域、例えばPMV±0.5以外の在
室者が居る場合、当該在室者を優先的に空調する。ま
た、在室者全員が快適域に入る場合で在室者の位置を中
心とした風向制御を行う。
As described above, since each input element for calculating the PMV can be detected, the comfort level PMV for each individual can be calculated. Next, a control index for controlling the air conditioner is determined based on the comfort level calculated for each individual. When a plurality of occupants are in a room, the comfort level of each individual may differ depending on internal and external conditions such as the degree of activity and the effect of spatial radiation. In that case, if there is a room occupant whose comfort level detected by the above method is outside the predetermined comfort range, for example, PMV ± 0.5, the room occupant is preferentially air-conditioned. In addition, when all the occupants enter the comfortable area, wind direction control is performed centering on the occupant's position.

【0129】以下に第4の実施例における空調制御の例
を示す。図52(a)は室内に2人の在室者がいて各自
のPMVがほぼ同じであるような安定時の場合の暖房時
の空調例である。650は室内、651は空気調和機、
652は赤外線2次元センサ、653は座位の在室者、
654はもう一人の座位の在室者、655はドア、65
6は風向、風量、657は2次元赤外線センサの検出範
囲である。この場合、在室者653と在室者654は座
位で静止しているため活動量が同じであり、また床面、
壁面から受ける輻射、および気流の強さも同等と仮定し
たとき、2人のPMVは同じであり、吹き出し温度は室
内の温熱環境を維持する程度、風向はワイドで風量は中
である。図52(b)は、図52(a)の状態から時間
が経過し、在室者658が移動すると共に、室内のドア
が開き、冷たい空気が室内に入り込んだ場合の空調例で
ある。658は立位で移動した在室者、659は座位の
まま静止している在室者、660は開かれたドア、66
1はこのときの風向と風量である。この場合、ドア66
0から入り込んだ冷風のため在室者659付近の床温度
が冷え、床や壁に温度低下が2次元赤外線センサ652
により観測される。
An example of air conditioning control in the fourth embodiment will be described below. FIG. 52A shows an example of air conditioning at the time of heating in a case where there are two occupants in the room and their PMVs are almost the same. 650 is a room, 651 is an air conditioner,
652 is an infrared two-dimensional sensor, 653 is a sitting occupant,
654 is another occupant in the sitting position, 655 is a door, 65
Numeral 6 denotes a wind direction and air volume, and 657 denotes a detection range of the two-dimensional infrared sensor. In this case, since the occupant 653 and the occupant 654 are stationary in the sitting position, they have the same amount of activity.
Assuming that the intensity of the radiation received from the wall surface and the intensity of the air flow are also the same, the PMVs of the two persons are the same, the blowing temperature is such that the indoor thermal environment is maintained, the wind direction is wide, and the air volume is medium. FIG. 52 (b) is an example of air conditioning in a case where time has elapsed from the state of FIG. 52 (a), the occupant 658 has moved, and the door in the room has opened, and cool air has entered the room. 658 is an occupant who moved in a standing position, 659 is an occupant who is still in a sitting position, 660 is an open door, 66
1 is the wind direction and the air volume at this time. In this case, the door 66
The floor temperature near the room occupant 659 cools due to the cold air entering from 0, and the temperature drops on the floor and the wall.
Observed by

【0130】また、658の在室者は立位で動きだした
ために、659の座位の在室者に比べて高い活動量が観
測される。この場合、PMVは在室者658付近では高
く、在室者659付近では低くなるため風向は在室者6
59を中心に向けられる。また冷風がドア660から入
ってきたことで吹き出し温度も高めに制御される。ま
た、在室者658が動かなかった場合でも、ドア660
からの冷風により在室者659付近の床や壁が温度が下
がり在室者659に対する輻射温度が低い場合も、風向
は在室者659の方向に向けられるが、活動量が同等な
ためその後ドア660が閉められれば短時間で安定時の
空調制御に戻る。このように、在室者のおのおのの人の
快適度を推定し、それに基づいて空調を行うことで人の
快適度に沿ったきめ細かな空調が可能となる。なお、在
室者が存在しない場合は、室内の中央に活動量がゼロで
所定の着衣量を有する在室者が存在すると仮定し制御指
標を定めたり、室内の床や壁の温度の低い場所、または
高い場所に温風を送風するなどの制御を行うことも可能
である。なお、冷房の場合も同様な制御が可能である。
また、風向制御について、1サンプル毎に風向を変える
のでは不安定である場合は、画像処理装置606の足元
位置情報に関する出力を見ながら、在室者の位置移動を
調べ、同じ位置に連続して在室者が居る場合のみ、風向
制御の対象とすることも可能である。
Further, since the 658 occupant starts to move in the standing position, a higher amount of activity is observed than the occupant in the 659 sitting position. In this case, since the PMV is high near the occupant 658 and low near the occupant 659, the wind direction is
59 is centered. In addition, since the cool air enters from the door 660, the blowing temperature is controlled to be higher. In addition, even if the occupant 658 does not move, the door 660 is not moved.
When the temperature of the floor and walls near the occupant 659 decreases due to the cold wind from the room and the radiation temperature to the occupant 659 is low, the wind direction is directed toward the occupant 659. When is closed, the control returns to the air conditioning control in a stable state in a short time. In this way, by estimating the comfort level of each occupant and performing air conditioning based on the estimation, fine air conditioning can be performed in accordance with the comfort level of the people. If there is no occupant, it is assumed that there is an occupant having a predetermined amount of clothing with a zero activity amount in the center of the room and a control index is determined, or a place where the floor or wall temperature of the room is low, Alternatively, control such as blowing hot air to a high place can be performed. The same control can be performed in the case of cooling.
If it is unstable to change the wind direction for each sample for the wind direction control, the position movement of the occupant is checked while looking at the output relating to the foot position information of the image processing device 606, and the position is continuously measured at the same position. Only when there is a room occupant, it is possible to control the wind direction.

【0131】次に、上記実施例4に生活シーン推定部を
付加した空気調和機の制御装置の実施例を、実施例5と
して示す。図53は、実施例5の全体構成図である。図
41との違いは、制御指標決定部611に生活シーン推
定部670を付加したことと、センサ部601に光セン
サを付加したことと、時計を付加したことにある。
Next, a fifth embodiment of the air conditioner control apparatus in which a life scene estimating unit is added to the fourth embodiment will be described. FIG. 53 is an overall configuration diagram of the fifth embodiment. The difference from FIG. 41 is that a life scene estimating unit 670 is added to the control index determining unit 611, an optical sensor is added to the sensor unit 601, and a clock is added.

【0132】以下に生活シーン推定部670について説
明する。生活シーン推定部670では、活動量検出部6
12から得られる個人別の活動量と、画像処理装置60
6から得られる人数と、光センサ671から得られる室
内の照度レベルと、時計672から得られる時刻から室
内の生活シーンの推定を行う。ここで生活シーンとは在
室者が行っている生活行為や生活状態を、室内単位で見
た場合の名称で、だんらんやくつろぎといった名称で一
般的に呼ばれているものである。人数が一人の場合は、
その人の生活行為が生活シーンとなるが、複数の場合は
各人の活動度合いなどを考慮し推定しなくてはならな
い。推定する生活シーンを、退室、入室、就寝、起床、
暑い在室者、寒い在室者の6つの過渡的シーンと、くつ
ろぎ、団らん、活動的家事の3つの安定的シーンとし
た。ここでいう過渡的シーンとはPMVが制御指標とし
て妥当性を持たないシーンであり、安定的シーンとは在
室者がある時間以上室内に在室しPMVが制御指標と用
いることができるシーンである。
The life scene estimating section 670 will be described below. In the life scene estimation unit 670, the activity amount detection unit 6
And the image processing device 60
6, the indoor illuminance level obtained from the optical sensor 671, and the time obtained from the clock 672, the life scene in the room is estimated. Here, the life scene is a name of a living activity or a living state performed by the occupant when viewed in indoor units, and is generally called by a name such as danran or relaxation. If there is only one person,
The life act of the person is a life scene, but in the case of a plurality, the estimation must be made in consideration of the degree of activity of each person. Estimated life scenes include leaving, entering, going to bed, getting up,
There are six transitional scenes of hot and cold occupants, and three stable scenes of relaxation, reunion, and active housework. The transitional scene referred to here is a scene in which PMV has no validity as a control index, and a stable scene is a scene in which a occupant is in a room for a certain period of time and the PMV can be used as a control index. is there.

【0133】各シーンの推定方法を以下に述べる。最初
に過渡的シーンの推定方法について述べる。退室シーン
は、画像処理装置606から得られる人数が0になった
ときに不在継続時間をカウントし始め、10分以上、人
数が0の場合が継続したとき退室シーンと判定する。こ
こで、不在継続時間を計数するのは、通常、室内は隣室
や屋外と接し部屋移動を行うことが多いので、これら短
時間の不在毎に退室を判定し、制御指標を変更するのは
制御が不安定になるのでシーンを一つの区切りとするた
めに一定時間の経過を待って退室シーンを判定する。次
に、入室シーンは、現在の生活シーンが退室シーンの状
態で、人数が1人以上検出された場合を入室シーンと
し、20分間保持されるものとする。次に、就寝シーン
であるが、光センサから得られる照度が所定の明るさ以
下の場合で、かつ時刻が午後9:00から午前6時の間
で、かつ活動量が1.0以下が30分継続している場合
に就寝と判断する。また、現在の生活シーンが就寝シー
ンの時に活動量1.2以上の状態が5分継続した場合、
もしくは照度がある値を越えた場合、起床シーンと判断
し、20分間保持する。暑い在室者シーン、寒い在室者
シーンは画像処理装置606から得られた皮膚温度が、
あらかじめカレンダーから得られる月毎に定められた標
準的人体の皮膚温度範囲を越えているかで判定する。
A method for estimating each scene will be described below. First, a method for estimating a transient scene will be described. In the exit scene, when the number of persons obtained from the image processing device 606 becomes 0, the absence duration time starts to be counted, and when the number of persons continues to be 0 for 10 minutes or more, the exit scene is determined. Here, the absence duration is usually counted because the room often moves in contact with an adjacent room or the outside.Therefore, the exit is determined for each of these short absences, and the control index is changed. Becomes unstable, so that a leaving scene is determined after a certain period of time elapses in order to set a scene as one section. Next, the entry scene is a state in which the current life scene is the exit scene and one or more persons are detected as an entry scene, and is held for 20 minutes. Next, in the case of a bedtime scene, when the illuminance obtained from the optical sensor is equal to or less than a predetermined brightness, the time is between 9:00 pm and 6:00 am, and the amount of activity is 1.0 or less for 30 minutes. If you do, it is determined that you go to bed. Also, if the current life scene is a bedtime scene and the state of the activity amount 1.2 or more continues for 5 minutes,
Alternatively, if the illuminance exceeds a certain value, it is determined that the scene is a wake-up scene, and is held for 20 minutes. In the hot occupant scene and the cold occupant scene, the skin temperature obtained from the image processing device 606 is
Judgment is made based on whether the temperature exceeds a standard human skin temperature range predetermined for each month previously obtained from a calendar.

【0134】次に、安定的シーンについて述べる。くつ
ろぎシーンにについては、活動量ランクが1.0以下の
状態が10分継続して続いた場合、団らんシーンは活動
量が1.2から1.7の状態が10分継続した場合、活
動的家事は活動量が1.8以上の状態が10分継続した
場合をそれぞれシーン判定条件とする。
Next, a stable scene will be described. As for the relaxing scene, when the activity level is 1.0 or less for 10 minutes or more, the group scene is active when the activity level is 1.2 to 1.7 for 10 minutes. For housework, the case where the activity amount is 1.8 or more for 10 minutes is set as a scene determination condition.

【0135】以上のように推定した生活シーンについ
て、空調の制御指標をあらかじめ定めておく。以下に、
各シーン毎に定めた制御指標の例を述べる。ここで、標
準の目標快適度は0である。退室シーンの場合、目標快
適度を暖房の場合−1.0に下げ、風向を部屋の中央に
向ける。入室シーンの場合、目標快適度を1.0にし、
入室者に風向を向ける。就寝シーンの場合、2時間毎に
目標快適度を0.5ずつ下げるとともに風向は、人体を
避け、風量を微風にする。起床シーンの場合は、目標快
適度を2.0にし、入室者に風向を向ける。冷房時の暑
い在室者シーンの場合は、目標快適度−2.0に下げ、
皮膚温度の高い在室者を中心とする風向で冷房する。暖
房時の寒い在室者シーンの場合は、目標快適度2.0に
上げ皮膚温度の低い在室者を中心とする風向で暖房す
る。ただし、長時間、冷風や熱風を人体に向けることは
健康に良くないため、前記暑い在室者シーンと寒い在室
者シーンは3分を限界とする。くつろぎシーンの場合
は、目標快適度を0.5のやや暖か目にする。団らんシ
ーンの場合は標準、活動的家事シーンの場合は目標快適
度を−0.5とする。このように各シーンに合わせて空
調を行うことで、生活実態に合った空調が可能となる。
また、安定的シーンが推定された場合は制御指標を第4
の実施例に述べた快適度とし、過渡的シーンの場合は前
記の各シーン毎の制御指標に切り替えることも可能であ
る。空調制御部614では、これらの制御指標を得て、
機器の制御を行う。
For the life scene estimated as described above, the control index of air conditioning is determined in advance. less than,
An example of a control index determined for each scene will be described. Here, the standard target comfort level is 0. In the case of the leaving room, the target comfort level is reduced to -1.0 in the case of heating, and the wind direction is directed to the center of the room. In the case of the entry scene, the target comfort level is set to 1.0,
Turn the wind toward the occupants. In the case of a bedtime scene, the target comfort level is reduced by 0.5 every two hours, and the wind direction is to avoid the human body and to reduce the airflow. In the case of the wake-up scene, the target comfort level is set to 2.0, and the wind direction is directed to the occupant. In the case of a hot occupant scene during cooling, lower the target comfort level to -2.0,
Cool with the wind direction mainly for the occupants with high skin temperature. In the case of a cold occupant scene at the time of heating, the target comfort level is increased to 2.0, and heating is performed in a wind direction centered on the occupant whose skin temperature is low. However, directing cold air or hot air to the human body for a long time is not good for health, so the hot and cold room scenes are limited to 3 minutes. In the case of a relaxing scene, the target comfort level is set to a slightly warmer level of 0.5. The standard comfort level is set for the group scene and the target comfort level is set to -0.5 for the active housework scene. By performing air conditioning in accordance with each scene in this manner, air conditioning suitable for actual living conditions can be achieved.
When a stable scene is estimated, the control index is changed to the fourth.
In the case of a transient scene, it is also possible to switch to the control index for each scene described above. The air conditioning control unit 614 obtains these control indices,
Control the equipment.

【0136】上記実施例1から実施例3の画像処理装置
もしくは活動量検出部612は、在室者の有無および人
数、足元位置、姿勢、着衣量、皮膚表面温度、活動量の
いずれかの検出を行うことを目的とした画像処理装置の
応用機器に用いることも可能である。例えば、本実施例
の人間領域検出部を用いた侵入者の検知を行う防犯装
置。人数検出手段を用いた室内の混雑度合いの検出装
置。さらに、足元位置検出手段または活動量検出部を用
いた、人の位置に応じて照明や音などの環境を制御する
装置。姿勢検出手段、着衣量検出手段、皮膚温度検出手
段を用いた、医療や看護に用いられる患者や病人の状態
を検出する装置などが考えられる。
The image processing apparatus or the activity amount detection unit 612 according to the first to third embodiments detects presence / absence and number of persons in the room, foot position, posture, clothing amount, skin surface temperature, and activity amount. It is also possible to use the present invention in an application device of an image processing apparatus for performing the following. For example, a security device that detects an intruder using the human area detection unit of the present embodiment. A device for detecting the degree of congestion in a room using a number of people detecting means. Further, an apparatus that controls an environment such as lighting and sound according to a position of a person, using a foot position detecting unit or an activity amount detecting unit. An apparatus that detects the state of a patient or a sick person used in medical care or nursing using the posture detecting means, the clothing amount detecting means, and the skin temperature detecting means can be considered.

【0137】以下、本発明の第6の実施例について説明
する。図54は、本発明第6の実施例の制御指標決定部
の構成図である。他の構成は図53に示す第5の実施例
と同様である。680は室内に在室者が居ない場合の制
御指標を出力する不在時制御指標決定部である。図55
に不在時制御指標決定部の構成を示す。690は画像処
理装置606から得られる人数から、在室者の有無(以
降、在室データと呼ぶ)を判定し、時系列データとして
記憶する在室データ記憶手段、691は在室パターン分
類手段、692はベース温度変換手段である。ここで、
ベース温度とは最低限は維持する温度レベルであり、暖
房と冷房では異なる。
Hereinafter, a sixth embodiment of the present invention will be described. FIG. 54 is a configuration diagram of the control index determination unit according to the sixth embodiment of this invention. Other configurations are the same as those of the fifth embodiment shown in FIG. Reference numeral 680 denotes an absent control index determination unit that outputs a control index when no occupant is present in the room. FIG.
2 shows the configuration of the absence control index determination unit. Reference numeral 690 denotes an occupancy data storage unit that determines presence / absence of occupants (hereinafter referred to as occupancy data) based on the number of people obtained from the image processing apparatus 606 and stores the data as time-series data. 692 is a base temperature conversion means. here,
The base temperature is a minimum maintained temperature level, which differs between heating and cooling.

【0138】以下に、不在時制御指標決定部680の動
作について説明する。在室データ記憶手段690では画
像処理装置606から得られる人数から、人の有無を在
室者が居る場合を1、居ない場合を0とし検出する。こ
の0、1のデータは、実際の在不在は部屋への人の出入
りで大きく変化するので、特徴を明確にするために、1
0分を1単位にし、例えば10分以上継続して人数が0
人の場合のみ0で、それ以外は1とする。また、在室デ
ータ記憶手段690の記憶容量低減のためデータ圧縮な
どを行うことも可能である。在室データ記憶手段690
では1日分の在室データを当日より、一定期間だけさか
のぼった日数分、記憶するようにデータ管理も行う。当
日より一定期間保存し、古いデータを用いないのは、あ
まり古いデータを以降で求める在室率算出のために用い
ることは、最近の生活実態を反映しない可能性が大きい
からである。ここでは、60日を上限としている。次に
在室パターン分類手段691ではカレンダーからの日の
属性の情報を基に、当日と日の属性が同じ日の在室デー
タを集め、時刻別の在室率を求める。図56(a)に実
際の家庭の居間における平日の在室率を、図56(b)
に休日の在室率を示す。横軸は時刻で午前4:00を起
点とし単位は30分である。縦軸は在室率で、ある時間
帯に在室した頻度を全平日、または全休日の日数で割っ
た値に100をかけたものである。これらの図から分か
るように日の属性が異なれば在室パターンも異なってく
る。それゆえ、ここでは、日の属性で在室パターンの分
類を行っている。
The operation of the absence control index determining unit 680 will be described below. The occupancy data storage unit 690 detects the presence or absence of a person as 1 if the occupant is present and 0 if not, based on the number of people obtained from the image processing device 606. The data of 0 and 1 indicate that the actual presence / absence greatly changes when a person enters / exits the room.
0 minutes as one unit, for example, if the number of people is 0 for 10 minutes or more
It is 0 only for humans and 1 otherwise. It is also possible to perform data compression or the like to reduce the storage capacity of the occupancy data storage means 690. In-room data storage means 690
Then, data management is also performed so that the room occupancy data for one day is stored for a certain number of days from the current day. The reason why the data is stored for a certain period from the day and the old data is not used is that the use of too old data for calculating the occupancy rate for obtaining the later data is likely to not reflect the recent life situation. Here, the upper limit is 60 days. Next, based on the attribute information of the day from the calendar, the occupancy pattern classification means 691 collects the occupancy data of the same day and the attribute of the day, and obtains the occupancy rate by time. FIG. 56 (a) shows actual room occupancy rates in the living room of the home, and FIG. 56 (b)
Shows the occupancy rates on holidays. The abscissa represents the time at 4:00 am and the unit is 30 minutes. The vertical axis is the occupancy rate, which is obtained by multiplying 100 by a value obtained by dividing the frequency of occupancy in a certain time period by the number of days on all weekdays or all holidays. As can be seen from these figures, if the attribute of the day is different, the occupancy pattern will be different. Therefore, here, the occupancy patterns are classified based on the attribute of the day.

【0139】図57に在室パターンの分類処理の例を示
す。700は在室データ記憶手段690に記憶されてい
る在室データ、701はカレンダー、702はカレンダ
ー701より得られる曜日情報、703は各曜日毎の在
室パターンである。例えば当日が水曜日の場合、在室デ
ータ記憶手段609に記憶されている在室データの中の
水曜日のデータのみ抽出し、各時間帯毎に頻度を計数す
る。そして、この時刻別の頻度を全水曜日の日数で割る
ことで時刻別在室率を求める。そして、水曜日の在室パ
ターンとして記憶する。
FIG. 57 shows an example of the processing for classifying an occupancy pattern. 700 is occupancy data stored in the occupancy data storage means 690, 701 is a calendar, 702 is day information obtained from the calendar 701, and 703 is an occupancy pattern for each day. For example, when the current day is Wednesday, only data on Wednesday is extracted from the in-room data stored in the in-room data storage unit 609, and the frequency is counted for each time zone. Then, the occupancy rate by time is obtained by dividing the frequency by time by the number of days on all Wednesdays. Then, it is stored as a room presence pattern on Wednesday.

【0140】次に、ベース温度変換手段692では、こ
の在室パターンを基本としてベース温度の値を算出す
る。図58に在室パターンとベース温度の関係を示す。
710は時刻別在室率、711は出力であるベース温
度、712は在室時の標準的な設定温度である。グラフ
の横軸は時刻、左縦軸は在室率、右縦軸は温度である。
ベース温度変換方法は、ベース温度のとり得る値の範囲
を下限p度から上限q度、現在時刻をt、tにおけるベ
ース温度をy(t)、tにおける在室率をz(t)とし
た場合、 y(t)=(q−p)×z(t+1)+p の式で定める。ただし時刻の単位は1時間である。第5
の実施例に示した生活シーン推定部670で退室シーン
となり、在室者が不在と判断した場合、時刻別のベース
温度の値を目標値にしスケジュールに従ってベース温度
を変化させる。そして、人の入室が検知された場合、在
室者が居る場合の制御指標に目標値を切り替える。この
ように在室率をベース温度に反映することで、室内環境
を人が入室する前にスタンバイを行うことができ、かつ
不在が多い時間帯は低めのベース温度を定めることがで
きるので経済性にも優れた空調が実現できる。また、特
別な場合を除きタイマーを用いる必要がなくなる。
Next, the base temperature conversion means 692 calculates the value of the base temperature based on the occupancy pattern. FIG. 58 shows the relationship between the occupancy pattern and the base temperature.
710 is an occupancy rate by time, 711 is a base temperature as an output, and 712 is a standard set temperature at the time of occupancy. The horizontal axis of the graph is time, the left vertical axis is the occupancy rate, and the right vertical axis is temperature.
In the base temperature conversion method, the range of possible values of the base temperature is defined as lower limit p degrees to upper limit q degrees, the current time is defined as t, the base temperature at t as y (t), and the occupancy at t as z (t). In this case, y (t) = (q−p) × z (t + 1) + p. However, the unit of time is one hour. Fifth
If the life scene estimating unit 670 shown in the embodiment shows the exit scene and it is determined that the occupant is absent, the base temperature value for each time is set as the target value and the base temperature is changed according to the schedule. Then, when the entry of a person is detected, the target value is switched to the control index when there is a occupant. By reflecting the occupancy rate on the base temperature in this way, standby can be performed before a person enters the indoor environment, and a lower base temperature can be set during times when there are many absences, so economy is improved. Excellent air conditioning can be realized. Also, there is no need to use a timer except in special cases.

【0141】なお、本実施例では曜日を在室パターンの
分類属性の基本としているが、全在室データの中から類
似の傾向を持つ在室データをパターン分類し、パターン
分けされた日の属性の特徴を在室データから得ることも
可能である。さらに、画像処理部を除き、人体の有無の
みを検知する人体検知センサの出力を用いて、室内の在
不在を判断し、在室時の制御指標を決定する在室時制御
指標決定部と、前記在室パターン分類とベース温度変換
を持つ不在時空調制御指標決定部を有する構成とするこ
とも可能である。この場合の在室時制御指標は温度でも
快適度でもよい。また、不在時についてもベース温度で
なく最低限維持する快適度を用いることで快適度PMV
を制御指標とすることも可能である。
In this embodiment, the day of the week is used as the basis of the classification attribute of the room occupancy pattern. Can be obtained from the occupancy data. Further, except for the image processing unit, using the output of a human body detection sensor that detects only the presence or absence of a human body, to determine the presence or absence of the room, the in-room control index determination unit to determine the control index when in the room, An absent air conditioning control index determination unit having the room pattern classification and the base temperature conversion may be provided. In this case, the in-room control index may be temperature or comfort level. In addition, even when the user is absent, the comfort level PMV is maintained by using the minimum comfort level instead of the base temperature.
May be used as a control index.

【0142】以下、本発明の第7の実施例について説明
する。第7の実施例では図59に示すように、第4の実
施例の制御指標決定部611と空調制御部614の間に
リモコン学習部720とリモコン721を設け、利用者
の制御指標に関するリモコン操作を利用者の好み、とし
て学習し、制御指標決定部611で算出された制御指標
を補正するものである。
Hereinafter, a seventh embodiment of the present invention will be described. In the seventh embodiment, as shown in FIG. 59, a remote control learning unit 720 and a remote control 721 are provided between the control index determination unit 611 and the air conditioning control unit 614 of the fourth embodiment, and Is learned as the user's preference, and the control index calculated by the control index determination unit 611 is corrected.

【0143】図60は本発明第7の実施例のリモコン学
習部720の構成図である。図60において731は学
習手段を示す。学習手段731は、各種の方法がある
が、本実施例ではニューラルネットワークを例としてし
て示す。732は快適度補正手段である。733は快適
度検出部613で算出された快適度、734は生活シー
ン推定部670で推定された生活シーン、735は時刻
およびカレンダ、736は使用者が快適度を申告したリ
モコンから得られる操作パネル操作信号、737は快適
度の補正値、738は最終的な制御指標となる目標快適
度である。
FIG. 60 is a block diagram of a remote control learning section 720 according to the seventh embodiment of the present invention. In FIG. 60, reference numeral 731 denotes a learning means. There are various methods for the learning means 731. In this embodiment, a neural network is shown as an example. 732 is a comfort level correction unit. 733 is the comfort level calculated by the comfort level detection unit 613, 734 is the life scene estimated by the life scene estimation unit 670, 735 is the time and calendar, and 736 is an operation panel obtained from a remote controller to which the user has declared the comfort level. An operation signal, 737 is a comfort level correction value, and 738 is a target comfort level as a final control index.

【0144】以上のような図60の構成において、以下
その動作について説明する。制御指標決定部611とリ
モコン721から得られた、算出された快適度733、
生活シーン734、時刻・カレンダ735、使用者の快
適度を申告したリモコンからの操作パネル操作信号73
6のいずれかを、入力信号として学習手段731の構成
要素であるニューラルネットワークに入力する。ニュー
ラルネットワークは、使用者が快適度の申告したリモコ
ンの操作を推測する。つまり、制御指標決定部611で
算出した快適度に対して利用者が、例えば「暑い」、
「寒い」などの申告を行ったことを、利用者の好みと判
断し、同様の環境要素や人間の要素が観測されたときに
利用者の好みの内容に基づいて、制御指標を補正するの
である。ニューラルネットワークから出力された使用者
の快適度の補正値737を快適度補正手段732に入力
し、算出快適度733と演算されて目標快適度738を
生成する。演算方法は、最も簡単な方法は加えることで
あり、複雑になると快適度補正値737と算出快適度7
33の情報を引数とする線形または非線形の関数で行う
こともできる。学習手段731は各手段の入力値733
から735を、リモコン操作信号736を教師信号とし
て、ニューラルネットの学習を行う。学習終了後、ニュ
ーラルネットワーク内の状態を変更する。ニューラルネ
ットワークは、パターン分類型の各種のモデルが使える
が、本実施例では、LVQ(learning vector quantu
m:参考文献、T.Kohonen,"Self-Organization and Asso
c-iative Memory",2ed,Springer-Verlag,1988)を例に
示す。図61に基づいて本実施例で用いたニューラルネ
ットワークのフォワード計算について説明する。図61
の740は入力信号正規化部であり、741は参照情報
部であり、人間の意思に合わせた3個のカテゴリとそれ
ぞれにm個の参照情報がある。742は距離計算算出部
であり、743はカテゴリ算出部である。以上のような
図61の構成において、以下その動作について説明す
る。入力信号744は入力信号正規化部において、正規
化される。すなわち、入力信号正規化部740では Sx1 =(xmax−x1)/(xmax−xmin) ……(1) Sx1:正規化された信号値 xmax :入力信号がとる最大値 xmin :入力信号がとる最小値 式(1)に示される処理を入力信号全てに対し行う。入
力信号は、温度、快適度、生活シーン、時刻等である。
入力信号正規化部740により正規化された信号は入力
ベクトル745として距離算出部742に出力される。
距離算出部742では、入力ベクトルと参照情報部74
1の人間の意思を表す暑い、寒い、満足の各カテゴリの
参照情報との距離を算出する。すなわち、暑いカテゴリ
の参照情報との距離(dAj)は式2により求める。
The operation of the above configuration shown in FIG. 60 will be described below. The calculated comfort level 733 obtained from the control index determination unit 611 and the remote controller 721,
Life scene 734, time / calendar 735, operation panel operation signal 73 from remote control declaring user's comfort level
6 is input as an input signal to a neural network which is a component of the learning means 731. The neural network estimates the operation of the remote controller for which the user has reported the comfort level. In other words, for the comfort level calculated by the control index determination unit 611, the user may select, for example, "hot"
Declaring "cold" etc. is judged to be the user's preference, and when similar environmental factors and human factors are observed, the control index is corrected based on the content of the user's preference. is there. The correction value 737 of the user's comfort output from the neural network is input to the comfort correction means 732, and the calculated comfort 733 is calculated to generate the target comfort 738. As for the calculation method, the simplest method is to add. When the calculation becomes complicated, the comfort correction value 737 and the calculated comfort 7
It can also be performed by a linear or non-linear function using the information of 33 as an argument. The learning means 731 has an input value 733 of each means.
To 735 using the remote control operation signal 736 as a teacher signal to perform neural network learning. After the learning, the state in the neural network is changed. In the neural network, various models of a pattern classification type can be used, but in this embodiment, an LVQ (learning vector quantu- lation) is used.
m: References, T. Kohonen, "Self-Organization and Asso
c-iative Memory ", 2ed, Springer-Verlag, 1988) The forward calculation of the neural network used in this embodiment will be described with reference to FIG.
Numeral 740 denotes an input signal normalizing unit, and 741 denotes a reference information unit. There are three categories according to human intention and m reference information in each of the three categories. 742 is a distance calculation / calculation unit, and 743 is a category calculation unit. The operation of the above configuration shown in FIG. 61 will be described below. The input signal 744 is normalized in an input signal normalizing section. That is, in the input signal normalizing section 740, Sx1 = (xmax-x1) / (xmax-xmin) (1) Sx1: normalized signal value xmax: maximum value of the input signal xmin: minimum value of the input signal The processing shown in the value equation (1) is performed on all input signals. The input signal is temperature, comfort level, life scene, time, and the like.
The signal normalized by the input signal normalization unit 740 is output to the distance calculation unit 742 as an input vector 745.
In the distance calculation unit 742, the input vector and the reference information unit 74
The distance to the reference information of each of the hot, cold, and satisfying categories representing one human intention is calculated. That is, the distance (dAj) from the reference information of the hot category is obtained by Expression 2.

【0145】 dAj = Σ(xi−Raji)2 ……(2) dAj:j番目の参照情報との距離 xi :i番目の入力ベクトル値 Raji:j番目の参照情報のi番目のベクトル値 参照情報部741のディレクトリ746を参照し、カテ
ゴリ数3と各カテゴリの参照情報数を算出する。
DAj = Σ (xi-Raji) 2 (2) dAj: distance from j-th reference information xi: i-th input vector value Raji: i-th vector value of j-th reference information Reference information The number of categories 3 and the number of pieces of reference information of each category are calculated with reference to the directory 746 of the unit 741.

【0146】各カテゴリに対し参照情報と入力ベクトル
との距離を算出し、さらに全てのカテゴリに対しても同
様の処理を行い、距離を算出する。距離算出部742
で求める距離の総数(dnum)は、 dnum = m1+m2+・・・+mN ……(3) となる。次に距離算出部742で求めた距離dNjとd
numはカテゴリ算出部743に出力される。カテゴリ
算出部743では、dnum個の距離で最も短い距離d
minを算出し、さらに該当参照情報が属するカテゴリ
を算出する。
The distance between the reference information and the input vector is calculated for each category, and the same processing is performed for all the categories to calculate the distance m . Distance calculator 742
The total number (dnum) of the distances m obtained by is: dnum = m1 + m2 +... + MN (3) Next, the distances dNj and d obtained by the distance calculation unit 742
num is output to the category calculation unit 743. In the category calculation unit 743, the shortest distance d among the dnum distances d
min is calculated, and the category to which the corresponding reference information belongs is calculated.

【0147】入力ベクトルと最短距離にある参照情報が
属するカテゴリをカテゴリ算出部743の出力とする。
すなわち、図60の学習手段731の構成要素であるニ
ューラルネットワークの出力となる。この出力は、快適
度補正部732で快適度の補正値737として、快適度
検出部613で算出された快適度に加えられる等の演算
が行われる。
The category to which the reference information located at the shortest distance from the input vector belongs is set as the output of the category calculating section 743.
That is, it is an output of a neural network which is a component of the learning means 731 in FIG. This output is subjected to calculations such as being added to the comfort level calculated by the comfort level detection section 613 as a comfort level correction value 737 by the comfort level correction section 732.

【0148】図62を用いてニューラルネットワークの
学習の詳細な説明をする。図62において、入力正規化
部750は図61の入力信号正規化部740と共通の入
力信号を正規化し、入力ベクトルに変換する。参照情報
部751も図61と共通の参照情報部ある。752は参
照情報検索手段、753は参照情報生成部、754は参
照情報学習部である。以上のような構成において、以下
その動作について説明する。
The learning of the neural network will be described in detail with reference to FIG. 62, an input normalizing section 750 normalizes an input signal common to the input signal normalizing section 740 of FIG. 61 and converts it into an input vector. The reference information section 751 is also a reference information section common to FIG. Reference numeral 752 is a reference information search unit, 753 is a reference information generation unit, and 754 is a reference information learning unit. The operation of the above configuration will be described below.

【0149】入力信号正規化部750で正規化された入
力信号は、入力ベクトルとして、参照情報検索部752
で入力される。さらに入力ベクトルの正しいカテゴリ
(教師データ)も同時に入力される。参照情報検索部7
52では、参照情報部751のディレクトリを参照し、
入力ベクトルの正しいカテゴリ(TC)が、例えば暑い
カテゴリの場合、暑いカテゴリの参照情報数が以下の様
な関係にある時、次のような処理を行う。
The input signal normalized by the input signal normalizing section 750 is used as an input vector as a reference information search section 752.
Is entered. Further, the correct category (teacher data) of the input vector is also input at the same time. Reference information search unit 7
At 52, the directory of the reference information section 751 is referred to,
If the correct category (TC) of the input vector is, for example, a hot category, the following processing is performed when the number of pieces of reference information of the hot category has the following relationship.

【0150】ARNUM < ARNUMmax ならば
参照情報生成部753の処理を行う。
If ARNUM <ARNUMmax, the processing of the reference information generation unit 753 is performed.

【0151】ARNUM ≧ ARNUMmax ならば
参照情報学習部754の処理を行う。 ARNUM:暑いカテゴリの参照情報数 ARNUMmax:暑いカテゴリの参照情報最大数 参照情報生成部753では入力ベクトルを正しいカテゴ
リ(TC)の参照情報として生成する。ここでは、暑い
カテゴリの参照情報を生成し、ARNUMを1増やす。
参照情報学習部754では、リモコン操作手段の出力値
と入力ベクトルの正しいカテゴリを比較し、一致してい
る場合は、一番距離の短い参照情報を近づける。またリ
モコン操作手段の出力値と入力ベクトルの正しいカテゴ
リが一致していない場合は、一番距離の短い参照情報を
遠ざける。すなわち、 OC = TC ならば RV = RV + α(RV − Sx) OC ≠ TC ならば RV = RV − α(RV − Sx) RV:入力ベクトルと一番距離の短いリファレンスベクトル OC:出力カテゴリ(RVのカテゴリ) TC:入力ベクトルの正しいカテゴリ Sx:入力ベクトル α :学習レート 従って、参照情報学習部754では参照情報数が参照情
報の最大値を超えるまでは、入力ベクトルを入力ベクト
ルの正しいカテゴリの参照情報として生成する。また、
最大値を超えてからは、出力カテゴリと入力カテゴリが
一致した場合は、参照情報を入力ベクトルの方向へ、少
し近づけ、一致しない場合は、参照情報を入力ベクトル
から少し遠ざける。近づけたり、遠ざけたりする距離は
学習レートαで設定する。
If ARNUM ≧ ARNUMmax, the processing of the reference information learning unit 754 is performed. ARUNM: the number of reference information of a hot category ARUNUM: the maximum number of reference information of a hot category The reference information generation unit 753 generates an input vector as reference information of a correct category (TC). Here, reference information of a hot category is generated, and ARUNM is increased by one.
The reference information learning unit 754 compares the output value of the remote control operation unit with the correct category of the input vector, and if they match, brings the shortest reference information closer. If the output value of the remote controller does not match the correct category of the input vector, the reference information having the shortest distance is kept away. That is, if OC = TC, then RV = RV + α (RV−Sx) if OC ≠ TC, then RV = RV−α (RV−Sx) RV: the input vector and the shortest reference vector OC: the output category (RV TC: correct category of input vector Sx: input vector α: learning rate Accordingly, the reference information learning unit 754 refers to the correct category of the input vector until the number of reference information exceeds the maximum value of the reference information. Generate as information. Also,
After the maximum value is exceeded, when the output category and the input category match, the reference information is slightly moved in the direction of the input vector, and when they do not match, the reference information is slightly moved away from the input vector. The distance to approach or move away is set by the learning rate α.

【0152】以上のようにニューラルネットワークによ
るリモコン操作の学習を行うことにより、入力データの
組み合わせを変えることで、快適度や生活シーン毎の制
御指標の補正が行えるので、利用者の好みに合った空調
を実現することが可能となる。また、リモコンにリモコ
ン位置センサを設置し、足元位置情報とリモコン位置セ
ンサの対応を調べニューラルネットワークの入力要素と
することで、個人毎の制御指標の補正や、人体の位置毎
の制御指標の補正を行うことも可能である。
As described above, by learning the remote control operation using the neural network, by changing the combination of the input data, it is possible to correct the comfort index and the control index for each life scene. Air conditioning can be realized. In addition, by installing a remote control position sensor on the remote control and checking the correspondence between the foot position information and the remote control position sensor and using it as an input element of the neural network, it is possible to correct the control index for each individual and the control index for each position of the human body It is also possible to do.

【0153】以下、本発明の第8の実施例について説明
する。第8の実施例は、本発明の画像処理装置を用いた
交通流制御装置に関するものである。ここでいう交通流
とは、人間の運搬もしくは交通に関する人の流れであ
り、エレベータや信号機、輸送車両などである。従来の
交通流制御手段は、エレベータのかご荷重の変化を検出
して交通流を予測し制御するものがあったが、この方式
だと人数検出が遅れてしまい、制御が後追い的な制御に
なることが多かった。本交通流制御装置は、交通手段を
待っている人間の人数を、通行者と区別し正確に検出
し、その結果を用いて交通流を制御する。図63に第8
の実施例の構成図を示す。800は画像処理装置、80
1は交通流分類手段、802は交通流予測手段、803
は交通流制御手段である。以上のような構成で、画像処
理装置800より人数、とりわけ車両やエレベータなど
を待っている人間の人数を得る。次に、交通流分類手段
801では画像処理装置800から得られる人数の時系
列データから人数の増減に関する特徴量を抽出しパター
ン分類する。つまり、どの時間帯に混雑するかなどを分
類する。交通流予測手段802では、画像処理装置80
0から得られる現在の人数と、交通流分類パターンから
交通流を予測する。例えば、エレベータなどの場合混雑
しそうな時間帯と階数を予測する。交通流制御手段80
3では予測された交通流をもとに、例えば、各階の人の
待ち時間が少なくなるように複数のエレベータの運行を
最適制御する。
Hereinafter, an eighth embodiment of the present invention will be described. The eighth embodiment relates to a traffic flow control device using the image processing device of the present invention. The traffic flow referred to here is a flow of a person related to transportation or transportation of a person, such as an elevator, a traffic light, and a transportation vehicle. Conventional traffic flow control means detects changes in elevator car load and predicts and controls traffic flow, but this method delays the detection of the number of people, and the control is a follow-up control. There were many things. This traffic flow control device accurately detects the number of people waiting for a means of transportation, distinguishing them from passers-by, and controls the traffic flow using the result. Figure 63 eighth
1 shows a configuration diagram of an embodiment of FIG. 800 is an image processing device, 80
1 is a traffic flow classification means, 802 is a traffic flow prediction means, 803
Is a traffic flow control means. With the above configuration, the number of people, particularly the number of people waiting for a vehicle or an elevator, is obtained from the image processing apparatus 800. Next, the traffic flow classification unit 801 extracts a feature amount related to the increase / decrease of the number of persons from the time series data of the number of persons obtained from the image processing apparatus 800 and classifies the pattern. In other words, it is classified into which time zone is crowded. In the traffic flow prediction means 802, the image processing device 80
The traffic flow is predicted from the current number of people obtained from 0 and the traffic flow classification pattern. For example, in the case of an elevator or the like, a time zone and a floor that are likely to be crowded are predicted. Traffic flow control means 80
In step 3, based on the predicted traffic flow, for example, the operation of a plurality of elevators is optimally controlled so that the waiting time of the person on each floor is reduced.

【0154】[0154]

【発明の効果】本発明の画像処理装置は、足元位置検出
部では姿勢の種類により位置判定部の内部を例えば、立
位用と座位用と言うように判定する姿勢の数に合わせて
分けて判定を行い、位置判定部からの出力を姿勢判別部
からの出力によって選択、選別している。このような処
理を行うことで、より正確な位置検出が可能となる。
According to the image processing apparatus of the present invention, the inside of the position judging unit is divided according to the type of posture in the step position detecting unit, for example, according to the number of postures to be judged as standing and sitting. The determination is performed, and the output from the position determination unit is selected and sorted based on the output from the posture determination unit. By performing such processing, more accurate position detection becomes possible.

【0155】また、検出エリア内の環境情報、例えば室
内であればセンサに対する室内の大きさや壁面の位置等
の構造情報は熱画像から検出することは難しいために、
使用者が直接コンソール部から入力して正確な位置検出
や姿勢の検出の補助情報として用いることができる。
Further, since it is difficult to detect environmental information in the detection area, for example, structural information such as the size of the room and the position of the wall surface with respect to the sensor if the room is indoors, it is difficult to detect from the thermal image.
The information can be directly input from the console unit by the user and used as auxiliary information for accurate position detection and posture detection.

【0156】[0156]

【0157】[0157]

【0158】[0158]

【0159】また以上のように本発明の空気調和機の制
御装置は、室内の在室者および環境の温度を計測する赤
外線画像入力手段を持つ画像処理装置と、画像処理装置
から得られる個人情報および環境情報から空調を行うた
めの制御指標を決める制御指標決定部と、空調機器の制
御を行う空調制御部を有し、様々な環境条件を考慮にい
れた上での、在室者の個人個人の位置や状態に応じた快
適な空調を実現することができる。また、熱画像を画像
処理することで個人情報や環境情報を抽出するので、複
数のセンサーを室内に配置する必要がなくなり、具現化
が行い易い。
As described above, the control device of the air conditioner according to the present invention includes an image processing apparatus having an infrared image input means for measuring the temperature of a room occupant and the environment, and personal information obtained from the image processing apparatus. It has a control index determination unit that determines a control index for air conditioning from environmental information and environmental control, and an air conditioning control unit that controls air conditioning equipment. Comfortable air conditioning according to the position and condition of the individual can be realized. Further, since personal information and environmental information are extracted by performing image processing on the thermal image, it is not necessary to dispose a plurality of sensors indoors, and it is easy to realize the embodiment.

【0160】また、上記構成に在室データ記憶手段、在
室パターン分類手段、ベース温度変換手段の構成からな
る不在時制御指標決定部を付加することにより、タイマ
ーをなくすことができると共に快適性と経済性を兼ね備
えた空調運転が可能となる。
Further, by adding an absent-control index determining unit having the configuration of the occupancy data storage means, the occupancy pattern classification means, and the base temperature conversion means to the above configuration, it is possible to eliminate the timer and to improve comfort. The air-conditioning operation which has economy can be performed.

【0161】さらに、上記構成にリモコン操作学習部を
付加することにより、利用者の好みを反映した空調制御
が可能となる。
Further, by adding a remote control operation learning unit to the above configuration, it becomes possible to perform air conditioning control reflecting the user's preference.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例における画像処理装置の
構成図
FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】(a) 同実施例における熱画像の例を示す図 (b) 同実施例における平面図の例を示す図2A is a diagram illustrating an example of a thermal image according to the embodiment; FIG. 2B is a diagram illustrating an example of a plan view according to the embodiment;

【図3】同実施例における人間領域検出部の構成図FIG. 3 is a configuration diagram of a human area detection unit in the embodiment.

【図4】同実施例における熱画像のブロック分割例を示
す図
FIG. 4 is a diagram showing an example of block division of a thermal image in the embodiment.

【図5】同実施例における差分画像を用いた人間領域検
出部の構成図
FIG. 5 is a configuration diagram of a human region detection unit using a difference image in the embodiment.

【図6】同実施例における差分画像の作成例を示す図FIG. 6 is a diagram showing an example of creating a difference image in the embodiment.

【図7】同実施例における個人情報抽出部の構成図FIG. 7 is a configuration diagram of a personal information extraction unit in the embodiment.

【図8】同実施例における人数特徴検出手段の構成図FIG. 8 is a configuration diagram of a number-of-persons characteristic detecting unit in the embodiment.

【図9】同実施例における人数判定例を示す図FIG. 9 is a diagram showing an example of the number of persons determined in the embodiment.

【図10】同実施例におけるニューラルネットワークを
用いた人数検出手段の構成図
FIG. 10 is a configuration diagram of a number detection means using a neural network in the embodiment.

【図11】同実施例における足元位置の検出の構成図FIG. 11 is a configuration diagram of detection of a foot position in the embodiment.

【図12】立位の人間の熱画像模式図FIG. 12 is a schematic diagram of a thermal image of a standing human.

【図13】同実施例における位置判定特徴量の算出方法
を示す図
FIG. 13 is a view showing a method for calculating a position determination feature amount in the embodiment.

【図14】同実施例における姿勢の検出の構成図FIG. 14 is a configuration diagram of posture detection in the embodiment.

【図15】同実施例における姿勢検出手段の処理例を示
す図
FIG. 15 is a diagram showing a processing example of a posture detecting unit in the embodiment.

【図16】同実施例における人間画素ブロックの標準化
の手順を示す図
FIG. 16 is a view showing a procedure of standardizing a human pixel block in the embodiment.

【図17】同実施例における姿勢判定特徴量の算出方法
を示す図
FIG. 17 is a view showing a method for calculating a posture determination feature amount in the embodiment.

【図18】同実施例における画像情報検出部の一部の構
成図
FIG. 18 is a configuration diagram of a part of an image information detection unit in the embodiment.

【図19】同実施例における個人情報抽出部の構成図FIG. 19 is a configuration diagram of a personal information extraction unit in the embodiment.

【図20】同実施例における皮膚温度の検出の構成図FIG. 20 is a configuration diagram of skin temperature detection in the embodiment.

【図21】(a) 同実施例における立位の人間のブロ
ック分割例を示す図 (b) 同実施例における座位の人間のブロック分割例
を示す図
FIG. 21 (a) is a diagram showing an example of block division of a standing person in the embodiment. (B) is a diagram showing an example of block division of a sitting person in the embodiment.

【図22】同実施例における着衣量の検出の構成図FIG. 22 is a configuration diagram of detection of a clothing amount in the embodiment.

【図23】同実施例における環境抽出部の構成図FIG. 23 is a configuration diagram of an environment extraction unit in the embodiment.

【図24】同実施例における足元温度検出手段の構成図FIG. 24 is a configuration diagram of a foot temperature detection unit in the embodiment.

【図25】同実施例における足元温度検出手段の処理例
を示す図
FIG. 25 is a diagram showing a processing example of a foot temperature detecting unit in the embodiment.

【図26】(a) 同実施例における中央設置の場合の
室内各部位の熱画像を示す図 (b) 同実施例における左設置の場合の室内各部位の
熱画像を示す図
FIG. 26 (a) is a diagram showing a thermal image of each part of the room in the case of a central installation in the embodiment. (B) A diagram showing a thermal image of each part of the room in the case of a left installation in the embodiment.

【図27】同実施例における輻射温度検出手段の構成図FIG. 27 is a configuration diagram of a radiation temperature detection unit in the embodiment.

【図28】同実施例における異なる環境抽出部の構成図FIG. 28 is a configuration diagram of a different environment extraction unit in the embodiment.

【図29】同実施例における異なる画像処理部の構成図FIG. 29 is a configuration diagram of a different image processing unit in the embodiment.

【図30】同実施例における人間領域補正部の構成図FIG. 30 is a configuration diagram of a human area correction unit in the embodiment.

【図31】同実施例における累積処理部の構成図FIG. 31 is a configuration diagram of an accumulation processing unit in the embodiment.

【図32】同実施例における位置累積の例を示す図FIG. 32 is a diagram showing an example of position accumulation in the embodiment.

【図33】同実施例における累積記憶Aと累積記憶Bの
関係を表わす図
FIG. 33 is a diagram showing a relationship between cumulative storage A and cumulative storage B in the embodiment.

【図34】同実施例における空調機設置位置の判断方法
を示す図
FIG. 34 is a diagram showing a method for determining an air conditioner installation position in the embodiment.

【図35】同実施例における室内代表点の判断方法を示
す図
FIG. 35 is a diagram showing a method of determining a room representative point in the embodiment.

【図36】本発明の第2の実施例における画像処理装置
の構成図
FIG. 36 is a configuration diagram of an image processing apparatus according to a second embodiment of the present invention.

【図37】本発明の第3の実施例における画像処理装置
の構成図
FIG. 37 is a configuration diagram of an image processing apparatus according to a third embodiment of the present invention.

【図38】本発明の第3の実施例における画像処理装置
に監視情報検出部を付加した画像処理装置の構成図
FIG. 38 is a configuration diagram of an image processing apparatus in which a monitoring information detection unit is added to the image processing apparatus according to the third embodiment of the present invention.

【図39】同実施例に個人識別部を付加した画像処理装
置の構成図
FIG. 39 is a configuration diagram of an image processing apparatus in which a personal identification unit is added to the embodiment.

【図40】本発明の複数の画像処理装置を出力を統合す
る統合処理部の構成図
FIG. 40 is a configuration diagram of an integrated processing unit that integrates outputs of a plurality of image processing apparatuses according to the present invention.

【図41】本発明の第4の実施例における画像処理装置
を用いた空気調和機の制御装置の構成図
FIG. 41 is a configuration diagram of a control device of an air conditioner using an image processing device according to a fourth embodiment of the present invention.

【図42】同実施例における活動量検出部の構成図FIG. 42 is a configuration diagram of an activity amount detection unit in the embodiment.

【図43】(a) 同実施例における床面位置分割を示
す図 (b) 同実施例における記憶されている個人情報の一
例を示す図
FIG. 43 (a) is a diagram showing floor position division in the embodiment. (B) is a diagram showing an example of stored personal information in the embodiment.

【図44】(a) 同実施例における滞在頻度を示す図 (b) 同実施例における滞在頻度と活動量の対応を示
す図
FIG. 44A is a diagram showing stay frequency in the embodiment. FIG. 44B is a diagram showing correspondence between stay frequency and activity amount in the embodiment.

【図45】(a) 同実施例における床面の周辺定義例
を示す図 (b) 同実施例における周辺を含めた滞在頻度算出例
を示す図
FIG. 45 (a) is a diagram showing an example of the definition of the periphery of the floor in the embodiment. (B) is a diagram showing an example of stay frequency calculation including the periphery in the embodiment.

【図46】同実施例における移動量を用いた活動量検出
部の構成図
FIG. 46 is a configuration diagram of an activity amount detection unit using a movement amount in the embodiment.

【図47】実際の掃除のシーンにおける移動距離の一例
を示す図
FIG. 47 is a diagram illustrating an example of a moving distance in an actual cleaning scene.

【図48】同実施例における移動量検出手段の構成図FIG. 48 is a configuration diagram of a movement amount detection unit in the embodiment.

【図49】同実施例における記憶されている個人情報の
一例を示す図
FIG. 49 is a view showing an example of personal information stored in the embodiment.

【図50】(a) 同実施例における期間移動量ランク
Aの導出方法を示す図 (b) 同実施例における期間移動量ランクCの導出方
法を示す図
50A is a diagram showing a method of deriving a period movement amount rank A in the embodiment. FIG. 50B is a diagram showing a method of deriving a period movement amount rank C in the embodiment.

【図51】同実施例における期間移動量などと活動量の
対応を示す図
FIG. 51 is a diagram showing a correspondence between a period movement amount and the like and an activity amount in the embodiment.

【図52】(a) 同実施例における安定時の空調例を
示す図 (b) 同実施例における条件が変化した場合の空調例
を示す図
FIG. 52 (a) is a diagram illustrating an example of air conditioning when the embodiment is stable, and FIG. 52 (b) is a diagram illustrating an example of air conditioning when conditions in the embodiment are changed.

【図53】本発明の第5の実施例における空気調和機の
制御装置の構成図
FIG. 53 is a configuration diagram of a control device for an air conditioner according to a fifth embodiment of the present invention.

【図54】本発明の第6の実施例における制御指標決定
部の構成図
FIG. 54 is a configuration diagram of a control index determination unit according to the sixth embodiment of the present invention.

【図55】同実施例における不在時制御指標決定部の構
成図
FIG. 55 is a configuration diagram of an absence control index determination unit in the embodiment.

【図56】(a) 実家庭における平日の時刻別在室率
を示す図 (b) 実家庭における休日の時刻別在室率を示す図
FIG. 56 (a) is a diagram showing the occupancy rate by weekday in a real home, and (b) is a diagram showing the occupancy rate by time on a holiday in a real home.

【図57】同実施例における在室パターンの分類例を示
す図
FIG. 57 is a view showing an example of classification of occupancy patterns in the embodiment.

【図58】同実施例における在室パターンとベース温度
の関係を示す図
FIG. 58 is a view showing the relationship between the occupancy pattern and the base temperature in the embodiment.

【図59】本発明の第7の実施例における空気調和機の
制御装置の構成図
FIG. 59 is a configuration diagram of a control device for an air conditioner according to a seventh embodiment of the present invention.

【図60】同実施例におけるリモコン学習部の構成図FIG. 60 is a configuration diagram of a remote control learning unit in the embodiment.

【図61】同実施例におけるニューラルネットワークの
フォワード計算の構成図
FIG. 61 is a configuration diagram of a forward calculation of the neural network in the embodiment.

【図62】同実施例におけるニューラルネットワークの
学習の構成図
FIG. 62 is a configuration diagram of learning of a neural network in the embodiment.

【図63】本発明の第8の実施例における交通流の制御
装置の構成図
FIG. 63 is a configuration diagram of a traffic flow control device according to an eighth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 センサー部 2 画像処理部 3 画像情報検出部 460 コンソール部 470 可視センサ部(カメラ) 471 可視画像処理部 472 可視画像情報検出部 480 監視情報検出部 503 統合処理部 611 制御指標決定部 612 活動量検出部 613 快適度検出部 614 空調制御部 670 生活シーン推定部 680 不在時制御指標決定部 720 リモコン操作学習部 DESCRIPTION OF SYMBOLS 1 Sensor part 2 Image processing part 3 Image information detection part 460 Console part 470 Visible sensor part (camera) 471 Visible image processing part 472 Visible image information detection part 480 Monitoring information detection part 503 Integrated processing part 611 Control index determination part 612 Activity amount Detector 613 Comfort detector 614 Air-conditioning controller 670 Living scene estimator 680 Absence control index determining unit 720 Remote control operation learning unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 志田 武彦 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 佐藤 正章 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 ▲吉▼田 邦夫 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 赤嶺 育雄 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 清水 真 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 内田 好昭 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 平3−247939(JP,A) 特開 平2−157551(JP,A) 特開 昭62−240823(JP,A) ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Takehiko Shida 3-10-1, Higashi-Mita, Tama-ku, Kawasaki-shi, Kanagawa Prefecture Inside Matsushita Giken Co., Ltd. (72) Masaaki Sato 3-chome, Higashi-Mita, Tama-ku, Kawasaki-shi, Kanagawa No. 10 No. 1 Matsushita Giken Co., Ltd. (72) Inventor ▲ Yoshi ▼ Kunio Tadashi 3-chome, Tama-ku, Kawasaki City, Kanagawa Prefecture No. 1 Matsushita Giken Co., Ltd. (72) Inventor Ikuo Akamine Kadoma, Osaka 1006 Kadoma Matsushita Electric Industrial Co., Ltd. (72) Inventor Makoto Shimizu 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Yoshiaki Uchida 1006 Kadoma Kadoma, Kadoma City, Osaka Matsushita Electric (56) References JP-A-3-247939 (JP, A) JP-A-2-157551 (JP, A) JP-A-62-240823 (JP, A)

Claims (26)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 少なくとも検出エリア内の人間または環
境の温度を計測する赤外線画像(以降、熱画像と呼ぶ)
を得るセンサ部と、前記熱画像からの温度分布と人間部
分の領域とその代表点を検出し、その領域の大きさと形
状およびその領域と周辺の温度値を特徴量としてそれぞ
れ抽出する画像処理部と、前記画像処理部から抽出され
た特徴量と前記熱画像に基づいて、人間の個人情報とし
て足元位置、姿勢、着衣量、皮膚温度の少なくとも1つ
を、また環境情報として人数と足元位置からの周辺温度
・輻射温度を推定する画像情報検出部とを有することを
特徴とする画像処理装置。
1. An infrared image for measuring at least the temperature of a person or an environment in a detection area (hereinafter referred to as a thermal image)
And a temperature distribution from the thermal image and a human part
The area and its representative point are detected, and the size and shape of the area
Temperature and its surrounding area and surrounding temperature values as features
An image processing unit to be extracted and extracted;
Human information based on the feature amount and the thermal image
At least one of foot position, posture, amount of clothing, and skin temperature
And environmental information as the number of people and the ambient temperature from the foot position
-An image processing apparatus comprising: an image information detection unit that estimates a radiation temperature .
【請求項2】 画像処理部は、すくなくとも計測した熱
画像を記憶する画像記憶部と、熱画像の中から人間部分
の領域(以下、人間画素ブロックと呼ぶ)を検出し、人
間画素ブロックとその代表点を検出する人間領域検出部
と、前記人間領域検出部で検出した人間画素ブロックを
基にその領域の大きさと形状およびその領域と周辺の温
度値を特徴量としてそれぞれ抽出する個人情報抽出部と
有することを特徴とする請求項1記載の画像処理装
置。
Wherein the image processing unit includes an image storing unit for storing the thermal image measured even without to Ku, the region of human parts from the thermal image (hereinafter, referred to as human pixel block) is detected, humans pixel and a human region detecting section that detects a block and its representative point, the human human pixel block detected by the region detecting section of the area based on the size and shape and the area and the surrounding temperature
A personal information extraction unit that extracts the degree value as a feature
The image processing apparatus according to claim 1, wherein a.
【請求項3】 人間領域検出部、計測した熱画像を複
数領域に分割し各領域の代表温度を算出する領域分割代
表温度算出手段と、各領域の代表温度毎に人体の切り出
し温度を定める切り出し温度決定手段と、熱画像を各領
域毎に定められた切り出し温度幅で温度切り出しを行う
人間検出部と、切り出された人間画素ブロックの代表点
を算出する代表点算出部を有することを特徴とする請
求項2記載の画像処理装置。
3. A human region detection unit includes a region division representative temperature calculating means for calculating a representative temperature of each region by dividing the thermal image measured into a plurality of regions, determining a human body cutout temperature for each representative temperature of each area and clipping the temperature determining means, and the human detecting unit that performs temperature cut out thermal image cutout temperature range defined for each of the regions, to have a representative point calculation unit that calculates a representative point of the excised human pixel block the image processing apparatus according to claim 2 Symbol mounting features.
【請求項4】 個人情報抽出部が、前記画像記憶部から
得られる熱画像と、人間領域検出部から得られる人間画
素ブロックとその代表点から、人数を検出するための特
徴量を検出する人数特徴検出部と、前記人数特徴検出部
からの人数特徴量を基に前記画像情報検出部で得られる
人数から、すくなくとも検出エリア内の人間の姿勢を判
定するための特徴量を検出する姿勢判定特徴量検出部
と、同人間の足元位置を判定するための特徴量を検出す
る位置判定特徴量検出部と、同人間の着衣量を判定する
ための特徴量を検出する着衣量判定特徴量検出部と、同
人間の皮膚温度を判定するための特徴量を検出する皮膚
温度判定特徴量検出部のいずれか一つを有することを特
徴とする請求項2記載の画像処理装置。
4. The number of persons for detecting a feature quantity for detecting the number of persons from a thermal image obtained from the image storage unit, a human pixel block obtained from a human area detection unit, and a representative point thereof, a feature detection unit, the number feature detection unit
Wherein the number obtained by the image information detecting unit, and the posture determining feature amount detecting section that detects a characteristic quantity for determining the human attitude of at least the detection area, the foot position of the human number feature amount based on from A position determination feature value detection unit that detects a feature value for determining the amount of clothing, a clothing amount determination feature value detection unit that detects a feature value for determining the clothing amount of the same person, and determines the skin temperature of the same person the image processing apparatus according to claim 2 Symbol placement and having any one of the skin temperature determination feature detector for detecting a feature quantity for.
【請求項5】 人数特徴検出部が、人間領域検出部から
得られる人間画素ブロックとその代表点から、人間画素
ブロックの画素数を計数する画素数算出手段と、前記人
間画素ブロックの形態をその縦横比から形状種別に分類
するブロック形態判定手段と、人間画素ブロックのブロ
ック数を計数する人間画素ブロック計数手段の構成を有
することを特徴とする請求項記載の画像処理装置。
5. A number-of-people characteristic detecting unit, wherein a number-of-pixels calculating means for counting the number of pixels of a human pixel block from a human pixel block obtained from the human region detecting unit and a representative point thereof, 5. The image processing apparatus according to claim 4 , further comprising: a block type determining unit that classifies the image into a shape type based on an aspect ratio, and a human pixel block counting unit that counts the number of human pixel blocks.
【請求項6】 画像情報検出部の人数の検出は、前記人
数特徴検出部から得られる形状種別と、前記人間領域検
出部から得られる画素数とその代表点とからニューラル
ネットを用い人数を推定することを特徴とする請求項
記載の画像処理装置。
6. The detection of the number of persons by the image information detection section includes the step of detecting the shape type obtained from the number of persons feature detection section and the detection of the human area.
Claim to the number of pixels obtained from the output unit and wherein the estimating the number using the neural network from the representative point 5
The image processing apparatus according to any one of the preceding claims.
【請求項7】 画像情報検出部は、個人情報抽出部から
それぞれ抽出した各特徴量から、それぞれニューラルネ
ットを用いて、足元位置、姿勢、皮膚温度、着衣量を推
定することを特徴とする請求項記載の画像処理装置。
7. The image information detecting unit estimates a foot position, a posture, a skin temperature, and a clothing amount from each of the feature amounts extracted from the personal information extracting unit by using a neural network. Item 2. The image processing apparatus according to Item 1 .
【請求項8】 画像情報検出部の皮膚温度の検出は、
人情報抽出部の皮膚温度判定特徴量検出部で算出した皮
膚温度推測用の特徴量と、前記検出された姿勢から、パ
ターン認識機構を持つブロック分割手段により人間の体
の部位に合わせて人間画素ブロックを複数に分割し、ブ
ロック温度算出手段において前記ブロック分割手段から
得られるブロック毎の平均温度を算出し、温度比較手段
により前記ブロック温度算出手段で得られた各ブロック
の温度を比較し皮膚表面に対応するブロックを抽出し、
皮膚温度推測を行うことを特徴とする請求項記載の画
像処理装置。
8. The detection of the skin temperature of the image information detecting section is performed individually.
Based on the skin temperature estimation feature amount calculated by the skin temperature determination feature amount detection unit of the human information extraction unit and the detected posture, the human pixel is matched to a human body part by block dividing means having a pattern recognition mechanism. The block is divided into a plurality of parts, the average temperature of each block obtained from the block dividing means is calculated by the block temperature calculating means, and the temperature of each block obtained by the block temperature calculating means is compared by the temperature comparing means. Extract the block corresponding to
The image processing apparatus according to claim 4, wherein skin temperature estimation is performed.
【請求項9】 画像情報検出部の着衣量の検出は、個人
情報抽出部の着衣量判定特徴量検出部から算出した着衣
量推測用の特徴量から、パターン認識機構を持つブロッ
ク分割手段により人間の体の部位に合わせて人間画素ブ
ロックを複数に分割し、ブロック温度算出手段において
前記ブロック分割手段から得られるブロック毎の平均温
度を算出し、温度比較手段により前記ブロック温度算出
手段で得られた各ブロックの温度を比較し皮膚表面に対
応するブロックを抽出し、面積比較手段により前記温度
比較手段から得られる人体の露出部分に対応するブロッ
クと、衣服表面部分に対応するブロックの面積比の算出
により着衣量を求めることを特徴とする請求項記載の
画像処理装置。
9. The detection of the amount of clothing by the image information detection unit is performed by an individual.
From the clothing amount estimation feature amount calculated by the clothing amount determination feature amount detection unit of the information extraction unit, a human pixel block is divided into a plurality of blocks according to a human body part by block dividing means having a pattern recognition mechanism, and the block is divided into blocks. Calculate the average temperature of each block obtained from the block dividing means in the temperature calculating means, compare the temperature of each block obtained in the block temperature calculating means by the temperature comparing means, and extract the block corresponding to the skin surface, 5. The image processing apparatus according to claim 4, wherein the amount of clothes is determined by calculating an area ratio of a block corresponding to an exposed portion of the human body obtained from the temperature comparing means and a block corresponding to a surface portion of the clothes by the area comparing means. apparatus.
【請求項10】 人間領域検出部が、2枚の連続する熱
画像の差分をとる差分画像作成手段と、前記2枚の熱画
像と前記差分画像から動物体の画像を作成する動物体画
像作成手段と、動物体画像の画素値の頻度分布を作成す
る度数分布作成手段と、上記度数分布から人の切り出し
温度を決定する切り出し温度決定手段と、上記切り出し
温度幅で温度切り出しを行う人間検出部と、切り出され
た人間画素ブロックの代表点を算出する代表点算出部を
有することを特徴とする請求項2記載の画像処理装置。
10. A difference image creating means for calculating a difference between two consecutive thermal images by a human region detecting section, and a moving object image creating means for creating an image of a moving object from the two thermal images and the difference image Means, a frequency distribution creating means for creating a frequency distribution of pixel values of the moving object image, a cutout temperature determining means for determining a cutout temperature of a person from the frequency distribution, and a human detecting section for performing temperature cutout with the cutout temperature width. The image processing apparatus according to claim 2, further comprising: a representative point calculation unit configured to calculate a representative point of the extracted human pixel block.
【請求項11】 画像処理部に設けた環境情報抽出部
は、画像記憶部から得られる熱画像と、前記検出された
足元位置情報から足元位置付近の温度を検出する足元温
度検出手段と、前記熱画像中の画素と室内の壁や床など
の部位の対応関係から各部位の温度を検出する室内部位
温度検出手段と、前記足元位置と前記検出された室内の
各部位との位置関係を用いて人付近の輻射温度を検出す
る輻射温度検出手段の構成を有することを特徴とする請
求項記載の画像処理装置。
11. Environmental information extraction section provided in the image processing section includes a thermal image obtained from the image storage unit, and the foot temperature detection means for detecting the temperature in the vicinity of the foot position from the detected foot position information, the An indoor part temperature detecting means for detecting the temperature of each part from the correspondence between the pixels in the thermal image and the parts such as walls and floors in the room, and the foot position and the detected room interior
3. The image processing apparatus according to claim 2 , further comprising a radiation temperature detecting unit configured to detect a radiation temperature near a person by using a positional relationship with each part .
【請求項12】 環境情報抽出部は、人間領域検出部で
得られた人間画素ブロックの代表点を所定の期間累積す
る累積処理部と、累積処理部から得られる人間画素ブロ
ックの代表点の所定期間の累積から少なくとも床と壁、
または壁と壁の境界である室内代表点を判別し、前記
画像上の各画素と室内の床および壁の対応を関連付ける
室内部位判定部を付加したことを特徴とする請求項11
載の画像処理装置。
12. An environment information extracting section, comprising: an accumulating section for accumulating representative points of a human pixel block obtained by a human area detecting section for a predetermined period; and a predetermined point of a representative point of a human pixel block obtained from the accumulating section. At least floors and walls, from the cumulative period
Or to determine the room representative point is the boundary wall and the wall, according to claim 11, characterized in that the addition of the indoor part determination unit that associates correspondence between pixels and indoor floors and walls on the thermal image
Serial mounting image processing apparatus.
【請求項13】 累積処理部が、所定期間人間画素ブロ
ックの代表点を累積する累積記憶手段と、画素毎の累積
値の値から静止物体の判定を行う静止物体判定手段と、
判定された静止物体の画素の位置を記憶する静止物体画
素位置記憶手段を有することを特徴とする請求項12記
載の画像処理装置
13. An accumulation processing unit, comprising :
Accumulation storage means for accumulating the representative points of the block, and accumulation for each pixel.
Stationary object determination means for determining a stationary object from the value of the value,
A still object image that stores the pixel position of the determined still object
13. The apparatus according to claim 12, further comprising a raw position storage unit.
Image processing device .
【請求項14】 環境情報抽出部に、人間領域検出手段
から得られる人間画素ブロックの大きさに応じて人体と
床暖房を区別する床暖房検出手段と、前記画像記憶部か
ら得られる熱画像から高温発熱物体を検出する補助暖房
検出手段の少なくとも一つを付加したことを特徴とする
請求項11記載の画像処理装置。
14. An environmental information extracting unit, comprising: a floor heating detecting unit that distinguishes a human body from floor heating according to a size of a human pixel block obtained by a human region detecting unit; and a thermal image obtained from the image storage unit. 12. The image processing apparatus according to claim 11 , wherein at least one of auxiliary heating detection means for detecting a high-temperature heating object is added.
【請求項15】 請求項1から14のいずれか記載の画
像処理装置に、熱画像から直接検出できない検出エリア
に関する環境情報を使用者が入力するためのコンソール
部を付加し、その情報を少なくても画像処理部か画像情
報検出部に入力して、人間に関連した情報の補正をおこ
なうことを特徴とする画像処理装置。
To 15. The image processing apparatus according to any of claims 1 to 14, by adding a console unit for the user environment information about the detection area can not be detected directly from the thermal image is input, less the information An image processing device for inputting the information to an image processing unit or an image information detection unit to correct information related to a human.
【請求項16】 少なくとも検出エリア内の人間または
環境の温度を計測する赤外線画像(以降、熱画像と呼
ぶ)からの温度分布と人間部分の領域とその代表点を検
出し、その領域の大きさと形状およびその領域と周辺の
温度値を特徴量としてそれぞれ抽出し、抽出された特徴
量と前記熱画像に基づいて、人間の個人情報として足元
位置、姿勢、着衣量、皮膚温度の少なくとも1つを、ま
た環境情報として人数と足元位置からの周辺温度・輻射
温度を推定することを特徴とする画像処理方法。
16. A method for detecting a temperature distribution from an infrared image (hereinafter, referred to as a thermal image) for measuring at least the temperature of a human or an environment in a detection area, a human part area, and a representative point thereof.
The size and shape of the area and the area and surrounding
The temperature value is extracted as a feature value, and the extracted features
Based on the amount and the thermal image,
At least one of position, posture, amount of clothing, and skin temperature
Ambient temperature and radiation from the number of people and foot position
An image processing method characterized by estimating a temperature .
【請求項17】 環境情報として、熱画像と足元位置か
ら足元位置付近の温度、室内の壁面、床面、天井面温度
を求めることを特徴とする請求項16記載の画像処理方
法。
17. The environmental information may include a thermal image and a foot position.
Temperature near the feet, indoor wall, floor, and ceiling temperatures
17. The image processing method according to claim 16, wherein
【請求項18】 姿勢検出は、前記人間部分の領域の大
きさと形状から立位、座位、臥位の姿勢を検出すること
を特徴とする請求項16記載の画像処理方法。
18. The method according to claim 18 , wherein the posture detection is performed on a large area of the human part.
Detecting standing, sitting, and lying postures based on size and shape
17. The image processing method according to claim 16, wherein:
【請求項19】 請求項16乃至18のいずれかに記載
の画像処理方法で得られた個人情報と環境情報から、前
個人情報からの足元位置の動き量から個別的または代
表する活動量を求め、その活動量と前記個人情報と前記
環境情報および空気調和機からの風向・風量、室温、湿
度、外気温の少なくとも1つから個別的または代表の快
適度としての制御指標を決める制御指標決定部と、前記
制御指標に基づいて空調機器の制御を行う空調制御部を
有することを特徴とする空気調和機の制御装置。
19. An individual or proxy based on the amount of movement of the foot position from the personal information and the environment information obtained by the image processing method according to claim 16.
Determine the amount of activity to represent, the amount of activity, the personal information and the
Environmental information and wind direction and volume from air conditioner, room temperature, humidity
Temperature or at least one of the outside temperatures
A control device for an air conditioner, comprising: a control index determining unit that determines an appropriate control index; and an air conditioning control unit that controls an air conditioner based on the control index.
【請求項20】 請求項1乃至15のいずれかに記載の
画像処理装置を有し、前記画像処理装置から得られる個
人情報と、環境情報から、前記個人情報からの足元位置
の動き量から個別的または代表する活動量を求め、その
活動量と前記個人情報と前記環境情報および空気調和機
からの風向・風量、室温、湿度、外気温の少なくとも1
つから個別的または代表の快適度としての制御指標を決
める制御指標決定部と、前記制御指標に基づいて空調機
器の制御を行う空調制御部を有することを特徴とする空
気調和機の制御装置。
20. includes an image processing apparatus according to any one of claims 1 to 15, and personal information obtained from the image processing apparatus, the environment information, feet positions from the personal information
The amount of individual or representative activity is determined from the amount of movement of
Activity amount, personal information, environmental information and air conditioner
At least one of wind direction and volume, room temperature, humidity, and outside temperature
A control index determined tough for determining the control index as individual or representative Comfort from One, the air conditioner based on the control indication
A control device for an air conditioner, comprising an air-conditioning control unit for controlling an air conditioner.
【請求項21】 制御指標決定部、少なくとも前記活
動量検出部から得られる活動量と、時刻と、環境情報抽
出部の出力である環境情報から生活シーンを推定する生
活シーン推定部を付加し、快適度が制御指標とならない
過渡的生活シーンと、在室者が所定の期間部屋に在室し
ており快適度が制御指標として用いることができる安定
的生活シーンを推定し、生活シーンに応じて快適度とシ
ーン毎にあらかじめ定められた所定の制御指標を選択す
ることを特徴とする請求項20記載の空気調和機の制御
装置。
21. control index determination unit adds the amount of activity obtained from at least the activity amount detecting unit, the time and the life scenes estimation unit that estimates a living from the environment information which is the output of the environmental information extraction unit scenes Estimating a transient life scene in which the comfort level is not a control index and a stable life scene in which the occupant is in the room for a predetermined period and the comfort level can be used as the control index, and 21. The control device for an air conditioner according to claim 20 , wherein a predetermined control index predetermined for each comfort level and scene is selected.
【請求項22】 温度または快適度申告が行えるリモコ
ンと、少なくとも、前記制御指標決定部で計算された制
御指標と、リモコンからの利用者の申告を入力とし、前
記制御指標の補正値を出力するニューラルネットワーク
を有するリモコン操作学習部を付加し、上記構成で、利
用者のリモコン操作を行ったときの環境条件を学習する
ことを特徴とする請求項20または21に記載の空気調
和機の制御装置。
22. A remote controller capable of reporting a temperature or a comfort level, at least a control index calculated by the control index determining unit, and a user's report from the remote controller, and outputting a correction value of the control index. 22. The control device for an air conditioner according to claim 20 , wherein a remote control operation learning unit having a neural network is added to learn the environmental conditions when the user performs a remote control operation with the above configuration. .
【請求項23】 制御指標決定部に、室内への人の出入
りの時系列検出結果である在室データを記憶する在室デ
ータ記憶手段と、前記在室データを類似パターンに分類
する在室パターン分類手段と、不在時間の最低維持温度
であるベース温度を前記在室パターン分類手段から得ら
れる部屋の使用状況に応じて定めるベース温度変換手段
の構成からなる不在時制御指標決定部を付加したことを
特徴とする請求項20乃至22のいずれかに記載の空気
調和機の制御装置。
23. An occupancy data storage means for storing occupancy data as a time series detection result of a person entering and exiting a room in a control index determining unit, and an occupancy pattern for classifying the occupancy data into similar patterns. A classifying means, and an absence control index determining unit having a configuration of a base temperature conversion means for determining a base temperature, which is a minimum maintenance temperature of the absence time, according to the use state of the room obtained from the presence pattern classifying means. The control device for an air conditioner according to any one of claims 20 to 22, wherein:
【請求項24】 制御指標決定部の活動量の検出は、前
記画像処理装置の個人情報抽出部から得られる個人情報
を所定期間記憶する個人情報記憶手段と、前記個人情報
抽出手段から得られる足元位置情報を所定期間位置別に
累積し、静止者判定を行う滞在頻度算出手段と、前記期
間移動量と滞在頻度算出手段から得られる静止者判定結
果から活動量を算出する活動量算出手段の構成を有し、
所定期間の床面位置への滞在頻度から活動量を算出する
ことを特徴とする請求項20記載の空気調和機の制御装
置。
24. The detection of the amount of activity by the control index deciding section is performed by
A personal information storage means for storing a predetermined period of personal information from the personal information extraction section of Kiga image processing apparatus accumulates the foot position information obtained from the personal information extraction means by a predetermined time period position, a still's determination Stay frequency calculation means, having a configuration of activity amount calculation means for calculating the activity amount from the stationary person determination result obtained from the period movement amount and the stay frequency calculation means,
21. The control device for an air conditioner according to claim 20, wherein the activity amount is calculated from a frequency of staying at a floor surface position for a predetermined period.
【請求項25】 制御指標決定部の動き量の検出は、画
像処理装置の個人情報抽出部から得られる連続する2枚
の熱画像から得られる足元位置情報と、上記計測単位時
間に動くことが可能な最大移動距離から移動可能な足元
位置情報の組み合わせを探す移動可能判定手段と、上記
組み合わせ情報から最近傍の在室者の検索を行い、組み
合わせを決める最近傍検索手段と、決められた組み合わ
せから移動速度を計算する移動速度計算手段を有するこ
とを特徴とする請求項24記載の空気調和機の制御装
置。
25. The detection of the amount of movement by the control index determining unit includes : step position information obtained from two consecutive thermal images obtained from a personal information extracting unit of the image processing device; Moveability determining means for searching for a combination of foot position information that can be moved from the maximum moving distance capable of moving in time, and nearest neighbor search means for searching for the nearest occupant from the combination information and determining the combination 25. The control device for an air conditioner according to claim 24, further comprising moving speed calculating means for calculating a moving speed from a determined combination.
【請求項26】 カレンダと、センサ部に人検知を行う
センサと、在室者有無の判定を行う在不在判定部と、在
室時の制御指標を決める在室時制御指標決定部と、請求
23記載の不在時制御指標決定部からなる制御指標決
定部と、空調機器の制御を行う空調制御部を有すること
を特徴とする空気調和機の制御装置。
26. A calendar, a sensor for detecting a person in the sensor section, an absent / absence determination section for determining presence / absence of an occupant, a occupancy control index determination section for determining a occupancy control index, and a request. Item 23. A control device for an air conditioner, comprising: a control index determining unit including the absence control index determining unit according to Item 23; and an air conditioning control unit that controls an air conditioner.
JP5204998A 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner Expired - Fee Related JP2978374B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5204998A JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner
US08/273,168 US5555512A (en) 1993-08-19 1994-07-25 Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-222433 1992-08-21
JP22243392 1992-08-21
JP5204998A JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner

Publications (2)

Publication Number Publication Date
JPH06117836A JPH06117836A (en) 1994-04-28
JP2978374B2 true JP2978374B2 (en) 1999-11-15

Family

ID=26514782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5204998A Expired - Fee Related JP2978374B2 (en) 1992-08-21 1993-08-19 Image processing device, image processing method, and control device for air conditioner

Country Status (1)

Country Link
JP (1) JP2978374B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475849B1 (en) * 2013-12-19 2014-12-23 주식회사 에스원 PC Automatic Energy Saving System by Using Thermal Image Sensor and Neural Network Model and Method thereof
WO2018220903A1 (en) 2017-05-31 2018-12-06 ダイキン工業株式会社 Mobile body control system
KR102020306B1 (en) * 2018-09-19 2019-09-10 엘지전자 주식회사 Air conditioner based on artificial intelligence and method for controlling thereof
WO2020179686A1 (en) 2019-03-05 2020-09-10 ダイキン工業株式会社 Equipment control system

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028626A (en) 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
DE10034976B4 (en) * 2000-07-13 2011-07-07 iris-GmbH infrared & intelligent sensors, 12459 Detecting device for detecting persons
JP4936201B2 (en) * 2002-12-10 2012-05-23 パナソニック株式会社 Environmental equipment control system
JP2005128815A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Person detection device and method
JP3906845B2 (en) * 2004-02-06 2007-04-18 日産自動車株式会社 Occupant detection apparatus and method
JP2005301719A (en) * 2004-04-13 2005-10-27 Nissan Motor Co Ltd Occupant detection apparatus and method
JP4628712B2 (en) * 2004-07-09 2011-02-09 財団法人生産技術研究奨励会 Method and apparatus for recognizing moving object on image
JP4604606B2 (en) * 2004-08-18 2011-01-05 ソニー株式会社 Face detection apparatus, face detection method, and computer program
JP2006079363A (en) * 2004-09-09 2006-03-23 Tempearl Ind Co Ltd Method and apparatus for taking measures for energy saving
JP2007280167A (en) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp Air conditioner
JP2008217690A (en) * 2007-03-07 2008-09-18 Nippon Signal Co Ltd:The Moving object detection method
JP4959393B2 (en) * 2007-03-26 2012-06-20 パナソニック株式会社 Human position estimation method and air conditioner employing the method
JP5111445B2 (en) * 2008-09-10 2013-01-09 三菱電機株式会社 Air conditioner
JP5668261B2 (en) * 2010-08-16 2015-02-12 株式会社チノー Alarm system
JP5489915B2 (en) * 2010-08-19 2014-05-14 三菱電機株式会社 Air conditioner
JP5832749B2 (en) * 2011-01-07 2015-12-16 株式会社日立国際電気 In-train monitoring system and in-train monitoring method
JP6077553B2 (en) * 2011-10-28 2017-02-08 ヴラームス インステリング ヴール テクノロギシュ オンデルゾーク エヌ.ヴイ. (ヴイアイティーオー) Infrared presence detector for detecting the presence of an object in a surveillance area
JP5575096B2 (en) * 2011-12-01 2014-08-20 三菱電機株式会社 Air conditioner
JP5815490B2 (en) * 2012-09-03 2015-11-17 日立アプライアンス株式会社 Air conditioner
MY182329A (en) * 2013-05-17 2021-01-19 Panasonic Ip Corp America Thermal image sensor and user interface
JP2015052431A (en) * 2013-09-09 2015-03-19 日立アプライアンス株式会社 Indoor unit of air conditioner, and air conditioner
US10404924B2 (en) * 2013-11-11 2019-09-03 Osram Sylvania Inc. Human presence detection techniques
CN110081566B (en) * 2014-02-17 2021-01-26 松下电器产业株式会社 Air conditioner, method for controlling same, thermal image sensor system, method for estimating thermal sensation, and recording medium
WO2015140834A1 (en) * 2014-03-20 2015-09-24 三菱電機株式会社 Air-conditioning system
JP6303731B2 (en) * 2014-03-31 2018-04-04 ダイキン工業株式会社 Thermal environment reproduction system
JP2016057057A (en) * 2014-09-05 2016-04-21 アイシン精機株式会社 Energy management system
SG10201914026XA (en) * 2015-08-03 2020-03-30 Angel Playing Cards Co Ltd Fraud detection system in casino
JP6213744B2 (en) * 2015-10-14 2017-10-18 パナソニックIpマネジメント株式会社 Air conditioner
DE102016212940A1 (en) * 2016-07-15 2018-01-18 Siemens Aktiengesellschaft Method for controlling an interior ventilation and detection control device
JP7054603B2 (en) * 2016-08-03 2022-04-14 ヤフー株式会社 Judgment device, judgment method, and judgment program
JP6798854B2 (en) * 2016-10-25 2020-12-09 株式会社パスコ Target number estimation device, target number estimation method and program
JP7074287B2 (en) * 2017-08-07 2022-05-24 株式会社竹中工務店 State estimator, model learning device, method, and program
KR102095790B1 (en) * 2017-12-18 2020-04-01 (주)에프엑스기어 Apparatus and method for analyzing body features using thermal image
JP7033940B2 (en) * 2018-01-31 2022-03-11 三菱電機株式会社 Air conditioner
WO2019208754A1 (en) * 2018-04-26 2019-10-31 大王製紙株式会社 Sorting device, sorting method and sorting program, and computer-readable recording medium or storage apparatus
CN108800428B (en) * 2018-06-29 2020-05-05 广东美的制冷设备有限公司 Control method and device of air conditioning equipment and air conditioning equipment
JP7103425B2 (en) * 2018-09-25 2022-07-20 日本電気株式会社 Information processing equipment
WO2020084777A1 (en) * 2018-10-26 2020-04-30 三菱電機株式会社 Estimating device, air conditioning system, and estimating method
JP7012875B2 (en) 2018-12-03 2022-01-28 三菱電機株式会社 Equipment control device and equipment control method
JP7086219B2 (en) * 2018-12-10 2022-06-17 三菱電機株式会社 Air conditioners, control devices, air conditioning systems, air conditioning control methods and programs
KR20200084164A (en) * 2019-01-02 2020-07-10 엘지이노텍 주식회사 Farm environment management appratus
JP2020117052A (en) * 2019-01-23 2020-08-06 株式会社デンソー Radiation information calculation device and temperature information calculation device
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
WO2020202425A1 (en) * 2019-04-01 2020-10-08 三菱電機株式会社 Stay determination apparatus, stay determination method, and stay determination program
JP7434725B2 (en) * 2019-05-23 2024-02-21 三菱電機株式会社 air conditioner
KR102147090B1 (en) * 2019-08-26 2020-08-24 (주)서전기전 System for detecting arc/temperature of the switchboard and indicating the location and method therefor
CN111272290B (en) * 2020-03-13 2022-07-19 西北工业大学 Temperature measurement thermal infrared imager calibration method and device based on deep neural network
CN111651862B (en) * 2020-05-11 2023-04-18 珠海格力电器股份有限公司 Air conditioner, method and device for determining installation position of air conditioner, storage medium and mobile terminal
CN112032987B (en) * 2020-07-28 2022-04-08 四川虹美智能科技有限公司 Air conditioner control method and device based on infrared human body tracking
CN112101115B (en) * 2020-08-17 2023-12-12 深圳数联天下智能科技有限公司 Temperature control method and device based on thermal imaging, electronic equipment and medium
JP7434138B2 (en) * 2020-11-17 2024-02-20 株式会社日立製作所 Object recognition device and object recognition method
KR102299250B1 (en) * 2021-01-13 2021-09-08 한전케이디엔주식회사 Counting device and method using composite image data
JP7199614B1 (en) * 2022-05-16 2023-01-05 三菱電機株式会社 HUMAN DETECTION DEVICE, HUMAN DETECTION SYSTEM, HUMAN DETECTION METHOD, AND HUMAN DETECTION PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62240823A (en) * 1986-04-14 1987-10-21 Matsushita Electric Works Ltd Image sensor for monitor control
JPH07101120B2 (en) * 1988-12-09 1995-11-01 松下電器産業株式会社 Air conditioner
JPH03247939A (en) * 1990-02-27 1991-11-06 Sanyo Electric Co Ltd Air-conditioner
JPH04191256A (en) * 1990-11-27 1992-07-09 Toshiba Corp Information input unit for elevator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475849B1 (en) * 2013-12-19 2014-12-23 주식회사 에스원 PC Automatic Energy Saving System by Using Thermal Image Sensor and Neural Network Model and Method thereof
WO2018220903A1 (en) 2017-05-31 2018-12-06 ダイキン工業株式会社 Mobile body control system
US11491996B2 (en) 2017-05-31 2022-11-08 Daikin Industries, Ltd. Movable object control system
KR102020306B1 (en) * 2018-09-19 2019-09-10 엘지전자 주식회사 Air conditioner based on artificial intelligence and method for controlling thereof
WO2020179686A1 (en) 2019-03-05 2020-09-10 ダイキン工業株式会社 Equipment control system

Also Published As

Publication number Publication date
JPH06117836A (en) 1994-04-28

Similar Documents

Publication Publication Date Title
JP2978374B2 (en) Image processing device, image processing method, and control device for air conditioner
JP3216280B2 (en) Control equipment for air conditioners and applied equipment for image processing equipment
JP4870059B2 (en) Air conditioner
JP5300602B2 (en) Air conditioner
US11380182B2 (en) Property control and configuration based on thermal imaging
US5555512A (en) Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus
EP2971987B1 (en) Energy saving heating, ventilation, air conditioning control system
JP4859926B2 (en) Air conditioner
JP6068280B2 (en) Air conditioner
JP3453870B2 (en) Image processing device and applied equipment using the image processing device
Mikkilineni et al. A novel occupancy detection solution using low-power IR-FPA based wireless occupancy sensor
JPH08178390A (en) Human body activity value calculator and human body activity value/wearing value calculator and air conditioning equipment therewith and human body abnormality communicator
JP2005172288A (en) Controlling system for air conditioner
CN112862145A (en) Occupant thermal comfort inference using body shape information
KR20190035007A (en) Air Conditioner And Control Method Thereof
JP2004078297A (en) Information processor, information processing method and environment control device
US11359969B2 (en) Temperature regulation based on thermal imaging
JP2012037102A (en) Device and method for identifying person and air conditioner with person identification device
JP7172394B2 (en) Air conditioner and biological information analysis system
JP2772730B2 (en) Life scene estimation device and air conditioner
JP3090512B2 (en) Life scene estimation device and air conditioner
Petrova et al. A Review on Applications of Low-resolution IR Array Sensors in Ambient-Assisted Living
WO2024004465A1 (en) Environment control system, environment adjustment system, environment control method, and program
Seiwert et al. Thermography-based assessment of mean radiant temperature and occupancy in healthcare facilities
JP2023077979A (en) Air-conditioning system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees