JP2013024534A - Situation recognition device - Google Patents

Situation recognition device Download PDF

Info

Publication number
JP2013024534A
JP2013024534A JP2011162737A JP2011162737A JP2013024534A JP 2013024534 A JP2013024534 A JP 2013024534A JP 2011162737 A JP2011162737 A JP 2011162737A JP 2011162737 A JP2011162737 A JP 2011162737A JP 2013024534 A JP2013024534 A JP 2013024534A
Authority
JP
Japan
Prior art keywords
situation recognition
person
obstacle
situation
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011162737A
Other languages
Japanese (ja)
Inventor
Satoshi Sato
智 佐藤
Yasuto Mukai
靖人 向井
Yoshiko Usui
佳子 碓井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011162737A priority Critical patent/JP2013024534A/en
Publication of JP2013024534A publication Critical patent/JP2013024534A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a situation recognition device to execute a situation recognizing processing of high accuracy even at home.SOLUTION: This situation recognition device for recognizing domestic situation, includes a human movement detecting means for detecting human movement information, a situation recognition processing determining means for determining whether the situation recognizing processing is to be executed based on the detection results of the human movement detecting means, and a situation recognizing means for recognizing domestic situation when the execution of the situation recognizing processing is determined by the situation recognition processing determining means. The situation recognizing processing of high accuracy can be executed even at home by estimating the human movement information by the human movement detecting means, and performing the situation recognizing processing only when the human moves.

Description

本発明は、家庭内における状況認識技術に関し、さらに空気調和空間の状況を反映して、最適な空気調和動作を行なわせることができる空気調和機に関する。   The present invention relates to a situation recognition technique in a home, and more particularly to an air conditioner capable of performing an optimal air conditioning operation reflecting the situation of an air conditioning space.

ユーザが全く意識しないままに、空調空間内の人物を特定し、人物の機器操作傾向を自動的に学習することで、ユニバーサルデザインを実現でき、ユーザの好みの空調を実現することが可能な、空気調和機が知られている。   By identifying the person in the air-conditioned space without learning the user at all, and automatically learning the equipment operation tendency of the person, the universal design can be realized, and the user's favorite air-conditioning can be realized. Air conditioners are known.

例えば、特許文献1では、ユーザが制御指示手段を操作した場合、制御指示手段を操作した人物を特定し、その操作内容によって、その人物の空気調和機操作傾向を学習できるものである。また、人物の特定手段として、特許文献2では、登録者が少数に限定される場合、身長や体格で個人識別できることが記載されている。   For example, in Patent Document 1, when a user operates a control instruction unit, a person who operates the control instruction unit is specified, and the tendency of the person to operate the air conditioner can be learned according to the operation content. Further, as a means for identifying a person, Patent Document 2 describes that when a registrant is limited to a small number, personal identification can be made based on height and physique.

さらに、身長情報の取得手段として、特許文献3では、撮影された画像から人物の足元と頭頂部とを検出し、検出した足元の位置と頭頂部の位置との高さの差から対象となる人の身長を推定する技術が開示されている。また、別の状況認識技術として、特許文献4では、カメラを利用して、移動物体の最下端を移動物体と床面との接する点として求め、その接点情報の履歴情報を利用することで、障害物を検出する方法が記載されている。気流の妨げになる障害物の存在する位置を検出することで、空調エリア全体に気流を行き渡らせる制御ができるものである。   Further, as a means for acquiring height information, Patent Document 3 detects a person's feet and the top of the head from a photographed image, and becomes a target based on a difference in height between the detected position of the foot and the position of the top of the head. A technique for estimating the height of a person is disclosed. Further, as another situation recognition technique, in Patent Document 4, by using a camera, the lowest end of a moving object is obtained as a point where the moving object and the floor surface come into contact, and by using history information of the contact information, A method for detecting obstacles is described. By detecting the position where an obstacle that obstructs the airflow exists, it is possible to control the airflow throughout the air-conditioned area.

また、身長推定を行なうためにはカメラパラメータを推定する必要があるが、特許文献5には、撮影画像からカメラパラメータの一つである消失線を算出する手段が示されている。   In order to estimate the height, it is necessary to estimate the camera parameter. However, Patent Document 5 discloses means for calculating a vanishing line that is one of the camera parameters from a captured image.

特開2010−091228号公報JP 2010-091228 A 特開2010−107114号公報JP 2010-107114 A 特開2001−56853号公報JP 2001-56853 A 特開2010−190432号公報JP 2010-190432 A 特開2007−212216号公報JP 2007-212216 A

しかしながら、前記従来の状況認識技術では、監視カメラ用途に開発されたこともあり、家庭内では、そのまま利用することが難しかった。   However, the conventional situation recognition technology has been developed for use as a surveillance camera and is difficult to use as it is in the home.

これは、例えば、監視カメラが広く利用されている屋外では、人物は動き回っていることが普通であり、滞在している人物はイレギュラーな存在である。一方、家庭内では、人物が座っていることや寝ていることが多く、また、静止していることが多い。特許文献3では、頭頂部位置と足元位置の距離から身長を求める身長推定方法が開示されているが、家庭内では、人物は座っていることが多々あり、この場合、頭頂部位置と足元位置の距離から正確に身長を求めることはできなかった。   This is because, for example, in the outdoors where surveillance cameras are widely used, it is normal for a person to move around, and a person staying there is irregular. On the other hand, at home, a person is often sitting or sleeping, and is often stationary. Patent Document 3 discloses a method for estimating height from the distance between the position of the top of the head and the position of the foot, but a person often sits in the home. In this case, the position of the top of the head and the position of the foot The height could not be calculated accurately from the distance.

また、特許文献3では、差分情報をから頭部位置と足元位置を求めているが、人物が静
止している場合、多くの差分処理では人物の全身を正確に検出することができないため、頭部位置と足元位置を正確に取得することは困難である。そのため、人物が静止している場合、正確に身長を求めることはできなかった。
In Patent Document 3, the head position and the foot position are obtained from the difference information. However, when the person is stationary, the whole body of the person cannot be accurately detected by many difference processes. It is difficult to accurately acquire the part position and the foot position. Therefore, when the person is stationary, the height cannot be calculated accurately.

また、特許文献4では、移動物体の最下端を移動物体と床面との接する点として求めているが、人物の下半身が遮蔽されている場合、その足元位置は画像から求めることは困難である。また、例えば図22に示したように、撮像センサユニット24から離れた方向からテーブルをふいている人物321が存在する場合、人物の腕の位置を足元位置と誤って判断してしまい、本来はテーブルという障害物が存在する領域を、障害物が存在しない領域と判定してしまう可能性が高かった。   In Patent Document 4, the lowest end of the moving object is obtained as a point where the moving object contacts the floor surface. However, when the lower body of the person is shielded, it is difficult to obtain the foot position from the image. . Also, for example, as shown in FIG. 22, when there is a person 321 who wipes the table from a direction away from the image sensor unit 24, the position of the person's arm is erroneously determined as the foot position, There is a high possibility that the area where the obstacle exists, that is, the table, is determined as the area where the obstacle does not exist.

上記目的を達成するために、本発明の状況認識装置は、家庭内の人物の移動情報を検出する人物移動検出手段と、前記人物移動検出手段の検出結果により、状況認識処理を実施するかどうかを判断する状況認識処理判断手段と、前記状況認識処理判断手段により、状況認識処理を実施すると判断した場合に、家庭内の状況を認識する状況認識手段を有する。人物が移動している場合のみ、状況認識処理を実行することにより、高精度な状況認識処理を実現することを目的としたものである。   In order to achieve the above object, the situation recognition apparatus of the present invention is configured to detect whether or not a person movement detection unit detects the movement information of a person in the home and whether or not to perform the situation recognition process based on the detection result of the person movement detection unit. And a situation recognition unit for recognizing a situation in the home when it is determined by the situation recognition process judgment unit that the situation recognition process is to be performed. The object is to realize highly accurate situation recognition processing by executing situation recognition processing only when a person is moving.

本発明によれば、人物の移動情報を利用することにより、家庭内において、高精度の状況認識技術を実現することができる。さらに、本発明の状況認識技術を利用することにより、空気調和空間の状況を認識して、最適な空気調和動作を行なわせることができる。   According to the present invention, it is possible to realize a highly accurate situation recognition technique in the home by using person movement information. Furthermore, by utilizing the situation recognition technology of the present invention, it is possible to recognize the situation of the air conditioning space and perform an optimal air conditioning operation.

本発明の第1の実施の形態における状況認識装置の構成を示す機能ブロック図1 is a functional block diagram showing a configuration of a situation recognition device according to a first embodiment of the present invention. 本発明の第1の実施の形態における状況認識装置において、状況認識処理として、身長推定処理を行なう場合の構成を示す機能ブロック図The functional block diagram which shows the structure in the case of performing the height estimation process as a situation recognition process in the situation recognition apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における身長推定処理の流れを示すフローチャートThe flowchart which shows the flow of the height estimation process in the 1st Embodiment of this invention 本発明の人物移動検出処理の人物の在否と位置情報の検出処理の流れを示すフローチャートThe flowchart which shows the flow of the detection process of a person's presence / absence and position information of the person movement detection process of this invention 本発明の人物移動検出手段における背景差分処理を説明するための模式図The schematic diagram for demonstrating the background difference process in the person movement detection means of this invention 背景差分処理において背景画像を作成する処理を説明するための模式図Schematic diagram for explaining processing for creating a background image in background difference processing 背景差分処理において背景画像を作成する処理を説明するための模式図Schematic diagram for explaining processing for creating a background image in background difference processing 背景差分処理において背景画像を作成する処理を説明するための模式図Schematic diagram for explaining processing for creating a background image in background difference processing 本発明の人物移動検出処理における領域分割処理を説明するための模式図The schematic diagram for demonstrating the area division | segmentation process in the person movement detection process of this invention 本発明の身長推定処理の流れを示すフローチャートThe flowchart which shows the flow of the height estimation process of this invention 本発明で利用する3つの座標系を説明するための模式図Schematic diagram for explaining three coordinate systems used in the present invention 足元位置のカメラ座標系での3次元位置を説明するための模式図Schematic diagram for explaining the three-dimensional position of the foot position in the camera coordinate system 頭部位置のカメラ座標系での3次元位置を説明するための模式図Schematic diagram for explaining the three-dimensional position of the head position in the camera coordinate system 状況認識処理として、障害物検出処理を行なう、本発明の第2の実施の形態における状況認識装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the situation recognition apparatus according to the second embodiment of the present invention, which performs an obstacle detection process as the situation recognition process 本発明の第2の実施の形態における障害物検出処理の流れを示すフローチャートThe flowchart which shows the flow of the obstruction detection process in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における障害物検出手段の障害物マップ更新処理の流れを示すフローチャートThe flowchart which shows the flow of the obstacle map update process of the obstacle detection means in the 2nd Embodiment of this invention. 障害物マップおよび短期障害物マップを説明するための家庭の模式図Schematic diagram of home to explain obstacle map and short-term obstacle map 図17に示した家庭において、撮像センサユニットで撮影された画像の模式図FIG. 17 is a schematic diagram of an image taken by the image sensor unit in the home shown in FIG. 人物の移動履歴を障害物マップとして蓄えることで、障害物マップを障害物の存在しない確率として取得する方法を説明するための模式図Schematic diagram for explaining a method of acquiring an obstacle map as a probability that no obstacle exists by storing a person's movement history as an obstacle map 短期障害物マップの一例を示した模式図Schematic diagram showing an example of a short-term obstacle map 障害物マップの一例を示した模式図Schematic diagram showing an example of an obstacle map 従来技術において、足元位置推定に失敗してしまう一例の模式図Schematic diagram of an example in which foot position estimation fails in the prior art 短期障害物マップおよび障害物マップの別の領域分割を示した模式図Schematic diagram showing a short-term obstacle map and another area division of the obstacle map 状況認識処理として、カメラパラメータ推定処理を行なう、本発明の第3の実施の形態における状況認識装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the situation recognition apparatus according to the third embodiment of the present invention, which performs camera parameter estimation processing as situation recognition processing 本発明の第3の実施の形態におけるカメラパラメータ推定処理の流れを示すフローチャートThe flowchart which shows the flow of the camera parameter estimation process in the 3rd Embodiment of this invention. 消失線を説明するための模式図Schematic diagram for explaining vanishing lines 本発明の第1の実施の形態における状況認識装置を搭載した空気調和機の構成を示す機能ブロック図The functional block diagram which shows the structure of the air conditioner carrying the condition recognition apparatus in the 1st Embodiment of this invention. 本発明に係る空気調和機の室内機の正面図The front view of the indoor unit of the air conditioner which concerns on this invention 図28の室内機の縦断面図28 is a longitudinal sectional view of the indoor unit of FIG. 可動前面パネルが前面開口部を開放するとともに、上下羽根が吹出口を開放した状態の図28の室内機の縦断面図28 is a longitudinal sectional view of the indoor unit in FIG. 28 in a state where the movable front panel opens the front opening and the upper and lower blades open the outlet. 上下羽根を構成する下羽根を下向きに設定した状態の図28の室内機の縦断面図28 is a longitudinal sectional view of the indoor unit of FIG. 28 in a state where the lower blades constituting the upper and lower blades are set downward. 本発明の第1の実施の形態における身長推定装置を搭載した空気調和機の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the air conditioner carrying the height estimation apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における状況認識装置を搭載した空気調和機の構成を示す機能ブロック図The functional block diagram which shows the structure of the air conditioner carrying the condition recognition apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における障害物検出装置を搭載した空気調和機の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the air conditioner carrying the obstruction detection apparatus in the 2nd Embodiment of this invention. 構成する撮像センサユニットで検知される人位置領域を示す概略図Schematic showing the human position area detected by the imaging sensor unit 左右羽根を構成する左羽根と右羽根の各ポジションにおける風向の定義を示す概略図Schematic showing the definition of the wind direction at each position of the left and right blades constituting the left and right blades 本発明の状況認識装置を搭載した空気調和機の別の構成を示す機能ブロック図The functional block diagram which shows another structure of the air conditioner carrying the condition recognition apparatus of this invention 本発明の第1の実施の形態における身長推定装置を搭載した空気調和機の別の処理の流れを示すフローチャートThe flowchart which shows the flow of another process of the air conditioner carrying the height estimation apparatus in the 1st Embodiment of this invention.

第1の発明は、家庭内の状況を認識する状況認識装置であって、人物の移動情報を検出する人物移動検出手段と、前記人物移動検出手段の検出結果により、状況認識処理を実施するかどうかを判断する状況認識処理判断手段と、前記状況認識処理判断手段により、状況認識処理を実施すると判断した場合に、家庭内の状況を認識する状況認識手段とを有する構成としている。   A first invention is a situation recognition apparatus for recognizing a situation in a home, and a person movement detection means for detecting movement information of a person and whether the situation recognition processing is performed based on the detection result of the person movement detection means. The situation recognition processing judgment means for judging whether or not and the situation recognition means for recognizing the situation in the home when the situation recognition processing judgment means judges that the situation recognition processing is to be performed.

この構成により、人物移動検出手段によって人物の移動情報を推定し、状況認識処理が高精度に処理可能な状況でのみ、状況認識処理を行なうことにより、家庭内においても、高精度の状況認識処理を実現することができる。   With this configuration, the person movement detection means estimates the person movement information and performs the situation recognition process only in a situation where the situation recognition process can be performed with high accuracy. Can be realized.

第2の発明は、人物移動検出手段により、人物が移動している場合には状況認識処理を実施し、そうでない場合は状況認識処理を実施しないことにより、家庭内においても、高精度の状況認識処理を実現することができる。   According to a second aspect of the present invention, the situation recognition process is performed by the person movement detection means when the person is moving, and the situation recognition process is not performed otherwise. Recognition processing can be realized.

第3の発明は、前記人物移動検出手段により、人物がその頭部と足元を結ぶベクトルに
対して直交方向に移動している場合には身長推定を実施し、そのベクトル方向に移動している場合は状況認識処理を実施しないことにより、家庭内においても、高精度の状況認識処理を実現することができる。
According to a third aspect of the present invention, when the person is moving in the orthogonal direction with respect to the vector connecting the head and the foot, the person movement detecting means performs height estimation and moves in the vector direction. In some cases, the situation recognition process can be realized even in the home by not performing the situation recognition process.

第4の発明は、前記状況認識手段として、人物の身長を検出する身長推定手段を利用することにより、家庭内においても、高精度の身長推定処理を実現することができる。   According to the fourth aspect of the present invention, a high-precision height estimation process can be realized even in the home by using a height estimation unit that detects the height of a person as the situation recognition unit.

第5の発明は、身長推定手段として、人物の足元位置を検出する足元位置検出手段と、人物の頭部位置を検出する頭部位置検出手段と、前記足元位置検出手段で求めた足元位置情報と前記頭部位置検出手段で求めた頭部位置情報を利用して、人物の身長を検出する身長推定手段とを有する構成としている。   According to a fifth aspect of the present invention, as the height estimating means, a foot position detecting means for detecting the foot position of a person, a head position detecting means for detecting the head position of the person, and foot position information obtained by the foot position detecting means. And height estimation means for detecting the height of a person using head position information obtained by the head position detection means.

この構成により、人物移動検出手段によって人物の移動情報を推定し、身長推定処理が高精度に処理可能な状況でのみ、身長推定処理を行なうことにより、家庭内においても、高精度の身長推定処理を実現することができる。   With this configuration, it is possible to estimate the movement information of a person by the person movement detection means, and perform the height estimation process only in a situation where the height estimation process can be performed with high accuracy, thereby enabling high-precision height estimation processing even at home. Can be realized.

第6の発明は、前記状況認識手段として、家庭内の障害物を検出する障害物検出手段を利用することにより、家庭内においても、高精度の障害物検出処理を実現することができる。   According to the sixth aspect of the present invention, by using an obstacle detection means for detecting an obstacle in the home as the situation recognition means, a highly accurate obstacle detection process can be realized even in the home.

第7の発明は、障害物検出手段として、人物の移動履歴を利用して障害物を検出することにより、家庭内においても、高精度の障害物検出処理を実現することができる。   According to the seventh aspect of the present invention, it is possible to realize highly accurate obstacle detection processing even in the home by detecting an obstacle using the movement history of the person as the obstacle detection means.

第8の発明は、障害物検出手段として、人物の足元位置の履歴を利用して障害物を検出することにより、家庭内においても、高精度の障害物検出処理を実現することができる。   According to the eighth aspect of the present invention, it is possible to realize highly accurate obstacle detection processing even in the home by detecting an obstacle using the history of the person's foot position as the obstacle detection means.

第9の発明は、前記状況認識手段として、カメラパラメータの推定処理を行なうカメラパラメータ推定手段を利用することにより、家庭内においても、高精度のカメラパラメータ推定処理を実現することができる。   According to the ninth aspect of the present invention, high-precision camera parameter estimation processing can be realized even in the home by using camera parameter estimation means for performing camera parameter estimation processing as the situation recognition means.

第10の発明は、カメラパラメータ推定手段として、カメラパラメータである消失線を推定することにより、家庭内においても、高精度のカメラパラメータ推定を実現することができる。   According to the tenth aspect of the present invention, high-precision camera parameter estimation can be realized even in the home by estimating a vanishing line as a camera parameter as camera parameter estimation means.

第11の発明は、本発明の状況認識装置を搭載した空気調和機であって、前記人物識別手段が識別した識別結果に基づいて、空調制御を実現する空調制御部を有する構成としている。   An eleventh aspect of the present invention is an air conditioner equipped with the situation recognition apparatus of the present invention, and has an air conditioning control unit that realizes air conditioning control based on the identification result identified by the person identifying means.

この構成により、空気調和空間においても状況を高精度に認識することができるため、最適な空気調和動作を実現することができる。   With this configuration, the situation can be recognized with high accuracy even in the air-conditioned space, so that an optimal air-conditioning operation can be realized.

第12の発明は、本発明の状況認識装置を搭載した空気調和機であって、さらに、前記状況認識手段が認識した認識結果を表示するための認識結果表示手段を有する構成としている。   A twelfth aspect of the present invention is an air conditioner equipped with the situation recognition apparatus of the present invention, and further includes a recognition result display means for displaying a recognition result recognized by the situation recognition means.

この構成により、利用者は状況識別装置が識別を行なえているかどうかを認識することができるため、安心して利用することができる。   With this configuration, the user can recognize whether or not the situation identification device is performing the identification, and thus can be used with confidence.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
以下、本発明の実施の形態について、図面を参照しながら説明する。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の第1の実施の形態における状況認識装置の構成を示す機能ブロック図である。さらに、図2は、状況認識処理として、身長推定処理を行なう場合の構成を示す機能ブロック図である。つまり、状況認識手段103は、足元位置検出手段104、頭部位置検出手段105および身長推定手段106からなる。また、図3は、本実施形態における身長推定処理の流れを示すフローチャートである。図3において、人物移動検出手段101は撮像センサユニット24を利用して、家庭内を撮像し、フレーム画像を取得する(ステップS101)。   FIG. 1 is a functional block diagram showing the configuration of the situation recognition apparatus according to the first embodiment of the present invention. Furthermore, FIG. 2 is a functional block diagram showing a configuration in the case of performing a height estimation process as the situation recognition process. That is, the situation recognition unit 103 includes a foot position detection unit 104, a head position detection unit 105, and a height estimation unit 106. FIG. 3 is a flowchart showing the flow of the height estimation process in the present embodiment. In FIG. 3, the person movement detection means 101 uses the image sensor unit 24 to capture an image of the home and obtain a frame image (step S101).

人物移動検出手段101は取得したフレーム画像を利用して、人物の在否と位置情報を検出し(ステップS102)、人物が存在している場合には、さらにその人物が滞在しているのか、どのように動いているのかといった移動情報を検出する(ステップS103)。状況認識処理判断手段102は、前記人物移動検出手段101の検出結果に基づいて、現在のフレーム画像に対して身長推定処理を行なうかどうかを判断する(ステップS104)。   The person movement detecting means 101 detects the presence / absence and position information of the person using the acquired frame image (step S102). If a person exists, whether the person is still staying, Movement information such as how it is moving is detected (step S103). Based on the detection result of the person movement detection unit 101, the situation recognition process determination unit 102 determines whether to perform the height estimation process on the current frame image (step S104).

すなわち、状況認識処理判断手段102によって、人物が移動していると判断された場合(ステップS104でYes)、足元位置検出手段104は、人物の足元位置を推定する(ステップS105)。さらに、頭部位置検出手段105は、人物の頭部位置を推定する(ステップS106)。身長推定手段106は、前記足元位置検出手段104で求めた足元位置情報と前記頭部位置で求めた頭部位置情報を利用して、人物の身長を検出する(ステップS107)。   That is, when the situation recognition process determining unit 102 determines that the person is moving (Yes in step S104), the foot position detecting unit 104 estimates the foot position of the person (step S105). Further, the head position detecting means 105 estimates the head position of the person (step S106). The height estimating means 106 detects the height of the person using the foot position information obtained by the foot position detecting means 104 and the head position information obtained from the head position (step S107).

一方、状況認識処理判断手段102によって、人物が存在していない、または、移動していないと判断された場合(ステップS104でNo)、身長推定手段106は、現在のフレーム画像に対して身長推定処理を行なわず、以前の身長情報を現在の身長情報として保持する(ステップS108)。   On the other hand, when the situation recognition processing determination unit 102 determines that no person exists or has moved (No in step S104), the height estimation unit 106 estimates the height of the current frame image. Without performing the process, the previous height information is held as the current height information (step S108).

<人物移動検出手段の構成>
撮像センサユニット24は、回路基板と、回路基板に取り付けられたレンズと、レンズの内部に実装された撮像センサとで構成されている。また、人物移動検出手段101は、例えば後述する差分処理に基づいて回路基板により人物の在否が判断され、さらにその人物の位置を推定する。
<Configuration of person movement detection means>
The image sensor unit 24 includes a circuit board, a lens attached to the circuit board, and an image sensor mounted inside the lens. Also, the person movement detection unit 101 determines the presence / absence of a person using a circuit board based on, for example, a difference process described later, and further estimates the position of the person.

すなわち、回路基板は人物移動検出手段101として作用する。もちろん、後述する状況認識処理判断手段102および状況認識手段103も回路基板によって実現されるが、詳細な説明は省略する。   That is, the circuit board acts as the person movement detection unit 101. Of course, the situation recognition processing determination means 102 and the situation recognition means 103, which will be described later, are also realized by a circuit board, but detailed description thereof is omitted.

<撮像センサユニットによる人物移動検出>
撮像センサユニット24による人物移動検出を行なうために、公知の技術である差分法を利用する。これは、人物が存在しない画像である背景画像と、撮像センサユニット24が撮像した画像の差分処理を行ない、差分が生じている領域には、人物が存在していると推定するものである。
<Detection of person movement by image sensor unit>
In order to detect person movement by the image sensor unit 24, a difference method which is a known technique is used. This is to perform a difference process between a background image that is an image in which no person is present and an image captured by the image sensor unit 24, and to estimate that a person is present in a region where the difference is generated.

図4は、本実施形態における人物移動検出手段の、ステップS102における人物の在否と位置情報の検出処理の流れを示したフローチャートである。ステップS201において、背景差分処理を利用することで、ステップS101で取得したフレーム画像内で差分が生じている画素を検出する。背景差分処理とは、特定の条件下で撮像した背景画像と、
背景画像と撮像センサユニットの視野や視点、焦点距離などの撮像条件が等しい状況で撮像した撮像画像を比較することで、背景画像には存在していないが、撮像画像には存在する物体を検出する手法である。人物の検出を行なうためには、背景画像として人物が存在しない画像を作成する。
FIG. 4 is a flowchart showing the flow of the process of detecting the presence / absence of a person and position information in step S102 of the person movement detecting means in the present embodiment. In step S201, a background difference process is used to detect a pixel that has a difference in the frame image acquired in step S101. Background difference processing is a background image captured under specific conditions,
By comparing the background image and the captured image captured under the same imaging conditions such as the field of view, viewpoint, and focal length of the image sensor unit, objects that are not present in the background image but present in the captured image are detected. It is a technique to do. In order to detect a person, an image without a person is created as a background image.

図5は、背景差分処理を説明するための模式図である。図5(a)は、背景画像を示している。この図において、301は家庭内に存在する窓を、302は扉を示している。図5(b)は、撮像センサユニット24によってステップS101で撮像されたフレーム画像を示している。ここで、撮像センサユニットの視野や視点、焦点距離などは図5(a)の背景画像と等しい。   FIG. 5 is a schematic diagram for explaining the background difference processing. FIG. 5A shows a background image. In this figure, 301 indicates a window existing in the home, and 302 indicates a door. FIG. 5B shows the frame image captured in step S <b> 101 by the image sensor unit 24. Here, the field of view, viewpoint, focal length, and the like of the image sensor unit are the same as the background image of FIG.

303は、家庭内に存在する人物を示している。背景差分処理では、図5(a)と図5(b)の差分画像を作成することにより、人物を検出する。図5(c)は差分画像を示しており、白い画素は差分が存在しない画素、黒い画素は差分が生じている画素を示している。背景画像には存在しないが、撮像されたフレーム画像には存在する人物303の領域が、差分が生じている領域304として、検出されていることがわかる。つまり、差分画像から差分が生じている領域を抽出することで、人物領域を検出し、人物の在否を検出することが可能である。   Reference numeral 303 denotes a person existing in the home. In the background difference process, a person is detected by creating a difference image shown in FIGS. 5 (a) and 5 (b). FIG. 5C shows a difference image. White pixels indicate pixels where no difference exists, and black pixels indicate pixels where a difference occurs. It can be seen that the area of the person 303 that is not present in the background image but is present in the captured frame image is detected as the area 304 in which the difference occurs. That is, it is possible to detect a person area by extracting an area where a difference occurs from the difference image, and to detect the presence or absence of a person.

また、前述の背景画像は、フレーム間差分処理を利用することで作成することが可能である。図6〜図8は、この処理を説明するための模式図である。図6(a)〜(c)は、人物303が窓301の前を右から左に移動しているシーンにおいて、撮像センサユニット24によって撮像された連続した3フレームの画像を示した模式図である。図6(b)は図6(a)の次のフレームの画像を、図6(c)は図6(b)の次のフレームの画像を示している。   Further, the above-described background image can be created by using inter-frame difference processing. 6 to 8 are schematic diagrams for explaining this processing. FIGS. 6A to 6C are schematic views illustrating three consecutive frames captured by the image sensor unit 24 in a scene in which the person 303 is moving from right to left in front of the window 301. is there. FIG. 6B shows an image of the next frame of FIG. 6A, and FIG. 6C shows an image of the next frame of FIG. 6B.

また、図7(a)〜(c)は、図6の画像を利用して、フレーム間差分処理を行なった、フレーム間差分画像を示している。白い画素は差分が存在しない画素、黒い画素305は差分が生じている画素を示している。ここで、視野内で移動している物体は人物のみであるとすると、フレーム間差分画像において、差分が生じない領域には、人物が存在していないと考えられる。そこで、フレーム間差分が生じない領域においては、背景画像を現在のフレームの画像と置き換える。この処理を繰り返すことで、背景画像を自動的に作成することができる。   FIGS. 7A to 7C show inter-frame difference images obtained by performing inter-frame difference processing using the image of FIG. White pixels indicate pixels where no difference exists, and black pixels 305 indicate pixels where a difference occurs. Here, if the only object moving within the field of view is a person, it is considered that no person exists in a region where no difference occurs in the inter-frame difference image. Therefore, in a region where no inter-frame difference occurs, the background image is replaced with the current frame image. By repeating this process, a background image can be automatically created.

図8(a)〜(c)は、それぞれ図6(a)〜(c)の各フレームにおける背景画像の更新を模式的に示した図である。斜線で示した領域306は、背景画像を更新した領域、黒領域307はまだ背景画像が作成されていない領域、白領域308は背景画像が更新されなかった領域を示している。つまり、図8の黒領域307と白領域308の合計領域が、図7の黒色領域305と等しくなる。図に示したとおり、人物が動いている場合、黒領域307が徐々に小さくなり、自動的に背景画像が作成されていることがわかる。   FIGS. 8A to 8C are diagrams schematically showing the update of the background image in each frame of FIGS. 6A to 6C. A hatched area 306 indicates an area where the background image has been updated, a black area 307 indicates an area where a background image has not yet been created, and a white area 308 indicates an area where the background image has not been updated. That is, the total area of the black area 307 and the white area 308 in FIG. 8 is equal to the black area 305 in FIG. As shown in the figure, when a person is moving, it can be seen that the black region 307 gradually decreases and a background image is automatically created.

次に、ステップS202において、求まった差分領域を領域分割することにより、複数の人物が存在している場合には、複数の差分領域として分割する。こうして求めた各差分領域の位置情報として、人物の位置情報を取得する。また、このような領域分割を行なうためには、公知の画像クラスタリング手法を利用すればよく、例えば、「差分が生じている画素と、その8近傍に存在する差分が生じている画素は、同一の領域である」というルールにしたがって、差分画像を領域分割すればよい。   Next, in step S202, the obtained difference area is divided into areas, and if there are a plurality of persons, the difference areas are divided into a plurality of difference areas. The position information of the person is acquired as the position information of each difference area thus obtained. In addition, in order to perform such region division, a known image clustering method may be used. For example, “a pixel in which a difference is generated and a pixel in which a difference existing in the vicinity of 8 is the same are the same. The difference image may be divided into regions in accordance with the rule of “region of

図9は、この領域分割処理を実行した模式図である。図9(a)は差分処理により計算された差分画像を示し、309および310の黒色画素が、差分の生じている画素である
。図9(b)は、差分画像として図9(a)が得られたとき、前記「差分が生じている画素と、その8近傍に存在する差分が生じている画素は、同一の領域である」というルールに従って領域分割を行なった結果を示している。
FIG. 9 is a schematic diagram in which this area division processing is executed. FIG. 9A shows a difference image calculated by difference processing, and the black pixels 309 and 310 are pixels in which a difference occurs. FIG. 9B shows that when FIG. 9A is obtained as a difference image, the “pixel in which the difference is generated and the pixel in which the difference existing in the vicinity of the 8 is generated are the same region. The result of area division according to the rule “is shown.

ここで、横縞領域311と縦縞領域312は、別の領域であると判断されている。このとき、画像処理で広く利用されているモルフォロジー処理などのノイズ除去処理を行なってもかまわない。   Here, it is determined that the horizontal stripe region 311 and the vertical stripe region 312 are different regions. At this time, noise removal processing such as morphological processing widely used in image processing may be performed.

次に、ステップS103において、各領域の変化量から、さらにその人物が滞在しているのか、どのように動いているのかといった移動情報を検出する。ここでは、移動情報として、「複数の人物の重なりが生じておらず、一人の人物がその頭部と足元を通るベクトルに対してほぼ直交する方向に移動している」かどうかを判断する。これは、検出された領域の位置情報に時空間フィルタリングすることで実現する。つまり、以下の4つの条件が満たされているかどうかを確認する。   Next, in step S103, movement information such as whether the person is staying or how the person is moving is detected from the amount of change in each area. Here, as the movement information, it is determined whether or not “a plurality of persons are not overlapped and one person is moving in a direction substantially orthogonal to a vector passing through the head and feet”. This is realized by performing spatiotemporal filtering on the position information of the detected area. That is, it is confirmed whether or not the following four conditions are satisfied.

1.複数フレームにわたって、一定範囲以内の位置変化を生じ、さらに大きさ変化が一定範囲内の差分領域が存在しているか?
2.一定面積以上の大きさの位置情報を検出しているか?
3.差分領域の縦横アスペクト比が一定値以上か?
4.検出された人物の移動方向が、その人物の頭部と足元を通るベクトルに対して直交する方向か?
上記4つの条件を満たす場合、その位置に人物が存在し、しかもその人物が移動していると判断する。
1. Does the position change within a certain range occur over a plurality of frames, and whether there is a difference area whose magnitude change is within the certain range?
2. Is position information larger than a certain area detected?
3. Is the aspect ratio of the difference area greater than a certain value?
4). Is the detected moving direction of the person orthogonal to the vector passing through the person's head and feet?
If the above four conditions are satisfied, it is determined that there is a person at that position and that the person is moving.

まず、条件1では、時間的なフィルタリング処理を行なっている。すなわち、差分領域が人物である場合、その移動速度は歩行速度よりも速くなることはなく(一定範囲以内の位置変化)、また、大きさも大きく変化することはない(大きさ変化が一定範囲内)。一方、差分領域が光の状態の変化で生じている場合、その大きさや位置は大きくばらつく。そのため、条件1を利用することで、人物以外のノイズを除去することができる。このような条件は、例えば、重心u座標値の差が10画素以内で差分領域の横幅の差が2画素以下の領域が、5フレーム以上で連続して検出されるなどで実現できる。   First, in condition 1, temporal filtering processing is performed. That is, when the difference area is a person, the moving speed is not faster than the walking speed (position change within a certain range), and the size does not change greatly (the magnitude change is within a certain range). ). On the other hand, when the difference area is caused by a change in the state of light, the size and position vary greatly. Therefore, by using Condition 1, noise other than a person can be removed. Such a condition can be realized, for example, by continuously detecting an area in which the difference in the center of gravity u coordinate value is within 10 pixels and the difference in the width of the difference area is 2 pixels or less continuously in 5 frames or more.

条件2では、大きさによるフィルタリングを実施し、風で動いたカレンダーなどのノイズ除去を行なう。これは、例えば、差分領域の横方向の画素数が4画素以上とすることで実現できる。   In condition 2, filtering by size is performed, and noise such as calendars moved by wind is removed. This can be realized, for example, by setting the number of pixels in the horizontal direction of the difference area to 4 or more.

条件3では、人物が歩行していることを前提とすることで、形状によるフィルタリングを行なう。このようなフィルタリングで、例えば、空間内を動き回るペットや、身長推定が困難な、複数の人物が重なった状態などを差分領域から除去することができる。このような条件は、例えば、差分領域の高さは、検出枠の横幅の1.5倍以上とすることで実現できる。ここで、複数の人物が重なっている領域をノイズとして除去することは、このような状況では人物の移動方向を正確に求めることができないためである。   Condition 3 performs filtering by shape on the assumption that a person is walking. By such filtering, for example, a pet moving around in the space, a state in which height estimation is difficult, and a plurality of persons overlapped can be removed from the difference region. Such a condition can be realized, for example, by setting the height of the difference area to 1.5 times or more the horizontal width of the detection frame. Here, the area where a plurality of persons overlap is removed as noise because the moving direction of the person cannot be accurately obtained in such a situation.

条件4では、人物がその人物の頭部と足元を通るベクトル(以下、縦方向と記載)に対して直交する方向(以下、横方向と記載)に移動していることに限定して、移動検出を行なうための条件である。人物が縦方向に移動している場合、その画像上での見え方は、撮像センサユニット24に正対している椅子やソファーに座っている人物が立ち上がった場合と区別がつきにくい。撮像センサユニット24に正対して座っている人物が立ち上がった場合、画像上では、上半身のみが変化し、下半身はほとんど変化しない。   In condition 4, the movement is limited to that the person is moving in a direction (hereinafter referred to as the horizontal direction) orthogonal to a vector passing through the person's head and feet (hereinafter referred to as the vertical direction). This is a condition for performing detection. When the person is moving in the vertical direction, the appearance on the image is difficult to distinguish from the case where the person sitting on the chair or sofa facing the imaging sensor unit 24 stands up. When a person sitting facing the imaging sensor unit 24 stands up, only the upper body changes and the lower body hardly changes on the image.

そのため、差分画像を作成した場合、上半身のみが検出されてしまい、正確に身長を推定することが難しい。そこで、本実施例における身長推定装置では、横方向に移動している人物に限定して身長推定処理を行なうことで、身長推定精度を高めることができる。このような条件は、例えば、差分領域の最上部v座標値の差が前後フレームで2画素以下であり、かつ、前後フレームでの差分領域の重心u座標値の差が2画素以上、10画素以内である、というフィルタリングで実現できる。   Therefore, when a difference image is created, only the upper body is detected, and it is difficult to accurately estimate the height. Therefore, in the height estimation device according to the present embodiment, the height estimation accuracy can be increased by performing the height estimation process only for the person moving in the horizontal direction. Such a condition is, for example, that the difference in the uppermost v-coordinate value of the difference area is 2 pixels or less in the preceding and following frames, and the difference in the centroid u coordinate value of the difference area in the preceding and following frames is 2 pixels or more and 10 pixels. It can be realized by filtering that is within.

本実施形態の人物移動検出手段101は、上記4条件がすべて満たされる場合、差分領域は移動している人物であると判断する。一方、4条件のいずれか一つでも満たされない場合、差分領域は移動している人物ではないと判断する。   The person movement detection unit 101 of this embodiment determines that the difference area is a moving person when all of the above four conditions are satisfied. On the other hand, if any one of the four conditions is not satisfied, it is determined that the difference area is not a moving person.

状況認識処理判断手段102は、前記人物移動検出手段の検出結果により、身長推定を実施するかどうかを判断する。ここでは、前記人物移動検出手段101によって、差分領域が移動している人物であると判断されている場合、状況認識処理判断手段102は、現在のフレーム画像は身長推定に適していると判断し、身長推定処理を実行する。   The situation recognition processing determination unit 102 determines whether to perform height estimation based on the detection result of the person movement detection unit. Here, when the person movement detection means 101 determines that the difference area is a moving person, the situation recognition process determination means 102 determines that the current frame image is suitable for height estimation. , Execute the height estimation process.

一方、前記人物移動検出手段101によって、差分領域が移動している人物ではないと判断されている場合、状況認識処理判断手段102は、現在のフレーム画像は身長推定に適していないと判断し、身長推定処理を行なわず、現在のフレーム画像に対して身長推定処理を行なわず、以前の身長情報を現在の身長情報として保持する。   On the other hand, when the person movement detection unit 101 determines that the difference area is not a moving person, the situation recognition processing determination unit 102 determines that the current frame image is not suitable for height estimation, The height estimation process is not performed, the height estimation process is not performed on the current frame image, and the previous height information is held as the current height information.

<身長推定手段>
状況認識処理判断手段102によって、人物が移動していると判断された場合(ステップS104でYes)、足元位置検出手段104は、人物の足元位置を推定する(ステップS105)。さらに、頭部位置検出手段105は、人物の頭部位置を推定する(ステップS106)。身長推定手段106は、前記足元位置検出手段104で求めた足元位置情報と前記頭部位置で求めた頭部位置情報を利用して、人物の身長を検出する(ステップS107)。これらの処理について、詳述する。
<Height estimation means>
When the situation recognition process determination unit 102 determines that the person is moving (Yes in step S104), the foot position detection unit 104 estimates the foot position of the person (step S105). Further, the head position detecting means 105 estimates the head position of the person (step S106). The height estimating means 106 detects the height of the person using the foot position information obtained by the foot position detecting means 104 and the head position information obtained from the head position (step S107). These processes will be described in detail.

図10は、身長推定処理の流れを示したフローチャートである。   FIG. 10 is a flowchart showing the flow of the height estimation process.

まず、足元位置検出手段104は、画像上の差分領域から、足元位置を推定する(ステップS203)。ここでは、画像上の足元位置として、差分領域の下端領域に存在する画素において、背景差分が生じている画素の重心座標として求める。もちろん、画像上の足元位置を求める際に、差分領域の最下端を選択するようにしてもかまわない。   First, the foot position detecting means 104 estimates the foot position from the difference area on the image (step S203). Here, the foot position on the image is obtained as the barycentric coordinates of the pixel in which the background difference occurs in the pixels existing in the lower end area of the difference area. Of course, the bottom end of the difference area may be selected when obtaining the foot position on the image.

次に、求めた画像上の足元位置を利用して、実空間での足元位置を計算する(ステップS204)。画像上の足元位置から世界座標系での足元位置を検出するためには、透視投影変換を利用すればよい。   Next, the foot position in the real space is calculated using the foot position on the obtained image (step S204). In order to detect the foot position in the world coordinate system from the foot position on the image, perspective projection transformation may be used.

以下の説明では、3つの座標系を利用するが、まず、透視投影変換を説明するために、画像座標系とカメラ座標系を説明する。図11(a)は、この2つの座標系を説明するための模式図である。まず、画像座標系を考える。これは、撮像された画像における2次元の座標系であり、画像の左上の画素を原点、右方向にu、下方向にvとする。次に撮像センサユニット24を基準とした3次元の座標系であるカメラ座標系を考える。カメラ座標系は、撮像センサユニットの焦点位置を原点、撮像センサユニット24の光軸方向をZc,撮像センサユニット上向きをYc,撮像センサユニット左方向をXcとする。このとき、透視投影変換により、以下の関係が成り立つ。   In the following description, three coordinate systems are used. First, an image coordinate system and a camera coordinate system will be described in order to explain perspective projection transformation. FIG. 11A is a schematic diagram for explaining these two coordinate systems. First, consider the image coordinate system. This is a two-dimensional coordinate system in the captured image, where the upper left pixel of the image is the origin, u is rightward, and v is downward. Next, consider a camera coordinate system, which is a three-dimensional coordinate system based on the image sensor unit 24. In the camera coordinate system, the focal position of the image sensor unit is the origin, the optical axis direction of the image sensor unit 24 is Zc, the image sensor unit upward is Yc, and the image sensor unit left direction is Xc. At this time, the following relationship is established by perspective projection conversion.

ここで、fは焦点距離[mm]、(u0,v0)は画像座標上での画像中心[Pixel]、(dpx,dpy)は撮像素子1画素の大きさ[mm/Pixel]を示している。ここで、Xc,Yc,Zcは未知数であることに着目すると、[数1]は、画像上での座標(u,v)が既知の場合、その座標に対応する実際の3次元位置は、カメラ座標系の原点を通る、ある直線上に存在することがわかる。   Here, f is the focal length [mm], (u0, v0) is the image center [Pixel] on the image coordinates, and (dpx, dpy) is the size [mm / Pixel] of one pixel of the image sensor. . Here, paying attention to the fact that Xc, Yc, and Zc are unknown numbers, when the coordinates (u, v) on the image are known, [Equation 1] is the actual three-dimensional position corresponding to the coordinates: It can be seen that it exists on a certain straight line passing through the origin of the camera coordinate system.

ここで、画像上の足元位置を(uf,vf)とする。また、図12(a)、(b)に示したように、点315で示した足元位置のカメラ座標系での3次元位置を(Xfc,Yfc,Zfc)とする。図12(a)は空調空間を横から見た模式図、図12(b)は上から見た模式図を示している。また、撮像センサユニットの設置された高さをH、Xc方向が水平方向に等しいとし、さらに足元位置は、床面上に存在する、すなわち、撮像センサユニットから高さHの平面上に存在すると仮定する。足元位置のカメラ座標系での3次元位置(Xfc,Yfc,Zfc)は、[数1]の透視投影変換より、次式で計算できる。   Here, it is assumed that the foot position on the image is (uf, vf). Further, as shown in FIGS. 12A and 12B, the three-dimensional position in the camera coordinate system of the foot position indicated by the point 315 is defined as (Xfc, Yfc, Zfc). FIG. 12A is a schematic view of the air-conditioned space viewed from the side, and FIG. 12B is a schematic view of the air-conditioned space viewed from above. Further, it is assumed that the height at which the image sensor unit is installed is H and the Xc direction is equal to the horizontal direction, and that the foot position is on the floor surface, that is, on the plane having the height H from the image sensor unit. Assume. The three-dimensional position (Xfc, Yfc, Zfc) of the foot position in the camera coordinate system can be calculated by the following equation from the perspective projection transformation of [Equation 1].

[数2]は、以下のように書き直される。   [Expression 2] is rewritten as follows.

既存のキャリブレーション(カメラパラメータ推定)処理により、f,u0,v0,dpx,dpyが既知であるとすると、[数2]および[数3]におけるβ、φは(uf,vf)によって一意に決定される。そのため、[数3]の未知数はZfcのみである。   If f, u0, v0, dpx, and dpy are already known by existing calibration (camera parameter estimation) processing, β and φ in [Equation 2] and [Equation 3] are uniquely determined by (uf, vf). It is determined. Therefore, the unknown in [Equation 3] is only Zfc.

ここで、もう一つの座標系である世界座標系を考える。図11(b)は世界座標系を説明するための模式図である。ここで、撮像センサユニット24のXc方向は水平方向であるとする。世界座標系は、撮像センサユニットの焦点位置を原点、撮像センサユニット左方向(Xc軸方向)をXw,Xw−Yw平面が水平面となるようにYw,垂直下向きをZwとする。このとき、カメラ座標系(Xc,Yc,Zc)と世界座標系(Xw,Yw,Zw)は、以下の関係を満たす。   Now consider another coordinate system, the world coordinate system. FIG. 11B is a schematic diagram for explaining the world coordinate system. Here, it is assumed that the Xc direction of the image sensor unit 24 is a horizontal direction. In the world coordinate system, the focal position of the image sensor unit is the origin, the image sensor unit left direction (Xc axis direction) is Xw, the Xw-Yw plane is Yw, and the vertical downward direction is Zw. At this time, the camera coordinate system (Xc, Yc, Zc) and the world coordinate system (Xw, Yw, Zw) satisfy the following relationship.

ここで、行列Rは3x3行列の変換行列である。ここで、撮像センサユニット24の設
置方向が既知である場合、行列Rは既知となる。すなわち、カメラ座標系での(Xc,Yc,Zc)が既知の場合、[数4]により、世界座標系(Xw,Yw,Zw)も一意に求められる。
Here, the matrix R is a 3 × 3 matrix transformation matrix. Here, when the installation direction of the image sensor unit 24 is known, the matrix R is known. That is, when (Xc, Yc, Zc) in the camera coordinate system is known, the world coordinate system (Xw, Yw, Zw) is also uniquely obtained by [Equation 4].

よって、[数3]および[数4]より、世界座標系での足元位置(Xfw,Yfw,Zfw)は、次式より求まる。   Therefore, from [Equation 3] and [Equation 4], the foot position (Xfw, Yfw, Zfw) in the world coordinate system is obtained from the following equation.

ここで、撮像センサユニットは、H=約2mの高さに通常設置されることを考慮すると、次式が成り立つ。   Here, considering that the image sensor unit is normally installed at a height of H = about 2 m, the following equation holds.

よって、[数5]、[数6]を解くことにより、世界座標系での足元位置(Xfw,Yfw,Zfw)を一意に求めることができる。   Therefore, by solving [Equation 5] and [Equation 6], the foot position (Xfw, Yfw, Zfw) in the world coordinate system can be uniquely obtained.

次に、頭部位置検出手段105が、画像上から人物の頭部位置を推定する処理について説明する。まず、頭部位置検出手段105は、画像上の差分領域から、頭部位置を推定する(ステップS205)。ここでは、画像上の頭部位置として、差分領域の上端領域に存在する画素において、背景差分が生じている画素の重心座標として求める。もちろん、画像上の頭部位置を求める際に、差分領域の最上端を選択するようにしてもかまわない。   Next, a process in which the head position detecting unit 105 estimates the head position of a person from the image will be described. First, the head position detecting means 105 estimates the head position from the difference area on the image (step S205). Here, the head position on the image is obtained as the barycentric coordinates of the pixel in which the background difference occurs in the pixel existing in the upper end area of the difference area. Of course, when obtaining the head position on the image, the top end of the difference area may be selected.

次に、ステップS205で求めた画像上の頭部位置、およびステップS204で足元位置検出手段104が求めた世界座標系での足元位置を利用して、世界座標系での頭部位置を計算する(ステップS206)。画像上の頭部位置から世界座標系での頭部位置を検出するためには、透視投影変換を利用すればよいが、人物の身長情報は未知のため、足元位置と異なり、高さ情報を利用して世界座標系での頭部位置を一意に求めることはできない。そこで、人物が垂直に立っている、すなわち頭部位置は足元位置の真上に存在すると仮定することで、頭部位置を求める。   Next, the head position in the world coordinate system is calculated using the head position on the image obtained in step S205 and the foot position in the world coordinate system obtained by the foot position detection means 104 in step S204. (Step S206). In order to detect the head position in the world coordinate system from the head position on the image, it is sufficient to use perspective projection transformation, but since the height information of the person is unknown, the height information is different from the foot position. It is not possible to uniquely determine the head position in the world coordinate system. Therefore, the head position is obtained by assuming that the person stands vertically, that is, the head position exists immediately above the foot position.

この方法について説明する。まず、足元位置検出手段104と同様、未知変数Zhcによって、世界座標系での頭部位置(Xhw,Yhw,Zhw)は次式で表される。   This method will be described. First, similarly to the foot position detection means 104, the head position (Xhw, Yhw, Zhw) in the world coordinate system is expressed by the following equation using the unknown variable Zhc.

ここで、画像上の頭部位置を(uh,vh)とする。また、図13(a)、(b)に示
したように、頭部位置のカメラ座標系での3次元位置を(Xhc,Yhc,Zhc)とする。図13(a)は空調空間を横から見た模式図、図13(b)は上から見た模式図を示している。この図において、点315は足元位置の3次元位置、点316は東部位置の3次元位置の3次元位置を示している。ところで、人物が垂直に立っている、すなわち頭部位置316は足元位置315の真上に存在すると仮定すると、世界座標の水平面上での頭部位置(Xhw,Yhw)と足元位置(Xfw,Yfw)は等しいはずである。よって、[数8]の評価関数E(Zhc)を最小にするZhcを求めることにより、世界座標系での足元位置(Xhw,Yhw,Zhw)を求めることができる。
Here, the head position on the image is (uh, vh). Further, as shown in FIGS. 13A and 13B, the three-dimensional position of the head position in the camera coordinate system is (Xhc, Yhc, Zhc). FIG. 13A is a schematic view of the air-conditioned space viewed from the side, and FIG. 13B is a schematic view of the air-conditioned space viewed from above. In this figure, the point 315 indicates the three-dimensional position of the foot position, and the point 316 indicates the three-dimensional position of the three-dimensional position of the eastern position. By the way, assuming that the person is standing vertically, that is, the head position 316 exists immediately above the foot position 315, the head position (Xhw, Yhw) and the foot position (Xfw, Yfw) on the horizontal plane of the world coordinates. ) Should be equal. Therefore, the foot position (Xhw, Yhw, Zhw) in the world coordinate system can be obtained by obtaining Zhc that minimizes the evaluation function E (Zhc) of [Equation 8].

ここで、評価関数E(Zhc)は、図13の317で示した距離の2乗である。[数8]の評価関数E(Zhc)を最小にするZhcを求めるために、[数8]をZhcで微分すると、以下のようになる。   Here, the evaluation function E (Zhc) is the square of the distance indicated by 317 in FIG. In order to obtain Zhc that minimizes the evaluation function E (Zhc) of [Equation 8], when [Equation 8] is differentiated by Zhc, the following is obtained.

[数10][数7]により、頭部位置検出手段105は、世界座標系での人物の頭部位置を推定する。   From [Equation 10] and [Equation 7], the head position detecting means 105 estimates the head position of the person in the world coordinate system.

次に、身長推定手段106は、前記足元位置検出手段104で求めた足元位置情報と前記頭部位置検出手段105で求めた頭部位置情報を利用して、人物の身長を検出する(ステップS207)。この方法について説明する。人物が垂直に立っている、すなわち頭部位置は足元位置の真上に存在すると仮定すると、人物の身長Lは、次式で求められる。   Next, the height estimation means 106 detects the height of the person using the foot position information obtained by the foot position detection means 104 and the head position information obtained by the head position detection means 105 (step S207). ). This method will be described. If it is assumed that the person is standing vertically, that is, the head position is directly above the foot position, the height L of the person is obtained by the following equation.

ここで、ZfWは前記足元位置検出手段104で求めた世界座標での足元高さ、ZhWは前記頭部位置検出手段105で求めた世界座標での頭部高さである。   Here, ZfW is the foot height in world coordinates obtained by the foot position detecting means 104, and ZhW is the head height in world coordinates obtained by the head position detecting means 105.

以上の処理により、撮像センサユニット24が撮像したフレーム画像を利用して、人物の身長情報を推定することができる。ところで、以上の処理により、身長情報を正確に推定するためには、以下の条件Aを満たす必要がある。   Through the above processing, the height information of the person can be estimated using the frame image captured by the image sensor unit 24. By the way, in order to accurately estimate the height information by the above processing, it is necessary to satisfy the following condition A.

条件A:人物が垂直に立っている、すなわち頭部位置は足元位置の真上に存在する。   Condition A: The person stands vertically, that is, the head position is directly above the foot position.

監視カメラが広く利用されている屋外では、人物は動き回っていることが普通であり、滞在している人物はイレギュラーな存在である。一方、家庭内では、人物が座っていることや寝ていることが多く、動き回っていることは少ない。そのため、監視カメラによって
身長推定を行なうためには、条件Aをそれほど考慮する必要がないが、家庭内においては、条件Aを満たしている画像のみを選択して処理することは、推定精度を向上させる上で、非常に重要である。本実施形態の身長推定装置では、前記人物移動検出手段101によって、差分領域が移動している人物かどうかを検出し、状況認識処理判断手段102によって、人物が移動している場合にのみ身長推定を実施するため、高精度の身長推定を実現できる。
In the outdoors where surveillance cameras are widely used, people are usually moving around, and people who are staying are irregular. On the other hand, in the home, people are often sitting and sleeping, and rarely move around. Therefore, it is not necessary to consider the condition A so much in order to estimate the height with the surveillance camera. However, in the home, selecting and processing only the image satisfying the condition A improves the estimation accuracy. It is very important in making it happen. In the height estimation apparatus of this embodiment, the person movement detection unit 101 detects whether the difference area is a moving person, and the situation recognition processing determination unit 102 estimates the height only when the person is moving. Therefore, high-precision height estimation can be realized.

また、家庭内では、屋外や公共空間と異なり、人物は座っていたり、横になっていたりすることが多い。この場合、条件Aは満たされないため、身長推定の精度は大きく劣化してしまう。一方、本実施形態の身長推定装置では、人物が移動している場合にのみ身長推定を実施しているが、人物が移動している場合、その人物が寝ていたり、座っていたりすることはほとんどありえない。そのため、本実施形態の身長推定装置は、人物が寝ていたり、座っていたりするシーンでは身長推定は行われないため、高精度の身長推定を実現できる。   Also, in the home, unlike outdoor or public spaces, people often sit or lie down. In this case, since the condition A is not satisfied, the accuracy of the height estimation is greatly deteriorated. On the other hand, in the height estimation device of this embodiment, height estimation is performed only when a person is moving, but when a person is moving, the person is sleeping or sitting down. Almost impossible. For this reason, the height estimation apparatus of the present embodiment does not perform height estimation in a scene where a person is sleeping or sitting, and thus can achieve high-precision height estimation.

以上の説明では、人物移動検出手段101として、撮像センサユニット24を利用するのではなく、公知技術である、人感センサや、赤外線センサを利用するようにしてもかまわない。   In the above description, instead of using the imaging sensor unit 24 as the person movement detection unit 101, a human sensor or an infrared sensor, which is a known technique, may be used.

以上のように、本実施形態の身長推定装置は、人物移動検出手段101によって人物の移動情報を推定し、状況認識処理判断手段102は、人物が移動している場合のみ、身長推定手段106により身長推定処理を行なうことにより、家庭内においても、高精度の身長推定処理を実現することができる。   As described above, the height estimation apparatus of the present embodiment estimates person movement information by the person movement detection unit 101, and the situation recognition processing determination unit 102 performs the height estimation unit 106 only when the person is moving. By performing the height estimation process, a highly accurate height estimation process can be realized even in the home.

(実施の形態2)
図14は、状況認識処理として、障害物検出処理を行なう、本発明の第2の実施の形態における状況認識装置の構成を示す機能ブロック図である。図14において、図1および図2と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。図15は、本実施形態における障害物検出処理の流れを示すフローチャートである。図15において、図3と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。
(Embodiment 2)
FIG. 14 is a functional block diagram showing the configuration of the situation recognition apparatus according to the second embodiment of the present invention, which performs an obstacle detection process as the situation recognition process. In FIG. 14, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and the description thereof is omitted. FIG. 15 is a flowchart showing the flow of obstacle detection processing in the present embodiment. In FIG. 15, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.

本実施形態の障害物検出手段107は、「撮像センサユニット24によって撮像されている人物の足元領域には、障害物が存在しない」と仮定し、家庭内を動き回る人物の移動履歴を障害物マップとして求めることにより、家庭内の障害物を検出する。   The obstacle detection means 107 according to the present embodiment assumes that “there is no obstacle in the foot area of the person imaged by the imaging sensor unit 24”, and the movement history of the person moving around in the home is recorded as the obstacle map. To detect obstacles in the home.

図15において、人物移動検出手段101は撮像センサユニット24を利用して、家庭内を撮像し、フレーム画像を取得する(ステップS101)。さらに、人物移動検出手段101は取得したフレーム画像を利用して、人物の在否と位置情報を検出し(ステップS102)、人物が存在している場合は、さらにその人物が滞在しているのか、どのように動いているのかといった移動情報を検出する(ステップS103)。状況認識処理判断手段102は、前記前記人物移動検出手段101の検出結果に基づいて、現在のフレーム画像に対して障害物検出処理を行なうかどうかを判断する(ステップS104)。   In FIG. 15, the person movement detection unit 101 uses the image sensor unit 24 to capture an image of the home and obtain a frame image (step S <b> 101). Furthermore, the person movement detecting means 101 detects the presence / absence and position information of the person using the acquired frame image (step S102), and if there is a person, is the person staying further? The movement information such as how it moves is detected (step S103). Based on the detection result of the person movement detection unit 101, the situation recognition process determination unit 102 determines whether to perform an obstacle detection process on the current frame image (step S104).

すなわち、状況認識処理判断手段102によって、人物が移動していると判断された場合(ステップS104でYes)、障害物検出手段107は障害物マップを更新し(ステップS109)、障害物マップを利用して、家庭内の障害物情報を取得する(ステップS110)。一方、状況認識処理判断手段102によって、人物が存在していない、または、移動していないと判断された場合(ステップS104でNo)、障害物検出手段107は障害物マップを更新せず、以前の障害物マップを利用して、家庭内の障害物情報を取得する(ステップS110)。   That is, when the situation recognition processing determination unit 102 determines that the person is moving (Yes in step S104), the obstacle detection unit 107 updates the obstacle map (step S109) and uses the obstacle map. Then, the obstacle information in the home is acquired (step S110). On the other hand, when the situation recognition processing determination unit 102 determines that the person does not exist or has not moved (No in step S104), the obstacle detection unit 107 does not update the obstacle map. The obstacle information in the home is acquired using the obstacle map (step S110).

図16は、障害物検出手段107における障害物マップ更新処理の流れを示すフローチャートである。   FIG. 16 is a flowchart showing the flow of obstacle map update processing in the obstacle detection means 107.

まず、障害物検出手段107は、既に障害物マップが存在しているかどうかを確認する(ステップS301)。ここで、障害物マップが存在していなかった場合(ステップS301でNo)、初期化された障害物マップを作成する(ステップS302)。   First, the obstacle detection means 107 confirms whether an obstacle map already exists (step S301). If no obstacle map exists (No in step S301), an initialized obstacle map is created (step S302).

一方、障害物マップが存在していた場合(ステップS301でYes)、存在している障害物マップを初期化せず、そのまま利用する。次に、障害物検出手段107は、既に短期障害物マップが存在しているかどうかを確認する(ステップS303)。ここで、短期障害物マップが存在していなかった場合(ステップS303でNo)、初期化された短期障害物マップを作成する(ステップS304)。   On the other hand, if an obstacle map exists (Yes in step S301), the existing obstacle map is used without being initialized. Next, the obstacle detection means 107 confirms whether a short-term obstacle map already exists (step S303). If no short-term obstacle map exists (No in step S303), an initialized short-term obstacle map is created (step S304).

一方、短期障害物マップが存在していた場合(ステップS303でYes)、存在している短期障害物マップを初期化せず、そのまま利用する。次に、撮像センサユニット24で撮像したフレーム画像に対して、前述の方法を利用して、画像上の足元位置を推定する(ステップS203)。障害物検出手段107は、求まった足元位置座標に対応する短期障害物マップへ一定値を投票する(ステップS305)。次に、短期障害物マップに十分な枚数、投票を行なったかどうかを確認する(ステップS306)。   On the other hand, if a short-term obstacle map exists (Yes in step S303), the existing short-term obstacle map is used without being initialized. Next, the foot position on the image is estimated using the above-described method for the frame image captured by the image sensor unit 24 (step S203). The obstacle detection means 107 votes a fixed value on the short-term obstacle map corresponding to the obtained foot position coordinates (step S305). Next, it is confirmed whether a sufficient number of votes have been cast for the short-term obstacle map (step S306).

ここで、十分な枚数投票が行なわれた場合(ステップS306でYes)、短期障害物マップにしたがって、障害物マップを更新し(ステップS307)、短期障害物マップを廃棄する(ステップS308)。一方、まだ十分な枚数投票が行なわれていない場合(ステップS306でNo)、障害物検出手段107は、障害物マップの更新を行なわず、また、短期障害物マップも廃棄せず、そのまま保持する。   Here, when a sufficient number of votes are performed (Yes in step S306), the obstacle map is updated according to the short-term obstacle map (step S307), and the short-term obstacle map is discarded (step S308). On the other hand, when the sufficient number of votes has not been performed yet (No in step S306), the obstacle detection means 107 does not update the obstacle map, and does not discard the short-term obstacle map and holds it as it is. .

障害物マップと短期障害物マップについて説明する。障害物マップとは、家庭内をいくつかの領域に分割し、領域ごとに障害物の存在しない確率を示したマップ情報である。短期障害物マップは、障害物マップと比較し、より短期間での障害物の存在しない確率を示したものであり、短期障害物マップを利用して、障害物マップを作成する。図17、および図18は、障害物マップおよび短期障害物マップを説明するための模式図である。   The obstacle map and the short-term obstacle map will be described. The obstacle map is map information indicating the probability that no obstacle exists in each area by dividing the home into several areas. The short-term obstacle map indicates a probability that there is no obstacle in a shorter period of time compared to the obstacle map, and an obstacle map is created using the short-term obstacle map. 17 and 18 are schematic diagrams for explaining the obstacle map and the short-term obstacle map.

図17は、家庭内の様子を示した模式図であり、図18(a)は、図17に示した家庭において、撮像センサユニット24で撮影された画像の模式図である。障害物マップおよび短期障害物マップは、図18(a)を分割した、図18(b)の各領域として与えられる。   FIG. 17 is a schematic diagram illustrating a state in the home, and FIG. 18A is a schematic diagram of an image captured by the image sensor unit 24 in the home illustrated in FIG. The obstacle map and the short-term obstacle map are given as the respective areas in FIG. 18B, which are obtained by dividing FIG.

この図において、318で示した各領域が障害物マップおよび短期障害物マップの1要素となる。このような領域分割は、例えば撮影画像を80x60領域程度に分割することで実現する。また、障害物マップと短期障害物マップとは、同じ領域を有する、別のマップ情報である。   In this figure, each area indicated by 318 is one element of an obstacle map and a short-term obstacle map. Such area division is realized by, for example, dividing a photographed image into about 80 × 60 areas. The obstacle map and the short-term obstacle map are different map information having the same area.

次に、図16のフローチャートの詳細な説明を行なう。ステップS302において、初期化された障害物マップを作成する。これは、前述のように、撮影画像に対し、80x60領域に分割したマップ情報を作成し、すべての領域に0を記載することで行なわれる。   Next, the detailed flowchart of FIG. 16 will be described. In step S302, an initialized obstacle map is created. As described above, this is done by creating map information divided into 80 × 60 areas for the captured image and writing 0 in all areas.

ステップS304において、短期障害物マップを初期化する。これは、障害物マップ同様に、短期障害物マップの各領域に0を記載することで行なわれる。   In step S304, a short-term obstacle map is initialized. This is done by writing 0 in each area of the short-term obstacle map as in the obstacle map.

ステップS305において、ステップS203で求まった足元位置座標に対応する短期障害物マップへ一定値を投票する。本実施形態における障害物検出手段107は、「人物の足元が撮像センサユニット24によって撮像されている領域には、障害物が存在しない」と仮定し、家庭内を動き回る人物の移動履歴を障害物マップとして蓄えることにより、家庭内の障害物を検出する。   In step S305, a fixed value is voted for the short-term obstacle map corresponding to the foot position coordinates obtained in step S203. The obstacle detection means 107 according to the present embodiment assumes that “there is no obstacle in the area where the foot of the person is imaged by the imaging sensor unit 24”, and the movement history of the person moving around in the home is shown as an obstacle. By storing it as a map, it detects obstacles in the home.

つまり、ステップS203で求まった足元位置の履歴を、障害物マップとして蓄えることで、障害物マップを障害物の存在しない確率として取得する。   That is, by storing the foot position history obtained in step S203 as an obstacle map, the obstacle map is acquired as a probability that no obstacle exists.

図19はこの処理を説明するための模式図である。図19(a)は、人物303が図17に示した家庭内に存在しているフレーム画像を示した模式図である。ここで、領域319は差分領域である。   FIG. 19 is a schematic diagram for explaining this process. FIG. 19A is a schematic diagram showing a frame image in which the person 303 exists in the home shown in FIG. Here, the area 319 is a difference area.

このとき、前記足元位置検出手段104で検出された足元位置に対応する障害物マップの領域に一定値をプラスする。もちろん、差分領域の下部20%に含まれる領域(図19(b)の領域320)に対応する短期障害物マップの領域に一定値をプラスするようにしてもかまわないし、前記足元位置検出手段104で検出された足元位置の一定範囲内に対応する障害物マップの領域に一定値をプラスするようにしてもかまわない。これは、これら領域に人物の足元が存在する可能性が高いためである。   At this time, a certain value is added to the area of the obstacle map corresponding to the foot position detected by the foot position detecting means 104. Of course, a constant value may be added to the area of the short-term obstacle map corresponding to the area included in the lower 20% of the difference area (area 320 in FIG. 19B). Alternatively, a certain value may be added to the area of the obstacle map corresponding to the certain range of the foot position detected in step. This is because there is a high possibility that a person's feet exist in these areas.

ステップS306において、障害物検出手段107は、短期障害物マップに十分な枚数、投票を行なったかどうかを確認する。これは、例えば、150フレーム分のデータが投票されたかどうかを確認すればよい。   In step S306, the obstacle detection means 107 confirms whether a sufficient number of votes have been cast for the short-term obstacle map. For example, it may be confirmed whether data for 150 frames has been voted.

ステップS306において、短期障害物マップに十分な枚数、投票が行なわれた場合(ステップS306でYes)、ステップS307において、短期障害物マップにしたがって、障害物マップを更新する。これは、以下のように実現される。   If a sufficient number of votes are cast for the short-term obstacle map in step S306 (Yes in step S306), the obstacle map is updated according to the short-term obstacle map in step S307. This is realized as follows.

ここで、Obst_Map_s[i]は領域iの短期障害物マップの値、Obst_Map[i]は領域iの障害物マップの値、TH_OBST_Sは短期障害物マップのノイズを除去するための閾値であり、Q_OBSTは、障害物マップへプラスする値である。ここでは、例えば、TH_OBST_S=2,Q_OBST=255とすればよい。   Here, Obst_Map_s [i] is the value of the short-term obstacle map in the region i, Obst_Map [i] is the value of the obstacle map in the region i, TH_OBST_S is a threshold value for removing noise in the short-term obstacle map, and Q_OBST Is a value added to the obstacle map. Here, for example, TH_OBST_S = 2 and Q_OBST = 255 may be set.

図20(a)は、こうして作成された、短期障害物マップの一例を示した模式図である。各領域において、白が0、黒に近いほど値が大きくなっている。また、図20(b)は、[数12]にしたがい、Obst_Map_s[i]の値がTH_OBST_Sより大きな領域を黒、そうでない領域を白で示した模式図である。この黒領域に対応する障害物マップの各領域にQ_OBSTをプラスし、白領域に対応する障害物マップの各領域から1をマイナスする。   FIG. 20A is a schematic diagram showing an example of the short-term obstacle map created in this way. In each region, the value is larger as white is 0 and closer to black. FIG. 20B is a schematic diagram showing a region where the value of Obst_Map_s [i] is larger than TH_OBST_S in black and a region other than that in white according to [Equation 12]. Q_OBST is added to each area of the obstacle map corresponding to the black area, and 1 is subtracted from each area of the obstacle map corresponding to the white area.

図21(a)は、このような処理を繰り返すことによって作成した、障害物マップの一例を示した模式図である。各領域において、白が0、黒に近いほど値が大きくなっている。右側のソファーの上や左側の階段の一部にノイズが残っているが、足元位置の履歴を蓄えることで、障害物マップを障害物の存在しない確率として取得できていることがわかる。   FIG. 21A is a schematic diagram showing an example of an obstacle map created by repeating such processing. In each region, the value is larger as white is 0 and closer to black. Although noise remains on the right sofa and part of the left stairs, it can be seen that the obstacle map can be acquired as a probability that no obstacle exists by accumulating the foot position history.

その後、ステップS308において、短期障害物マップを廃棄する。このように、フレーム画像を利用して、障害物マップを直接、操作するのではなく、短期障害物マップを利用することにより、時間的なフィルタリング処理を行なうことができる。これは、ノイズである人物以外の差分領域の除去や、複数の人物が重なるなどのイレギュラーな動きに有効である。   Thereafter, in step S308, the short-term obstacle map is discarded. Thus, temporal filtering processing can be performed by using the short-term obstacle map instead of directly operating the obstacle map using the frame image. This is effective for irregular movement such as removal of a difference area other than a person who is a noise, or overlapping of a plurality of persons.

一方、ステップS306において、短期障害物マップに十分な枚数、投票が行なわれていない場合、障害物マップおよび短期障害物マップの更新処理は行なわない。   On the other hand, in step S306, if a sufficient number of short-term obstacle maps have not been voted, the obstacle map and short-term obstacle map update processing is not performed.

このように、複数のフレームでの足元位置を投票することにより、短期障害物マップには、人物の足元位置の移動履歴を蓄えることになる。撮像センサユニット24で撮影されたフレーム画像で差分が生じているということは、撮像センサユニット24と差分が生じている領域の間には何も存在していない、つまり、障害物がないことを意味する。さらに、足元位置のみを利用することにより、足元位置での障害物の存在の有無を障害物マップとして蓄えることができる。   Thus, by voting the foot positions in a plurality of frames, the movement history of the person's foot positions is stored in the short-term obstacle map. The difference between the frame images captured by the image sensor unit 24 means that there is nothing between the image sensor unit 24 and the region where the difference occurs, that is, there is no obstacle. means. Furthermore, by using only the foot position, the presence or absence of an obstacle at the foot position can be stored as an obstacle map.

以上の処理により、障害物検出手段107は障害物マップを更新し、障害物マップとして、障害物の存在しない確率を求める。   Through the above processing, the obstacle detection unit 107 updates the obstacle map and obtains the probability that no obstacle exists as the obstacle map.

次に、ステップS110において、障害物検出手段107が障害物マップを利用して、家庭内の障害物情報を取得する処理について説明する。これは、障害物マップObst_Map[i]に対して、以下のように閾値処理を実行することで実現できる。   Next, a process in which the obstacle detection unit 107 acquires obstacle information in the home using the obstacle map in step S110 will be described. This can be realized by executing threshold processing on the obstacle map Obst_Map [i] as follows.

ここで、TH_OBSTは短期障害物マップのノイズを除去するための閾値であり、例えば、TH_OBST=1とすればよい。図21(b)は、[数13]にしたがい、Obst_Map [i]の値がTH_OBSTより大きな領域を黒、そうでない領域を白で示した模式図である。図21(a)で右側のソファーの上や左側の階段やテーブルの一部にノイズが残っていたが、閾値処理を実行することで、ノイズを除去し、正確に障害物を抽出できていることがわかる。   Here, TH_OBST is a threshold value for removing noise in the short-term obstacle map, and for example, TH_OBST = 1 may be set. FIG. 21B is a schematic diagram showing a region where the value of Obst_Map [i] is larger than TH_OBST in black and a region other than that in white according to [Equation 13]. In FIG. 21 (a), noise remained on the right sofa and part of the left staircase and table. However, by executing threshold processing, the noise can be removed and obstacles can be extracted accurately. I understand that.

しかし、上記の方法で、人物の足元位置を求めるためには、以下の条件を満たす必要がある。   However, in order to obtain the foot position of a person by the above method, the following conditions must be satisfied.

条件:推定された足元位置が、床面に存在している足元の位置と等しい。   Condition: The estimated foot position is equal to the foot position existing on the floor.

従来の障害物検出装置では、例えば、人物の下半身が遮蔽されている場合、その足元位置は画像から求めることは困難である。そのため、足元位置の推定に失敗してしまう。また、例えば図22に示したように、撮像センサユニット24から離れた方向からテーブルをふいている人物321が存在する場合、人物の腕の位置を足元位置と誤って判断してしまい、本来はテーブルという障害物が存在する領域を、障害物が存在しないと判定してしまう。   In a conventional obstacle detection device, for example, when the lower body of a person is shielded, it is difficult to obtain the foot position from an image. For this reason, the estimation of the foot position fails. Also, for example, as shown in FIG. 22, when there is a person 321 who wipes the table from a direction away from the image sensor unit 24, the position of the person's arm is erroneously determined as the foot position, An area where an obstacle exists, called a table, is determined as having no obstacle.

一方、本実施形態の障害物検出装置では、人物移動検出手段101を利用して人物の移動を判断し、状況認識処理判断手段102により、人物が移動をしていた場合のみ障害物
検出手段107によって障害物を検出するため、人物の足元が遮蔽されている場合やテーブルをふいている場合などでは、障害物検出処理を行なわないため、精度よく、障害物を検出することが可能である。
On the other hand, in the obstacle detection apparatus according to the present embodiment, the movement of the person is determined using the person movement detection unit 101, and the obstacle detection unit 107 is used only when the person is moving by the situation recognition processing determination unit 102. Therefore, the obstacle detection process is not performed when the foot of the person is shielded or when the table is covered, so that the obstacle can be detected with high accuracy.

具体的には、人物の下半身が遮蔽されている場合、前述の条件1.、条件2.および条件3.により移動人物ではないと判断される。また、テーブルをふいている場合、前述の条件4.により移動人物ではないと判断される。そのため、精度よく、障害物を検出することが可能である。   Specifically, when the lower body of the person is shielded, the above-described condition 1. , Condition 2. And condition 3. Therefore, it is determined that the person is not a moving person. When the table is being wiped, the above-mentioned condition 4. Therefore, it is determined that the person is not a moving person. Therefore, it is possible to detect an obstacle with high accuracy.

なお、障害物マップや短期障害物マップの領域分割は、図18(b)に示したように、画像を等分割するのではなく、領域ごとのその大きさが異なるようにしてもかまわない。このような領域分割を行なうことは、以下の効果がある。すなわち、撮像センサユニット24近傍では人物は大きな領域として撮影されるが、遠方では人物は小さく撮影されてしまう。   Note that the area division of the obstacle map and the short-term obstacle map may be performed by dividing the size of each area instead of dividing the image equally as shown in FIG. Performing such region division has the following effects. That is, the person is photographed as a large area in the vicinity of the image sensor unit 24, but the person is photographed small in the distance.

そのため、近傍の人物に対しては、広い領域に投票が行なわれるが、遠方の人物に対しては、相対的に小さな領域にのみ投票が行なわれる。障害物マップは、領域ごとの投票数を閾値処理することにより求められるため、遠方の障害物は検出されにくくなってしまうと考えられる。そこで、障害物マップや短期障害物マップの領域分割を、撮像センサユニット24から遠方になるほど、領域の面積が小さくなるように行なうことで、この問題を解決することができる。   For this reason, voting is performed on a wide area for a nearby person, but only on a relatively small area for a distant person. Since the obstacle map is obtained by thresholding the number of votes for each area, it is considered that an obstacle in the distance is difficult to detect. Therefore, this problem can be solved by dividing the area of the obstacle map or the short-term obstacle map so that the area of the area decreases as the distance from the image sensor unit 24 increases.

図23は、このようにして作成した短期障害物マップおよび障害物マップの領域分割を示した模式図である。ここでは、すべての領域を床面に投影した際の世界座標系での面積が、すべて等しくなるように領域分割を行なっている。これは、透視投影変換を利用することで実現できる。   FIG. 23 is a schematic diagram showing the short-term obstacle map and the area division of the obstacle map created as described above. Here, the regions are divided so that the areas in the world coordinate system when all regions are projected onto the floor surface are all equal. This can be realized by using perspective projection transformation.

また、上記説明では、障害物マップの初期化は、ステップS301において、障害物マップが存在しない場合、すなわち、処理のスタート時のみに行なわれるが、それに加え、模様替えが行なわれたことを認識して行なうようにしてもかまわない。これは、例えば、障害物検出装置にリセットボタンを設け、ユーザがリセットボタンを押した際には障害物マップを廃棄するなどの処理を行なうようにすればよい。   In the above description, the obstacle map is initialized in step S301 when there is no obstacle map, that is, only at the start of the process. You can do this. For example, a reset button may be provided in the obstacle detection device, and processing such as discarding the obstacle map may be performed when the user presses the reset button.

また、画像処理結果を利用して障害物マップの初期化処理を行なうようにしてもかまわない。これは前述のような背景差分処理を行ない、画面のほとんどの領域で差分が生じた際には、模様替えが行なわれたと判断して、障害物マップを廃棄するなどの処理を行なうようにすればよい。   Further, the obstacle map initialization process may be performed using the image processing result. This is because the background difference processing as described above is performed, and when there is a difference in most areas of the screen, it is determined that the pattern has been changed, and processing such as discarding the obstacle map is performed. Good.

以上のように、本実施形態の障害物検出装置は、人物移動検出手段101によって人物の移動情報を推定し、状況認識処理判断手段102は、人物が移動している場合のみ、障害物検出手段107により障害物検出処理を行なうことにより、家庭内においても、高精度の障害物検出処理を実現できる。   As described above, the obstacle detection apparatus according to the present embodiment estimates the person movement information by the person movement detection unit 101, and the situation recognition process determination unit 102 determines the obstacle detection unit only when the person is moving. By performing the obstacle detection process by 107, a highly accurate obstacle detection process can be realized even in the home.

(実施の形態3)
図24は、状況認識処理として、カメラパラメータ推定処理を行なう、本発明の第3の実施の形態における状況認識装置の構成を示す機能ブロック図である。図24において、図1および図2と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。図25は、本実施形態におけるカメラパラメータ推定処理の流れを示すフローチャートである。図25において、図3と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。
(Embodiment 3)
FIG. 24 is a functional block diagram showing a configuration of a situation recognition apparatus according to the third embodiment of the present invention that performs camera parameter estimation processing as situation recognition processing. In FIG. 24, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and the description thereof is omitted. FIG. 25 is a flowchart showing the flow of camera parameter estimation processing in the present embodiment. In FIG. 25, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.

本実施形態のカメラパラメータ推定手段108として、「人物の身長は一定である」と仮定し、家庭内を動き回る人物の移動履歴から、カメラパラメータである消失線情報を推定する。   As camera parameter estimation means 108 of the present embodiment, it is assumed that the height of a person is constant, and vanishing line information, which is a camera parameter, is estimated from the movement history of a person moving around in the home.

図25において、まず、人物移動検出手段101は撮像センサユニット24を利用して、家庭内を撮像し、フレーム画像を取得する(ステップS101)。さらに、人物移動検出手段101は取得したフレーム画像を利用して、人物の在否と位置情報を検出し(ステップS102)、人物が存在している場合は、さらにその人物が滞在しているのか、どのように動いているのかといった移動情報を検出する(ステップS103)。   In FIG. 25, first, the person movement detection unit 101 uses the image sensor unit 24 to capture an image of the home and obtain a frame image (step S101). Furthermore, the person movement detecting means 101 detects the presence / absence and position information of the person using the acquired frame image (step S102), and if there is a person, is the person staying further? The movement information such as how it moves is detected (step S103).

状況認識処理判断手段102は、前記前記人物移動検出手段101の検出結果に基づいて、現在のフレーム画像に対してカメラパラメータ推定処理を行なうかどうかを判断する(ステップS104)。すなわち、状況認識処理判断手段102によって、人物が移動していると判断された場合(ステップS104でYes)、足元位置検出手段104は、人物の足元位置を推定する(ステップS105)。   The situation recognition processing determination unit 102 determines whether to perform camera parameter estimation processing for the current frame image based on the detection result of the person movement detection unit 101 (step S104). That is, when the situation recognition process determining unit 102 determines that the person is moving (Yes in step S104), the foot position detecting unit 104 estimates the foot position of the person (step S105).

さらに、頭部位置検出手段105は、人物の頭部位置を推定する(ステップS106)。カメラパラメータ推定手段108は、前記足元位置検出手段104で十分な枚数のデータが取得されているかを確認する(ステップS111)。   Further, the head position detecting means 105 estimates the head position of the person (step S106). The camera parameter estimation means 108 confirms whether a sufficient number of data has been acquired by the foot position detection means 104 (step S111).

ここで、カメラパラメータを推定するために十分な枚数のデータが取得されている場合(ステップS111でYes)、カメラパラメータ推定手段108は、前記足元位置検出手段104で求めた足元位置情報と前記頭部位置で求めた頭部位置情報を利用して、カメラパラメータである消失線を推定する(ステップS112)。   Here, when a sufficient number of pieces of data are acquired for estimating the camera parameters (Yes in step S111), the camera parameter estimation means 108 determines the foot position information obtained by the foot position detection means 104 and the head position. The vanishing line that is a camera parameter is estimated using the head position information obtained from the part position (step S112).

一方、カメラパラメータを推定するために十分な枚数のデータが取得されていなかった場合(ステップS111でNo)、カメラパラメータ推定手段108は、現在のフレーム画像に対してカメラパラメータ推定処理を行なわず、以前のカメラパラメータ情報を現在のカメラパラメータ情報として保持する(ステップS113)。   On the other hand, if a sufficient number of pieces of data for estimating the camera parameters have not been acquired (No in step S111), the camera parameter estimation unit 108 does not perform the camera parameter estimation process on the current frame image. The previous camera parameter information is held as current camera parameter information (step S113).

また、状況認識処理判断手段102によって、人物が存在していない、または、移動していないと判断された場合(ステップS104でNo)、カメラパラメータ推定手段108は、現在のフレーム画像に対してカメラパラメータ推定処理を行なわず、以前のカメラパラメータ情報を現在のカメラパラメータ情報として保持する(ステップS113)。   When the situation recognition processing determination unit 102 determines that no person is present or has moved (No in step S104), the camera parameter estimation unit 108 determines whether the current frame image is a camera. The parameter estimation process is not performed, and the previous camera parameter information is held as the current camera parameter information (step S113).

次に、カメラパラメータ推定手段108について説明する。   Next, the camera parameter estimation unit 108 will be described.

ステップS111において、カメラパラメータ推定手段108は、前記足元位置検出手段104で十分な枚数のデータが取得されているかを確認する。これは、例えば、10枚以上のフレーム画像において、足元位置と頭部位置が取得されている場合、十分な枚数のデータが取得されていると判断する。後述するように、消失線を求めるためには、2枚のデータがあれば十分であるが、ノイズ除去のため、より多くのデータを利用して、消失線を推定する。もちろん、10枚のデータを利用するのではなく、2枚以上のデータであってもかまわない。   In step S <b> 111, the camera parameter estimation unit 108 confirms whether a sufficient number of pieces of data have been acquired by the foot position detection unit 104. For example, when the foot position and the head position are acquired in 10 or more frame images, it is determined that a sufficient number of data has been acquired. As will be described later, in order to obtain the vanishing line, it is sufficient to have two pieces of data. However, in order to remove noise, the vanishing line is estimated using more data. Of course, instead of using ten pieces of data, two or more pieces of data may be used.

ステップS112において、カメラパラメータ推定手段108は、前記足元位置検出手段104で求めた足元位置情報と前記頭部位置で求めた頭部位置情報を利用して、カメラパラメータである消失線を推定する。特許文献5に記載のとおり、位置を固定された撮像センサユニット24で、同じ高さを有し、互いに平行な一組の物体を撮影した場合、それ
ぞれの物体の上端同士を結ぶ直線と、それぞれの物体の下端同士を結ぶ直線は一点に交わる。この交点を消失点という。またこの消失点を、様々な高さの、同じ高さを有した互いに平行な一組の物体について、それぞれ算出した消失点は、一つの直線上に位置する。この直線を消失線という。
In step S112, the camera parameter estimation unit 108 estimates a vanishing line that is a camera parameter using the foot position information obtained by the foot position detection unit 104 and the head position information obtained from the head position. As described in Patent Document 5, when imaging a pair of objects having the same height and parallel to each other with the imaging sensor unit 24 having a fixed position, straight lines connecting the upper ends of the objects, The straight line connecting the lower ends of the object intersects at one point. This intersection is called the vanishing point. Further, the vanishing points calculated with respect to a set of parallel objects having various heights and the same height are positioned on one straight line. This straight line is called the vanishing line.

図26は、消失線を説明するための模式図である。ここで、同一人物が、322、323および324の3ヶ所で撮影されたとする。人物が平面上に直立しているとすると、322での足元位置と頭部位置を通るベクトルと、323での足元位置と頭部位置を通るベクトル、および324での足元位置と頭部位置を通るベクトルは、すべて平行となる。さらに、各位置での足元位置と頭部位置の距離は身長に等しいため、すべて等しいことに着目すると、322での足元位置と323での足元位置を通る直線325と、322での頭部位置と323での頭部位置を通る直線326の交点327は消失点となる。   FIG. 26 is a schematic diagram for explaining the vanishing line. Here, it is assumed that the same person is photographed at three places 322, 323, and 324. If a person stands upright on a plane, a vector passing through the foot position and head position at 322, a vector passing through the foot position and head position at 323, and a foot position and head position at 324 All passing vectors are parallel. Further, since the distance between the foot position and the head position at each position is equal to the height, focusing on the fact that they are all equal, a straight line 325 passing through the foot position at 322 and the foot position at 323, and the head position at 322 And an intersection 327 of a straight line 326 passing through the head position at 323 is a vanishing point.

また、同様に、322での足元位置と324での足元位置を通る直線328と、322での頭部位置と324での頭部位置を通る直線329の交点330も消失点となる。よって、消失点327と消失点330を通る直線331を求めることにより、消失線を求めることができる。   Similarly, an intersection 330 of a straight line 328 passing through the foot position at 322 and the foot position at 324 and a straight line 329 passing through the head position at 322 and the head position at 324 is also a vanishing point. Therefore, the vanishing line can be obtained by obtaining a straight line 331 passing through the vanishing point 327 and the vanishing point 330.

以上のようにカメラパラメータを正確に推定するためには、以下の条件を満たす必要がある。   As described above, in order to accurately estimate the camera parameters, the following conditions must be satisfied.

条件A:人物が垂直に立っている、すなわち頭部位置は足元位置の真上に存在する。   Condition A: The person stands vertically, that is, the head position is directly above the foot position.

監視カメラが広く利用されている屋外では、人物は動き回っていることが普通であり、滞在している人物はイレギュラーな存在である。一方、家庭内では、人物が座っていることや寝ていることが多く、動き回っていることは少ない。   In the outdoors where surveillance cameras are widely used, people are usually moving around, and people who are staying are irregular. On the other hand, in the home, people are often sitting and sleeping, and rarely move around.

そのため、監視カメラによってカメラパラメータ推定を行なうためには、条件Aをそれほど考慮する必要がないが、家庭内において、条件Aを満たしている画像を選択することは、推定精度を向上させる上で、非常に重要である。本実施形態のカメラパラメータ推定装置では、前記人物移動検出手段101によって、差分領域は移動している人物かどうかを検出し、状況認識処理判断手段102によって、人物が移動している場合にのみカメラパラメータ推定を実施するため、高精度のカメラパラメータ推定処理を実現できる。   Therefore, in order to perform camera parameter estimation by the surveillance camera, it is not necessary to consider the condition A so much, but selecting an image satisfying the condition A in the home improves the estimation accuracy. Very important. In the camera parameter estimation apparatus according to the present embodiment, the person movement detection unit 101 detects whether the difference area is a moving person, and the situation recognition processing determination unit 102 detects the camera only when the person is moving. Since parameter estimation is performed, highly accurate camera parameter estimation processing can be realized.

また、家庭内では、屋外や公共空間と異なり、人物は座っていたり、横になっていたりすることが多い。この場合、条件Aは満たされないため、カメラパラメータ推定の精度は大きく劣化してしまう。一方、本実施形態のカメラパラメータ推定装置では、人物が移動している場合にのみカメラパラメータ推定を実施しているが、人物が移動している場合、その人物が寝ていたり、座っていたりすることはほとんどない。   Also, in the home, unlike outdoor or public spaces, people often sit or lie down. In this case, since the condition A is not satisfied, the accuracy of camera parameter estimation is greatly degraded. On the other hand, in the camera parameter estimation apparatus of the present embodiment, camera parameter estimation is performed only when a person is moving, but when the person is moving, the person is sleeping or sitting. There is hardly anything.

そのため、本実施形態のカメラパラメータ推定装置は、人物が寝ていたり、座っていたりするシーンではカメラパラメータ推定を行なわず、高精度のカメラパラメータ推定を実現できる。   Therefore, the camera parameter estimation apparatus according to the present embodiment can achieve highly accurate camera parameter estimation without performing camera parameter estimation in a scene where a person is sleeping or sitting.

以上のように、本実施形態のカメラパラメータ推定装置は、人物移動検出手段101によって人物の移動情報を推定し、状況認識処理判断手段102は、人物が移動している場合のみ、カメラパラメータ推定手段108によってカメラパラメータ推定処理を行なうことにより、家庭内においても、高精度のカメラパラメータ推定処理を実現できる。   As described above, the camera parameter estimation apparatus according to the present embodiment estimates the person movement information by the person movement detection unit 101, and the situation recognition processing determination unit 102 performs the camera parameter estimation unit only when the person is moving. By performing the camera parameter estimation process by 108, a highly accurate camera parameter estimation process can be realized even at home.

もちろん、カメラパラメータとして、消失線を推定するのではなく、撮像センサユニッ
ト24の向きなどを推定するようにしてもかまわない。
Of course, instead of estimating the vanishing line as the camera parameter, the direction of the image sensor unit 24 or the like may be estimated.

<本発明の状況認識装置を搭載した空気調和機>
本発明の状況認識装置は、空気調和機の制御に非常に有効である。本発明の状況認識装置を搭載した空気調和機について説明する。
<Air conditioner equipped with the situation recognition device of the present invention>
The situation recognition apparatus of the present invention is very effective for controlling an air conditioner. An air conditioner equipped with the situation recognition device of the present invention will be described.

図27は、本発明の第1の実施の形態における状況認識装置を搭載した空気調和機の構成を示す機能ブロック図である。図27において、図1および図2と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。   FIG. 27 is a functional block diagram showing a configuration of an air conditioner equipped with the situation recognition device according to the first embodiment of the present invention. In FIG. 27, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and the description thereof is omitted.

一般家庭で使用される空気調和機は、通常冷媒配管で互いに接続された室外機と室内機とリモコン30(図示せず)で構成されており、図28乃至図31は、本発明に係る空気調和機の室内機を示している。   An air conditioner used in a general home is composed of an outdoor unit, an indoor unit, and a remote controller 30 (not shown) that are usually connected to each other through refrigerant pipes. FIGS. 28 to 31 show the air according to the present invention. It shows the indoor unit of a harmony machine.

室内機は、本体2と、本体2の前面開口部2aを開閉自在の可動前面パネル(以下、単に前面パネルという)4を有しており、空気調和機停止時は、前面パネル4は本体2に密着して前面開口部2aを閉じているのに対し、空気調和機運転時は、前面パネル4は本体2から離反する方向に移動して前面開口部2aを開放する。なお、図28及び図29は前面パネル4が前面開口部2aを閉じた状態を示しており、図30及び図31は前面パネル4が前面開口部2aを開放した状態を示している。   The indoor unit has a main body 2 and a movable front panel (hereinafter simply referred to as a front panel) 4 that can freely open and close the front opening 2a of the main body 2, and the front panel 4 is the main body 2 when the air conditioner is stopped. While the front opening 2a is closed in close contact with the front, the front panel 4 moves in a direction away from the main body 2 to open the front opening 2a during operation of the air conditioner. 28 and 29 show a state where the front panel 4 closes the front opening 2a, and FIGS. 30 and 31 show a state where the front panel 4 opens the front opening 2a.

図28乃至図31に示されるように、本体2の内部には、熱交換器6と、前面開口部2a及び上面開口部2bから取り入れられた室内空気を熱交換器6で熱交換して室内に吹き出すための室内ファン8と、熱交換した空気を室内に吹き出す吹出口10を開閉するとともに空気の吹き出し方向を上下に変更する上下羽根12と、空気の吹き出し方向を左右に変更する左右羽根14とを備えており、前面開口部2a及び上面開口部2bと熱交換器6との間には、前面開口部2a及び上面開口部2bから取り入れられた室内空気に含まれる塵埃を除去するためのフィルタ16が設けられている。   As shown in FIGS. 28 to 31, inside the main body 2, the heat exchanger 6 and the indoor air taken in from the front opening 2 a and the top opening 2 b are heat-exchanged by the heat exchanger 6, An indoor fan 8 for blowing air, an upper and lower blades 12 for opening and closing a blower outlet 10 for blowing heat-exchanged air into the room and changing the air blowing direction up and down, and left and right blades 14 for changing the air blowing direction left and right Between the front opening 2a and the upper surface opening 2b and the heat exchanger 6 for removing dust contained in the indoor air taken in from the front opening 2a and the upper surface opening 2b. A filter 16 is provided.

また、前面パネル4上部は、その両端部に設けられた2本のアーム18,20を介して本体2上部に連結されており、アーム18に連結された駆動モータ(図示せず)を駆動制御することで、空気調和機運転時、前面パネル4は空気調和機停止時の位置(前面開口部2aの閉塞位置)から前方斜め上方に向かって移動する。   Further, the upper part of the front panel 4 is connected to the upper part of the main body 2 via two arms 18 and 20 provided at both ends thereof, and a drive motor (not shown) connected to the arm 18 is driven and controlled. Thus, during operation of the air conditioner, the front panel 4 moves forward and obliquely upward from the position when the air conditioner is stopped (closed position of the front opening 2a).

さらに、上下羽根12は、上羽根12aと下羽根12bとで構成されており、それぞれ本体2下部に揺動自在に取り付けられている。上羽根12a及び下羽根12bは、別々の駆動源(例えば、ステッピングモータ)に連結されており、室内機に内蔵された制御装置(例えばマイコン)によりそれぞれ独立して角度制御される。また、図30及び図31から明らかなように、下羽根12bの変更可能な角度範囲は、上羽根12aの変更可能な角度範囲より大きく設定されている。   Further, the upper and lower blades 12 are composed of an upper blade 12a and a lower blade 12b, and are respectively attached to the lower portion of the main body 2 so as to be swingable. The upper blade 12a and the lower blade 12b are connected to separate driving sources (for example, stepping motors), and are independently angle-controlled by a control device (for example, a microcomputer) built in the indoor unit. As is clear from FIGS. 30 and 31, the changeable angle range of the lower blade 12b is set larger than the changeable angle range of the upper blade 12a.

また、上下羽根12は3枚以上の上下羽根で構成することも可能で、この場合、少なくとも2枚(特に、最も上方に位置する羽根と最も下方に位置する羽根)は独立して角度制御できるのが好ましい。   In addition, the upper and lower blades 12 can be composed of three or more upper and lower blades. In this case, at least two (particularly, the uppermost blade and the lowermost blade) can be independently angle-controlled. Is preferred.

また、左右羽根14は、室内機の中心から左右に5枚ずつ配置された合計10枚の羽根で構成されており、それぞれ本体2の下部に揺動自在に取り付けられている。また、左右の5枚を一つの単位として別々の駆動源(例えば、ステッピングモータ)に連結されており、室内機に内蔵された制御装置により左右5枚の羽根がそれぞれ独立して角度制御される。なお、左右羽根14の駆動方法についても後述する。   In addition, the left and right blades 14 are configured by a total of 10 blades arranged five by left and right from the center of the indoor unit, and are respectively swingably attached to the lower portion of the main body 2. The left and right five blades are connected to separate drive sources (for example, stepping motors) as a unit, and the left and right five blades are independently angle-controlled by a control device built in the indoor unit. . A method for driving the left and right blades 14 will also be described later.

図28に示されるように、前面パネル4の上部には、撮像センサユニット24が撮像装置として取り付けられており、撮像センサユニット24は、センサホルダに保持されている。   As shown in FIG. 28, an imaging sensor unit 24 is attached as an imaging device to the upper part of the front panel 4, and the imaging sensor unit 24 is held by a sensor holder.

また、本発明の状況認識装置は、撮像センサユニット24で撮像された画像に対して、搭載された回路基板上のメモリ(図示せず)やマイクロコンピュータ(図示せず)などにより実現される。   In addition, the situation recognition apparatus of the present invention is realized by a memory (not shown), a microcomputer (not shown), or the like on a circuit board on which an image taken by the imaging sensor unit 24 is mounted.

空気調和機は、本発明の身長推定装置で推定した結果を基に、空調制御を行なう。本発明の身長推定装置は、推定された身長情報を利用して人識別を行ない、事前にリモコン30で設定された空気調和機の設定温度にしたがって空調制御を行なう。本発明の身長推定装置を搭載した空気調和機では、人物の身長情報を利用し、その人物が以前、設定していた温度にあわせた空調を行なうことが可能である。   The air conditioner performs air conditioning control based on the result estimated by the height estimation device of the present invention. The height estimation apparatus of the present invention performs person identification using the estimated height information, and performs air-conditioning control according to the preset temperature of the air conditioner set by the remote controller 30 in advance. In the air conditioner equipped with the height estimation device of the present invention, it is possible to perform air conditioning in accordance with the temperature previously set by the person using the height information of the person.

これは、例えば、身長の低い子供に対しては、空気調和機からの風を直接当てず、また、弱めの風量による空調を行ない、身長が十分に高い大人に対しては、空気調和機からの風を直接当て、強めの風量による空調を行なうといったことが可能である。   This is because, for example, children with short stature are not directly exposed to the wind from the air conditioner, and air conditioning is performed with a weak air flow. It is possible to perform direct air conditioning and air conditioning with a strong air flow.

また、図32は、本発明の第1の実施の形態における身長推定装置を搭載した空気調和機の処理の流れを示すフローチャートである。図32において、図3と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。   FIG. 32 is a flowchart showing the flow of processing of the air conditioner equipped with the height estimation device according to the first embodiment of the present invention. In FIG. 32, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.

図32において、空調制御手段109は、身長推定手段105が推定した身長情報を利用して、その身長情報に関連付けられている、事前に設定されている「空気調和機の設定温度」「空気調和機の風向」「空気調和機の風量」などの空調制御情報にしたがい、空調制御を実現する(ステップS114)。こうした空調制御情報は、リモコン30を利用して、事前に設定しておく。   In FIG. 32, the air-conditioning control means 109 uses the height information estimated by the height estimation means 105, and is associated with the height information, which is set in advance as “set temperature of the air conditioner” “air conditioning”. Air conditioning control is realized in accordance with air conditioning control information such as “air direction of the machine” and “air volume of the air conditioner” (step S114). Such air conditioning control information is set in advance using the remote controller 30.

これは、例えば、身長140cm以下の人物の場合「空気調和機の設定温度=28度」「空気調和機の風向=風除け」「空気調和機の風量=弱」、身長140cm以上の場合「空気調和機の設定温度=26度」「空気調和機の風向=風あて」「空気調和機の風量=強」などと設定すればよい。つまり、本発明の身長推定処理を行なうことで、空調空間内に存在する人物に対応した空調制御を実現することができる。   For example, in the case of a person having a height of 140 cm or less, “air conditioner set temperature = 28 degrees”, “air conditioner wind direction = wind protection”, “air conditioner air volume = weak”, and in the case of height 140 cm or more, “air condition Setting temperature of the machine = 26 degrees, “wind direction of the air conditioner = winding”, “air volume of the air conditioner = strong”, etc. That is, by performing the height estimation process of the present invention, air conditioning control corresponding to a person existing in the air conditioned space can be realized.

そのため、本発明の第1の実施の形態における身長推定装置を搭載した空気調和機は、空気調和空間に存在する人物に対応した空調制御を行なうことができる。   Therefore, the air conditioner equipped with the height estimation device according to the first embodiment of the present invention can perform air conditioning control corresponding to a person existing in the air conditioned space.

もちろん、本発明の第1の実施の形態における状況認識装置を搭載した空気調和機は、特許文献2に記載のように、身長情報を利用して個人識別を行ない、識別された登録者が、予め関連付けた設定運転で空気調和機を制御するようにしてもかまわない。   Of course, the air conditioner equipped with the situation recognition apparatus according to the first embodiment of the present invention performs personal identification using height information as described in Patent Document 2, and the identified registrant You may make it control an air conditioner by the setting driving | operation linked | related previously.

空気調和機が設置されることが多い家庭内では、屋外や公共空間と異なり、人物は座っていたり、横になっていたりすることが多い。そのため、従来の状況認識装置では、認識精度を上げることができなかったため、最適な空気調和動作を実現することができなかった。   Unlike homes and public spaces, people often sit or lie in homes where air conditioners are often installed. For this reason, in the conventional situation recognition apparatus, since the recognition accuracy cannot be increased, it is impossible to realize an optimal air conditioning operation.

一方、本実施形態の状況認識装置は、以上のように、人物移動検出手段101によって人物の移動情報を推定し、状況認識処理判断手段102は、人物が移動している場合のみ、身長推定処理を行なうことにより、家庭内においても、高精度の身長推定処理を実現す
ることができる。そのため、空気調和空間においても状況を高精度に認識し、最適な空気調和動作を実現することができる。
On the other hand, the situation recognition apparatus according to the present embodiment estimates person movement information by the person movement detection unit 101 as described above, and the situation recognition processing determination unit 102 performs the height estimation process only when the person is moving. By performing the above, it is possible to realize high-precision height estimation processing even in the home. Therefore, the situation can be recognized with high accuracy even in the air-conditioned space, and the optimum air-conditioning operation can be realized.

また、図33は、本発明の第2の実施の形態における状況認識装置を搭載した空気調和機の構成を示す機能ブロック図である。図33において、図14および図27と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。また、図34は、本発明の第2の実施の形態における障害物検出装置を搭載した空気調和機の処理の流れを示すフローチャートである。図34において、図15および図32と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。   FIG. 33 is a functional block diagram showing the configuration of the air conditioner equipped with the situation recognition apparatus in the second embodiment of the present invention. In FIG. 33, the same components as those in FIGS. 14 and 27 are denoted by the same reference numerals, and the description thereof is omitted. FIG. 34 is a flowchart showing a process flow of the air conditioner equipped with the obstacle detection apparatus according to the second embodiment of the present invention. In FIG. 34, the same components as those in FIGS. 15 and 32 are denoted by the same reference numerals, and the description thereof is omitted.

図34において、空調制御手段109は、障害物検出手段107が検出した障害物情報を利用し、障害物を回避した空調制御を実現する(ステップS114)。この障害物回避制御について説明する。   In FIG. 34, the air conditioning control means 109 uses the obstacle information detected by the obstacle detection means 107 to realize air conditioning control that avoids the obstacle (step S114). This obstacle avoidance control will be described.

<障害物回避制御>
障害物情報に基づき、風向変更手段としての上下羽根12及び左右羽根14は、暖房時次のように制御される。
<Obstacle avoidance control>
Based on the obstacle information, the upper and lower blades 12 and the left and right blades 14 as the wind direction changing means are controlled as follows during heating.

以下の説明においては、用語「ポジション」、「ブロック」、「フィールド」、「近距離」、「中距離」、「遠距離」を使用するが、これらの用語をまず説明する。   In the following description, the terms “position”, “block”, “field”, “short distance”, “medium distance”, and “far distance” will be used. These terms will be described first.

図35(a),(b)は、構成する撮像センサユニット24で検知される差分領域である人位置領域を示す概略図であり、画像上で人物がA〜Gの各領域に存在した場合、空調空間内のいずれの領域に人物が存在するかを示している。人物の存在する領域は、ステップS102において人物移動検出手段101によって求まる。また、障害物検出手段107により居住空間の床面を、図35(c)に示されるように細分化し、これらの領域の各々を障害物位置判別領域あるいは「ポジション」と定義し、どのポジションに障害物が存在しているかを判別する。   FIGS. 35A and 35B are schematic diagrams showing a human position area that is a difference area detected by the imaging sensor unit 24 that is configured, and a person is present in each of the areas A to G on the image. In which area in the air-conditioned space a person is present. The area where the person exists is obtained by the person movement detecting means 101 in step S102. Further, the floor surface of the living space is subdivided by the obstacle detection means 107 as shown in FIG. 35 (c), and each of these areas is defined as an obstacle position determination area or “position”. Determine if an obstacle exists.

ここで、「ポジション」は障害物マップの複数領域を含む。なお、図35(c)に示される全ポジションは、図35(b)に示される人位置判別領域の全領域と略一致しており、図35(b)の領域境界を図35(c)のポジション境界に略一致させ、領域及びポジションを次のように対応させることで、後述する空調制御を容易に行なうことができ、記憶させるメモリを極力少なくしている。   Here, “position” includes a plurality of regions of the obstacle map. Note that all positions shown in FIG. 35 (c) substantially coincide with all areas of the human position determination area shown in FIG. 35 (b), and the area boundary in FIG. 35 (b) is shown in FIG. 35 (c). By substantially matching the position boundary and corresponding the area and position as follows, the air conditioning control described later can be easily performed, and the memory to be stored is reduced as much as possible.

領域A:ポジションA1+A2+A3、領域B:ポジションB1+B2、領域C:ポジションC1+C2、領域D:ポジションD1+D2、領域E:ポジションE1+E2、領域F:ポジションF1+F2、領域G:ポジションG1+G2
また、図35(b)に示される領域A〜Gは次のブロックにそれぞれ属している。
Area A: Position A1 + A2 + A3, Area B: Position B1 + B2, Area C: Position C1 + C2, Area D: Position D1 + D2, Area E: Position E1 + E2, Area F: Position F1 + F2, Area G: Position G1 + G2
In addition, the regions A to G shown in FIG. 35B belong to the next block, respectively.

ブロックN:領域A、ブロックR:領域B,E、ブロックC:領域C,F、ブロックL:領域D,G
また、領域A〜Gは次のフィールドにそれぞれ属している。
Block N: Area A, Block R: Area B, E, Block C: Area C, F, Block L: Area D, G
Regions A to G belong to the following fields, respectively.

フィールド1:領域A、フィールド2:領域B,D、フィールド3:領域C、フィールド4:領域E,G、フィールド5:領域F
さらに、室内機からの距離については次のように定義している。
Field 1: Area A, Field 2: Areas B and D, Field 3: Area C, Field 4: Areas E and G, Field 5: Area F
Furthermore, the distance from the indoor unit is defined as follows.

近距離:領域A、中距離:領域B,C,D、遠距離:領域E,F,G   Short distance: Region A, Medium distance: Regions B, C, D, Long distance: Regions E, F, G

表1は、左右羽根14を構成する5枚の左羽根と5枚の右羽根の各ポジションにおける目標設定角度を示しており、数字(角度)に付した記号は、図36に示されるように、左羽根あるいは右羽根が内側に向く場合をプラス(+、表1では無記号)の方向、外側に向く場合をマイナス(−)の方向と定義している。   Table 1 shows the target setting angles at the positions of the five left blades and the five right blades constituting the left and right blades 14, and the symbols attached to the numbers (angles) are as shown in FIG. The case where the left or right blade is directed inward is defined as a positive (+, no sign in Table 1) direction, and the case where it is directed outward is defined as a negative (−) direction.

また、表1における「暖房B領域」とは、障害物回避制御を行なう暖房領域のことであり、「通常自動風向制御」とは、障害物回避制御を行なわない風向制御のことである。ここで、障害物回避制御を行なうかどうかの判定は、室内熱交換器6の温度を基準としており、温度が低い場合は居住者に風を当てない風向制御、高すぎる場合は最大風量位置の風向制御、適度な温度の場合は暖房B領域への風向制御を行なう。また、ここでいう「温度が低い」、「高すぎる」、「居住者に風を当てない風向制御」、「最大風量位置の風向制御」とは、次のとおりの意味である。   The “heating B area” in Table 1 is a heating area in which obstacle avoidance control is performed, and “normal automatic wind direction control” is wind direction control in which obstacle avoidance control is not performed. Here, the determination of whether or not to perform the obstacle avoidance control is based on the temperature of the indoor heat exchanger 6. When the temperature is low, the wind direction control is not applied to the occupant, and when the temperature is too high, the maximum air volume position is determined. In the case of wind direction control and moderate temperature, the wind direction control to the heating B area is performed. In addition, “temperature is low”, “too high”, “wind direction control that does not apply wind to the occupant”, and “wind direction control at the maximum airflow position” have the following meanings.

・低い温度:室内熱交換器6の温度は皮膚温度(33〜34℃)を最適温度として設定しており、この温度以下になりうる温度(例えば、32℃)
・高すぎる温度:例えば、56℃以上
・居住者に風を当てない風向制御:居住空間に風を送らないように、上下羽根12を角度制御して、風が天井に沿うように流れる風向制御
・最大風量位置の風向制御:空気調和機は、上下羽根12及び左右羽根14により気流
を曲げると必ず抵抗(損失)が発生することから、最大風量位置とは損失が限りなく0に近くなる風向制御(左右羽根14の場合、まっすぐ正面を向いた位置であり、上下羽根12の場合、水平から35度下を向いた位置)
-Low temperature: The temperature of the indoor heat exchanger 6 is set to the skin temperature (33 to 34 ° C) as the optimum temperature, and a temperature that can be lower than this temperature (for example, 32 ° C).
-Too high temperature: for example, 56 ° C or higher-Wind direction control that does not direct wind to the occupant: Wind direction control that causes the wind to flow along the ceiling by controlling the angle of the upper and lower blades 12 so as not to send the wind to the living space -Wind direction control at the maximum airflow position: When the air conditioner bends the airflow with the upper and lower blades 12 and the left and right blades 14, resistance (loss) is always generated, so the maximum airflow position is the wind direction where the loss is close to zero. Control (in the case of the left and right blades 14, it is a position facing directly in front, and in the case of the upper and lower blades 12, it is a position facing downward 35 degrees from the horizontal)

表2は、障害物回避制御を行なう場合の上下羽根12の各フィールドにおける目標設定角度を示している。なお、表2における上羽根の角度(γ1)及び下羽根の角度(γ2)は垂直線から上方向に測定した角度(仰角)である。   Table 2 shows target setting angles in the fields of the upper and lower blades 12 when performing obstacle avoidance control. In Table 2, the upper blade angle (γ1) and the lower blade angle (γ2) are angles (elevation angles) measured upward from the vertical line.

次に、障害物の位置に応じた障害物回避制御について具体的に説明するが、障害物回避制御において使用される用語「スイング動作」「ポジション停留稼動」「ブロック停留稼動」についてまず説明する。   Next, the obstacle avoidance control according to the position of the obstacle will be described in detail. The terms “swing operation”, “position stop operation”, and “block stop operation” used in the obstacle avoidance control will be described first.

スイング動作とは、左右羽根14の揺動動作のことで、基本的には目標の一つのポジションを中心に所定の左右角度幅で揺動し、スイングの両端で固定時間がない動作のことである。   The swinging motion is a swinging motion of the left and right blades 14, and basically swinging with a predetermined left-right angle width around one target position and having no fixed time at both ends of the swing. is there.

また、ポジション停留稼動とは、あるポジションの目標設定角度(表1の角度)に対し、表3の補正を行ない、それぞれ、左端及び右端とする。動作としては、左端と右端でそれぞれ風向固定時間(左右羽根14を固定する時間)を持ち、例えば、左端で風向固定時
間が経過した場合、右端に移動し、右端で風向固定時間が経過するまで、右端の風向を維持し、風向固定時間の経過後、左端に移動し、それを繰り返すものである。風向固定時間は、例えば60秒に設定される。
In addition, the position stop operation means correction of Table 3 with respect to a target setting angle (an angle in Table 1) of a certain position, which is a left end and a right end, respectively. As the operation, the left end and the right end each have a wind direction fixing time (time for fixing the left and right blades 14). For example, when the wind direction fixing time elapses at the left end, it moves to the right end and the wind direction fixing time elapses at the right end. The wind direction at the right end is maintained, and after the fixed time of the wind direction has passed, it moves to the left end and repeats it. The wind direction fixing time is set to 60 seconds, for example.

すなわち、あるポジションに障害物がある場合に、そのポジションの目標設定角度をそのまま使用すると、温風が常に障害物に当たるが、表3の補正を行なうことで、障害物の横から温風を人がいる位置に到達させることができる。   In other words, if there is an obstacle at a certain position and the target setting angle of that position is used as it is, the hot air always hits the obstacle. It is possible to reach the position where there is.

さらにブロック停留稼動とは、各ブロックの左端と右端に対応する左右羽根14の設定角度を、例えば表4に基づいて決定する。動作としては、各ブロックの左端と右端でそれぞれ風向固定時間を持ち、例えば、左端で風向固定時間が経過した場合、右端に移動し、右端で風向固定時間が経過するまで、右端の風向を維持し、風向固定時間の経過後、左端に移動し、それを繰り返すものである。風向固定時間は、ポジション停留稼動と同様に、例えば60秒に設定される。なお、各ブロックの左端と右端は、そのブロックに属する人位置領域の左端と右端に一致しているので、ブロック停留稼動は、人位置領域の停留稼動と言うこともできる。   Further, in the block stop operation, the set angles of the left and right blades 14 corresponding to the left end and the right end of each block are determined based on, for example, Table 4. The operation has a fixed wind direction at the left and right ends of each block.For example, when the fixed wind direction has elapsed at the left end, it moves to the right end and maintains the right wind direction until the fixed wind direction has elapsed at the right end. Then, after the elapse of the wind direction fixing time, it moves to the left end and repeats it. The wind direction fixing time is set to 60 seconds, for example, similarly to the position stop operation. Since the left end and the right end of each block coincide with the left end and the right end of the person position area belonging to the block, the block stop operation can be said to be a stop operation of the person position area.

なお、ポジション停留稼動とブロック停留稼動は、障害物の大きさに応じて使い分けている。前方の障害物が小さい場合、障害物のあるポジションを中心にポジション停留稼動を行なうことで障害物を避けて送風するのに対し、前方の障害物が大きく、例えば人がいる領域の前方全体に障害物がある場合、ブロック停留稼動を行なうことで広い範囲にわたって送風するようにしている。   In addition, position stop operation and block stop operation are properly used according to the size of the obstacle. When the obstacle in front is small, the position stopping operation is mainly performed at the position where there is an obstacle. When there is an obstacle, the air is blown over a wide range by performing a block stop operation.

本実施の形態においては、スイング動作とポジション停留稼動とブロック停留稼動を総称して、左右羽根14の揺動動作と称している。   In the present embodiment, the swing operation, the position stop operation, and the block stop operation are collectively referred to as the swing operation of the left and right blades 14.

以下、上下羽根12あるいは左右羽根14の制御例を具体的に説明するが、人物移動検出手段101により人が単一の領域にのみいると判定された場合、人物移動検出手段101により人がいると判定された差分領域の前方に障害物があると障害物検出手段107により判定された場合、上下羽根12を制御して障害物を上方から回避する気流制御を行なうようにしている。   Hereinafter, a specific example of control of the upper and lower blades 12 or the left and right blades 14 will be described. When the person movement detection unit 101 determines that a person is only in a single area, the person movement detection unit 101 has a person. When the obstacle detection means 107 determines that there is an obstacle in front of the difference area determined to be, the upper and lower blades 12 are controlled to perform airflow control that avoids the obstacle from above.

また、人物移動検出手段101により人がいると判定された人位置領域に属するポジションに障害物があると障害物検出手段107により判定された場合、人がいると判定された人位置領域に属する少なくとも一つのポジションで左右羽根14を揺動させ、揺動範囲の両端で左右羽根14の固定時間を設けない第1の気流制御と、人がいると判定された人位置領域あるいは当該領域に隣接する人位置領域に属する少なくとも一つのポジションで
左右羽根14を揺動させ、揺動範囲の両端で左右羽根14の固定時間を設けた第2の気流制御の一つを選択するようにしている。
Further, when the obstacle detection unit 107 determines that there is an obstacle in the position belonging to the person position area determined by the person movement detection unit 101, the person movement detection unit 101 belongs to the person position area determined to have a person. First air flow control in which the left and right blades 14 are swung at at least one position and the left and right blades 14 are not fixed at both ends of the swing range, and a person position area determined to have a person or adjacent to the area The left and right blades 14 are swung at at least one position belonging to the person position area, and one of the second airflow controls in which the left and right blades 14 are fixed at both ends of the swing range is selected.

また、以下の説明では、上下羽根12の制御と左右羽根14の制御を分けているが、人及び障害物の位置に応じて、上下羽根12の制御と左右羽根14の制御は適宜組み合わせて行われる。   In the following description, the control of the upper and lower blades 12 and the control of the left and right blades 14 are separated, but the control of the upper and lower blades 12 and the control of the left and right blades 14 are appropriately combined depending on the position of the person and the obstacle. Is called.

A.上下羽根制御
(1)領域B〜Gのいずれかに人がいて、人がいる領域の前方のポジションA1〜A3に障害物がある場合
上下羽根12の設定角度を通常のフィールド風向制御(表2)に対し表5のように補正し、上下羽根12を上向き設定した気流制御を行なう。
A. Upper and lower blade control (1) When there is a person in any of the regions B to G and there are obstacles at positions A1 to A3 in front of the region where the person is present, the set angle of the upper and lower blades 12 is set to normal field wind direction control (Table 2). ) Is corrected as shown in Table 5, and airflow control is performed with the upper and lower blades 12 set upward.

(2)領域B〜Gのいずれかに人がいて、人がいる領域の前方の領域Aに障害物がない場合(上記(1)以外)
通常自動風向制御を行なう。
(2) When there is a person in any of the areas B to G and there is no obstacle in the area A in front of the area in which the person is present (other than (1) above)
Usually performs automatic wind direction control.

B.左右羽根制御
B1.領域A(近距離)に人がいる場合
(1)領域Aにおいて障害物のないポジションが一つの場合
障害物のないポジションの目標設定角度を中心として左右にスイング動作させ第1の気流制御を行なう。例えば、ポジションA1,A3に障害物があり、ポジションA2に障害物がない場合、ポジションA2の目標設定角度を中心として左右にスイング動作させ、基本的には障害物のないポジションA2を空調するが、ポジションA1,A3に人がいないとは限らないので、スイング動作を加えることで、ポジションA1,A3に多少でも気流が振り分けられるようにする。
B. Left and right blade control B1. When there is a person in the area A (short distance) (1) When there is one position without an obstacle in the area A, the first airflow control is performed by swinging left and right around the target setting angle of the position without the obstacle. . For example, when there are obstacles at positions A1 and A3 and there are no obstacles at position A2, the position A2 is basically air-conditioned by swinging left and right around the target setting angle of position A2. Since there is no guarantee that there are no people at positions A1 and A3, an air flow is distributed to positions A1 and A3 by adding a swing motion.

さらに具体的に説明すると、表1及び表3に基づいて、ポジションA2の目標設定角度及び補正角度(スイング動作時の揺動角)は決定されるので、左羽根及び右羽根は共に10度を中心に、それぞれ±10度の角度範囲で止まることなく揺動(スイング)し続ける。ただし、左羽根と右羽根を左右に振るタイミングは同一に設定されており、左羽根と右羽根の揺動動作は連動している。   More specifically, since the target setting angle and the correction angle (swing angle during the swing operation) of the position A2 are determined based on Tables 1 and 3, both the left blade and the right blade have 10 degrees. It continues to swing (swing) without stopping in the center at an angle range of ± 10 degrees. However, the timing of swinging the left and right blades to the left and right is set to be the same, and the swinging motions of the left and right blades are linked.

(2)領域Aにおいて障害物のないポジションが二つで、隣接している場合(A1とA2あるいはA2とA3)
障害物のない二つのポジションの目標設定角度を両端としてスイング動作させ第1の気流制御を行なうことで、基本的に障害物のないポジションを空調する。
(2) When there are two obstacle-free positions in the area A and they are adjacent (A1 and A2 or A2 and A3)
The first airflow control is performed by swinging the target setting angles of the two positions with no obstacles at both ends to basically air-condition the positions without the obstacles.

(3)領域Aにおいて障害物のないポジションが二つで、離れている場合(A1とA3

障害物のない二つのポジションの目標設定角度を両端としてブロック停留稼動させ第2の気流制御を行なう。
(3) When there are two obstacle-free positions in area A (A1 and A3
)
The second airflow control is performed by operating the block stop with the target set angles of two positions having no obstacles at both ends.

(4)領域Aにおいてすべてのポジションに障害物がある場合
どこを狙っていいのか不明なので、ブロックNをブロック停留稼動させ第2の気流制御を行なう。領域全体を狙うよりもブロック停留稼動の方が指向性のある風向となって遠くに届きやすく、障害物を回避できる可能性が高いからである。すなわち、領域Aに障害物が点在している場合でも、障害物と障害物との間には通常隙間があり、この障害物間の隙間を通して送風することができる。
(4) When there are obstacles at all positions in the region A Since it is unclear where to aim, the block N is operated in a block stop and the second airflow control is performed. This is because the block stop operation is more directional and can reach far away than the entire area, and there is a high possibility of avoiding obstacles. That is, even when obstacles are scattered in the area A, there is usually a gap between the obstacles, and the air can be blown through the gap between the obstacles.

(5)領域Aにおいてすべてのポジションに障害物がない場合
領域Aの通常自動風向制御を行なう。
(5) When there are no obstacles in all positions in the area A The normal automatic wind direction control in the area A is performed.

B2.領域B,C,D(中距離)のいずれかに人がいる場合
(1)人がいる領域に属する二つのポジションの一方にのみ障害物がある場合
障害物のないポジションの目標設定角度を中心として左右にスイング動作させ第1の気流制御を行なう。例えば、領域Dに人がいて、ポジションD2にのみ障害物がある場合、ポジションD1の目標設定角度を中心として左右にスイング動作させる。
B2. When there is a person in any of the areas B, C, D (medium distance) (1) When there is an obstacle only in one of the two positions belonging to the person's area The first airflow control is performed by swinging left and right. For example, when there is a person in the region D and there is an obstacle only at the position D2, the swing operation is performed to the left and right around the target setting angle of the position D1.

(2)人がいる領域に属する二つのポジションの両方に障害物がある場合
人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Dに人がいて、ポジションD1,D2の両方に障害物がある場合、ブロックLをブロック停留稼動させる。
(2) When there are obstacles in both of the two positions belonging to the area where the person is present The block including the area where the person is present is operated to stop the block and the second air flow control is performed. For example, when there is a person in the area D and there are obstacles in both the positions D1 and D2, the block L is operated while being stopped.

(3)人がいる領域に障害物がない場合
人がいる領域の通常自動風向制御を行なう。
(3) When there are no obstacles in an area where people are present Normal normal wind direction control is performed in areas where people are present.

B3.領域E,F,G(遠距離)のいずれかに人がいる場合
(1)人がいる領域の前方の中距離領域に属する二つのポジションの一方にのみ障害物がある場合(例:領域Eに人がいて、ポジションB2に障害物があり、ポジションB1に障害物がない)
(1.1)障害物があるポジションの両隣に障害物がない場合(例:ポジションB1,C1に障害物がない)
(1.1.1)障害物があるポジションの後方に障害物がない場合(例:ポジションE2に障害物がない)
障害物があるポジションを中心としてポジション停留稼動させ第2の気流制御を行なう。例えば、領域Eに人がいて、ポジションB2に障害物があり、その両側にも後方にも障害物がない場合、ポジションB2にある障害物を横から避けて領域Eに気流を送り込むことができる。
B3. When there is a person in any of the areas E, F, G (far distance) (1) When there is an obstacle only in one of the two positions belonging to the middle distance area in front of the area where the person is present (example: area E There is an obstacle at position B2 and there is no obstacle at position B1)
(1.1) When there are no obstacles on both sides of a position with obstacles (eg, there are no obstacles at positions B1 and C1)
(1.1.1) When there is no obstacle behind the position where there is an obstacle (eg, there is no obstacle at position E2)
The second airflow control is performed by stopping the position around the position where the obstacle is located. For example, if there is a person in the area E and there is an obstacle at the position B2, and there are no obstacles on either side of the obstacle, the air current can be sent to the area E while avoiding the obstacle at the position B2 from the side. .

(1.1.2)障害物があるポジションの後方に障害物がある場合(例:ポジションE2に障害物がある)
中距離領域で障害物がないポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Eに人がいて、ポジションB2に障害物があり、その両側には障害物がないが、その後方に障害物がある場合、障害物がないポジションB1から気流を送り込むほうが有利である。
(1.1.2) When there is an obstacle behind the position where there is an obstacle (eg, there is an obstacle at position E2)
The first airflow control is performed by performing a swing operation around the target setting angle in a position where there is no obstacle in the middle distance region. For example, if there is a person in the area E and there is an obstacle at the position B2 and there are no obstacles on both sides, but there are obstacles behind it, it is advantageous to send airflow from the position B1 where there is no obstacle. .

(1.2)障害物があるポジションの両隣のうち一方に障害物があり、他方に障害物がない場合
障害物がないポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Fに人がいて、ポジションC2に障害物があり、ポジションC2の両隣のうちポジションD1に障害物があり、C1に障害物がない場合、障害物がないポジションC1からポジションC2の障害物を避けて気流を領域Fに送ることができる。
(1.2) When there is an obstacle on both sides of the position where there is an obstacle and there is no obstacle on the other side, the first airflow control is performed by swinging around the target setting angle of the position where there is no obstacle . For example, if there is a person in the area F, there is an obstacle in position C2, there is an obstacle in position D1 of both sides of position C2, and there is no obstacle in C1, the obstacles from position C1 to position C2 where there is no obstacle Airflow can be sent to area F while avoiding objects.

(2)人がいる領域の前方の中距離領域に属する二つのポジションの両方に障害物がある場合
人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Fに人がいて、ポジションC1,C2の両方に障害物がある場合、ブロックCをブロック停留稼動させる。この場合、人の前方に障害物があり、障害物を避けようがないので、ブロックCに隣接するブロックに障害物があるかどうかに関係なく、ブロック停留稼動を行なう。
(2) When there is an obstacle in both of the two positions belonging to the middle distance area in front of the area where the person is present The block including the area where the person is present is operated to stop the block and the second airflow control is performed. For example, when there is a person in the area F and there are obstacles in both the positions C1 and C2, the block C is operated in a block stop state. In this case, since there is an obstacle ahead of the person and there is no way to avoid the obstacle, the block stop operation is performed regardless of whether there is an obstacle in the block adjacent to the block C.

(3)人がいる領域の前方の中距離領域に属する二つのポジションの両方に障害物がない場合(例:領域Fに人がいて、ポジションC1,C2に障害物がない)
(3.1)人がいる領域に属する二つのポジションの一方のポジションにのみ障害物がある場合
障害物がない他方のポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Fに人がいて、ポジションC1,C2,F1に障害物がなく、ポジションF2に障害物がある場合、人がいる領域Fの前方は開放されているので、遠距離の障害物を考慮して障害物のない遠距離のポジションF1を中心に空調する。
(3) When there are no obstacles in both of the two positions belonging to the middle distance area in front of the area where the person is present (example: there is a person in the area F and there are no obstacles in the positions C1 and C2)
(3.1) When there is an obstacle only in one of the two positions belonging to the area where the person is present The first airflow control is performed by swinging around the target set angle of the other position where there is no obstacle. For example, if there is a person in the area F, there are no obstacles in the positions C1, C2, and F1, and there is an obstacle in the position F2, the front of the area F in which the person is present is open. Considering this, air conditioning is performed around the far-off position F1 without an obstacle.

(3.2)人がいる領域に属する二つのポジションの両方に障害物がある場合
人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Gに人がいて、ポジションD1,D2に障害物がなく、ポジションG1,G2の両方に障害物がある場合、人がいる領域Gの前方は開放されているが、この領域全体に障害物があり、どこを狙っていいのか不明なので、ブロックLをブロック停留稼動させる。
(3.2) When there are obstacles in both of the two positions belonging to the area where the person is present The block including the area where the person is present is operated in a block stop to perform the second air flow control. For example, if there is a person in the area G, there are no obstacles in the positions D1 and D2, and there are obstacles in both the positions G1 and G2, the front of the area G in which the person is present is open. Since there is an obstacle and it is unclear where to aim, block L is put into block stop operation.

(3.3)人がいる領域に属する二つのポジションの両方に障害物がない場合
人がいる領域の通常自動風向制御を行なう。
(3.3) When there are no obstacles in both of the two positions belonging to the area where the person is present Normal normal wind direction control is performed in the area where the person is present.

空気調和機が設置されることが多い家庭内では、屋外や公共空間と異なり、人物は座っていたり、横になっていたりすることが多い。そのため、従来の状況認識装置では、認識精度を上げることができなかったため、最適な空気調和動作を実現することができなかった。一方、本実施形態の状況認識装置は、以上のように、人物移動検出手段101によって人物の移動情報を推定し、状況認識処理判断手段102は、人物が移動している場合のみ、障害物検出処理を行なうことにより、家庭内においても、高精度の障害物検出処理を実現することができるため、空気調和空間の状況を高精度に認識し、快適な空調空間を実現しつつ省エネ運転が可能という、最適な空気調和動作を実現することができる。   Unlike homes and public spaces, people often sit or lie in homes where air conditioners are often installed. For this reason, in the conventional situation recognition apparatus, since the recognition accuracy cannot be increased, it is impossible to realize an optimal air conditioning operation. On the other hand, as described above, the situation recognition apparatus according to the present embodiment estimates person movement information by the person movement detection unit 101, and the situation recognition processing determination unit 102 detects an obstacle only when the person is moving. By performing processing, it is possible to realize highly accurate obstacle detection processing even in the home, so it is possible to recognize the status of the air-conditioned space with high accuracy and realize energy-saving operation while realizing a comfortable air-conditioned space The optimum air conditioning operation can be realized.

また、本発明の第3の実施の形態におけるカメラパラメータ推定装置を搭載した空気調和機においても、従来では困難であった家庭内でのカメラパラメータ推定を高精度に行なうことができるため、身長推定精度を向上させ、最適な空気調和動作を実現することができる。   Further, even in an air conditioner equipped with the camera parameter estimation device according to the third embodiment of the present invention, camera parameter estimation at home, which has been difficult in the past, can be performed with high accuracy. Accuracy can be improved and optimal air conditioning operation can be realized.

なお、本発明の状況認識装置で認識した結果を基に、空調制御を行なう空気調和機を説明したが、空気調和機は、認識結果を表示するための認識結果表示手段110を有するようにしてもかまわない。   In addition, although the air conditioner which performs air-conditioning control was demonstrated based on the result recognized with the condition recognition apparatus of this invention, it is made to have the recognition result display means 110 for displaying an recognition result. It doesn't matter.

図37は、本発明の状況認識装置を搭載した空気調和機の構成を示す機能ブロック図で
ある。図37において、図1および図27と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。
FIG. 37 is a functional block diagram showing the configuration of an air conditioner equipped with the situation recognition device of the present invention. In FIG. 37, the same components as those in FIGS. 1 and 27 are denoted by the same reference numerals, and description thereof is omitted.

また、図38は、本発明の第1の実施の形態における身長推定装置を搭載した空気調和機の処理の流れを示すフローチャートである。図38において、図3および図32と共通の構成要素に関しては、同一の符号を付し、その説明は省略する。   FIG. 38 is a flowchart showing the flow of processing of the air conditioner equipped with the height estimation device according to the first embodiment of the present invention. In FIG. 38, the same components as those in FIGS. 3 and 32 are denoted by the same reference numerals, and the description thereof is omitted.

図38において、認識結果表示手段110は、身長推定手段105の推定結果を空調空間内の人物に表示する(ステップS115)。表示方法としては、例えば、状況認識処理判断手段102によって人物が移動していると判断され、身長推定処理が実施された場合、空気調和機の室内機に設置されたLEDなどの光源を一定時間、点滅させたり、点灯させたりすればよい。もちろん、身長推定処理が実施された場合には、空気調和機の室内機に設置されたLEDなどの光源を一定時間、点灯させる一方、身長推定処理が実施されなかった場合には、空気調和機の室内機に設置されたLEDなどの光源を一定時間、点滅させるようにしてもかまわない。   In FIG. 38, the recognition result display means 110 displays the estimation result of the height estimation means 105 to a person in the air-conditioned space (step S115). As a display method, for example, when it is determined that the person is moving by the situation recognition process determination unit 102 and the height estimation process is performed, a light source such as an LED installed in the indoor unit of the air conditioner is used for a certain period of time. It can be flashed or lit. Of course, when the height estimation process is performed, a light source such as an LED installed in the indoor unit of the air conditioner is turned on for a certain period of time, while when the height estimation process is not performed, the air conditioner A light source such as an LED installed in the indoor unit may be blinked for a certain period of time.

このように、状況識別結果を家庭内の人物に表示することにより、利用者は状況識別装置が識別を行なえているかどうかを認識することができるため、安心して利用することができる。また、空気調和機の室内機に設置されたLEDなどの光源を利用することにより、家庭内の様々な場所から認識することが可能であり、しかも、ユーザの邪魔になることなく、身長推定装置の状況を表示することができる。   Thus, by displaying the situation identification result to a person in the home, the user can recognize whether or not the situation identification apparatus has performed the identification, so that the user can use it with peace of mind. In addition, by using a light source such as an LED installed in an indoor unit of an air conditioner, it is possible to recognize from various places in the home, and the height estimation device without disturbing the user Status can be displayed.

もちろん、表示方法としては、LEDなどの光源を利用するのではなく、例えば、空気調和機の室内機に設置されたスピーカから音を出すようにしてもかまわない。空気調和機の室内機に設置されたスピーカから音を出すことにより、身長推定装置の状況を家庭内の様々な場所から認識することが可能である。   Of course, as a display method, instead of using a light source such as an LED, for example, a sound may be emitted from a speaker installed in an indoor unit of an air conditioner. By producing sound from a speaker installed in an indoor unit of an air conditioner, the status of the height estimation device can be recognized from various places in the home.

もちろん、表示方法として、空気調和機の稼動部である可動前面パネル4や上下羽根12、左右羽根14を動作させるようにしてもかまわない。このようにすることで、ユーザの邪魔になることなく、身長推定装置の状況を表示することができる。   Of course, as a display method, the movable front panel 4, the upper and lower blades 12, and the left and right blades 14, which are operating parts of the air conditioner, may be operated. By doing in this way, the situation of the height estimating device can be displayed without getting in the way of the user.

以上のように、本発明にかかる状況認識装置は、家庭内においても実用的に、精度よく状況認識処理を実現できる。さらに、本発明にかかる状況認識装置を搭載した空気調和機は家庭内においても、空調空間内の状況を高精度に認識することができ、制御精度を向上することが可能となるので、ユーザが操作指示を行なう機器全般の用途に広く適用できる。   As described above, the situation recognition apparatus according to the present invention can practically and accurately realize situation recognition processing even in the home. Furthermore, the air conditioner equipped with the situation recognition device according to the present invention can recognize the situation in the air-conditioned space with high accuracy even in the home, and the control accuracy can be improved. It can be widely applied to the use of all devices that give operation instructions.

2 室内機本体
2a 前面開口部
2b 上面開口部
4 可動前面パネル
6 熱交換器
8 室内ファン
10 吹出口
12 上下羽根
14 左右羽根
16 フィルタ
18,20 前面パネル用アーム
24 撮像センサユニット
30 リモコン
101 人物移動検出手段
102 状況認識処理判断手段
103 状況認識手段
104 足元位置検出手段
105 頭部位置検出手段
106 身長推定手段
107 障害物検出手段
108 カメラパラメータ推定手段
109 空調制御手段
110 認識結果表示手段
DESCRIPTION OF SYMBOLS 2 Indoor unit main body 2a Front opening part 2b Upper surface opening part 4 Movable front panel 6 Heat exchanger 8 Indoor fan 10 Outlet 12 Upper and lower blades 14 Left and right blades 16 Filter 18, 20 Front panel arm 24 Image sensor unit 30 Remote control 101 Person movement Detection means 102 Situation recognition processing determination means 103 Situation recognition means 104 Foot position detection means 105 Head position detection means 106 Height estimation means 107 Obstacle detection means 108 Camera parameter estimation means 109 Air conditioning control means 110 Recognition result display means

Claims (16)

家庭内の状況を認識する状況認識装置であって、
人物の移動情報を検出する人物移動検出手段と、
前記人物移動検出手段の検出結果により、状況認識処理を実施するかどうかを判断する状況認識処理判断手段と、
前記状況認識処理判断手段により、状況認識処理を実施すると判断した場合に、家庭内の状況を認識する状況認識手段
を有することを特徴とする、状況認識装置。
A situation recognition device for recognizing a situation in the home,
A person movement detecting means for detecting movement information of the person;
A situation recognition process judging means for judging whether or not to implement a situation recognition process based on a detection result of the person movement detection means;
A situation recognition apparatus comprising situation recognition means for recognizing a situation in the home when the situation recognition process judgment means judges that the situation recognition process is to be performed.
前記状況認識処理判断手段は、
前記人物移動検出手段により、人物が移動している場合には状況認識処理を実施し、そうでない場合は状況認識処理を実施しない
ことを特徴とする、請求項1に記載の状況認識装置。
The situation recognition process determination means includes
The situation recognition apparatus according to claim 1, wherein when the person is moving, the situation recognition process is performed by the person movement detection unit, and otherwise, the situation recognition process is not performed.
前記状況認識処理判断手段は、前記人物移動検出手段により、人物がその頭部と足元を結ぶベクトルに対して直交方向に移動している場合には身長推定を実施し、そのベクトル方向に移動している場合は状況認識処理を実施しない
ことを特徴とする、請求項2に記載の状況認識装置。
The situation recognition processing determination means performs height estimation when the person is moving in a direction orthogonal to a vector connecting the head and the foot by the person movement detection means, and moves in the vector direction. The situation recognition apparatus according to claim 2, wherein the situation recognition processing is not performed when the situation is detected.
前記状況認識手段は、
人物の身長を検出する身長推定手段である
ことを特徴とする、請求項1〜3のいずれか1項に記載の状況認識装置。
The situation recognition means includes
The situation recognition apparatus according to any one of claims 1 to 3, wherein the situation recognition unit is a height estimation unit that detects the height of a person.
前記状況認識手段である身長推定手段は、
人物の足元位置を検出する足元位置検出手段と、
人物の頭部位置を検出する頭部位置検出手段と、
前記足元位置検出手段で求めた足元位置情報と前記頭部位置検出手段で求めた頭部位置情報を利用して、人物の身長を検出する身長推定手段
ことを特徴とする、請求項4に記載の状況認識装置。
The height estimation means which is the situation recognition means,
A foot position detecting means for detecting a foot position of the person;
A head position detecting means for detecting a head position of the person;
5. The height estimating means for detecting the height of a person using the foot position information obtained by the foot position detecting means and the head position information obtained by the head position detecting means. Situation recognition device.
前記状況認識手段は、
家庭内の障害物を検出する障害物検出手段である
ことを特徴とする、請求項1〜3のいずれか1項に記載の状況認識装置。
The situation recognition means includes
The situation recognition apparatus according to any one of claims 1 to 3, wherein the situation recognition unit is an obstacle detection unit that detects an obstacle in a home.
前記状況認識手段である障害物検出手段は、
人物の移動履歴を利用して障害物を検出する
ことを特徴とする、請求項6に記載の状況認識装置。
The obstacle detection means which is the situation recognition means,
The situation recognition apparatus according to claim 6, wherein an obstacle is detected using a movement history of a person.
前記状況認識手段である障害物検出手段は、
人物の足元位置の履歴を利用して障害物を検出する
ことを特徴とする、請求項7に記載の状況認識装置。
The obstacle detection means which is the situation recognition means,
The situation recognition apparatus according to claim 7, wherein an obstacle is detected using a history of a person's foot position.
前記状況認識手段は、
カメラパラメータの推定処理を行なうカメラパラメータ推定手段である
ことを特徴とする、請求項1〜3のいずれか1項に記載の状況認識装置。
The situation recognition means includes
The situation recognition apparatus according to claim 1, wherein the situation recognition apparatus is a camera parameter estimation unit that performs a camera parameter estimation process.
前記状況認識手段でカメラパラメータ推定手段は、
カメラパラメータである消失線を推定する
ことを特徴とする、請求項9に記載の状況認識装置。
The camera parameter estimation means in the situation recognition means,
The situation recognition apparatus according to claim 9, wherein a vanishing line that is a camera parameter is estimated.
請求項1〜3のいずれか1項に記載の状況認識装置を搭載した空気調和機であって、
前記状況認識手段が識別した状況認識結果に基づいて、空調制御を実現する空調制御部を有する
ことを特徴とする空気調和機。
An air conditioner equipped with the situation recognition device according to any one of claims 1 to 3,
An air conditioner comprising an air conditioning control unit that realizes air conditioning control based on a situation recognition result identified by the situation recognition means.
請求項11に記載の状況認識装置を搭載した空気調和機であって、
さらに、前記状況認識手段が認識した認識結果を表示するための認識結果表示手段を有する
ことを特徴とする空気調和機。
An air conditioner equipped with the situation recognition device according to claim 11,
The air conditioner further comprises recognition result display means for displaying a recognition result recognized by the situation recognition means.
家庭内の状況を認識する状況認識方法であって、
人物の移動情報を検出する人物移動検出ステップと、
前記人物移動検出ステップの検出結果により、状況認識処理を実施するかどうかを判断する状況認識処理判断ステップと、
前記状況認識処理判断ステップにより、状況認識処理を実施すると判断した場合に、家庭内の状況を認識する状況認識ステップ
を有することを特徴とする、状況認識方法。
A situation recognition method for recognizing the situation in the home,
A person movement detection step for detecting movement information of the person;
A situation recognition process determination step for determining whether or not to implement a situation recognition process based on the detection result of the person movement detection step;
A situation recognition method comprising a situation recognition step of recognizing a situation in a home when it is judged in the situation recognition process judgment step that the situation recognition process is performed.
前記状況認識ステップは、
人物の身長を検出する身長推定ステップである
ことを特徴とする、請求項13に記載の状況認識方法。
The situation recognition step includes
The situation recognition method according to claim 13, which is a height estimation step of detecting the height of a person.
前記状況認識ステップは、
家庭内の障害物を検出する障害物検出ステップである
ことを特徴とする、請求項13に記載の状況認識方法。
The situation recognition step includes
The situation recognition method according to claim 13, which is an obstacle detection step of detecting an obstacle in the home.
前記状況認識ステップは、
カメラパラメータの推定処理を行なうカメラパラメータ推定ステップである
ことを特徴とする、請求項13に記載の状況認識方法。
The situation recognition step includes
The situation recognition method according to claim 13, wherein the camera parameter estimation step performs camera parameter estimation processing.
JP2011162737A 2011-07-26 2011-07-26 Situation recognition device Withdrawn JP2013024534A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011162737A JP2013024534A (en) 2011-07-26 2011-07-26 Situation recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011162737A JP2013024534A (en) 2011-07-26 2011-07-26 Situation recognition device

Publications (1)

Publication Number Publication Date
JP2013024534A true JP2013024534A (en) 2013-02-04

Family

ID=47783090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011162737A Withdrawn JP2013024534A (en) 2011-07-26 2011-07-26 Situation recognition device

Country Status (1)

Country Link
JP (1) JP2013024534A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002382A (en) * 2013-06-13 2015-01-05 富士ゼロックス株式会社 Image processing apparatus and user detection control program
KR20160007349A (en) * 2014-07-11 2016-01-20 오므론 가부시키가이샤 Room information estimation apparatus, room information estimation mathod and air condition apparatus
KR20160045556A (en) 2014-10-17 2016-04-27 오므론 가부시키가이샤 Apparatus for estimating area information, method for estimating area information, and air conditioner
WO2016136462A1 (en) * 2015-02-25 2016-09-01 愼一 駒井 Method and device for cutting out subject portion from image acquired by camera image pickup
CN106885336A (en) * 2017-02-16 2017-06-23 广东美的制冷设备有限公司 A kind of control method of the anti-cold wind of floor air conditioner, controller and floor air conditioner
JP2017151536A (en) * 2016-02-22 2017-08-31 株式会社メガチップス Image processing apparatus, control program, and area specification method
WO2018042621A1 (en) * 2016-09-02 2018-03-08 三菱電機株式会社 Air conditioning system
WO2018069961A1 (en) 2016-10-11 2018-04-19 三菱電機株式会社 Air conditioning apparatus
JP2021069079A (en) * 2019-10-28 2021-04-30 富士通クライアントコンピューティング株式会社 Information processing system, information processing device, and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002382A (en) * 2013-06-13 2015-01-05 富士ゼロックス株式会社 Image processing apparatus and user detection control program
KR101723729B1 (en) * 2014-07-11 2017-04-05 오므론 가부시키가이샤 Room information estimation apparatus, room information estimation mathod and air condition apparatus
KR20160007349A (en) * 2014-07-11 2016-01-20 오므론 가부시키가이샤 Room information estimation apparatus, room information estimation mathod and air condition apparatus
CN105276760A (en) * 2014-07-11 2016-01-27 欧姆龙株式会社 Room information inferring apparatus, room information inferring method, and air conditioning apparatus
US9760796B2 (en) 2014-07-11 2017-09-12 Omron Corporation Room information inferring apparatus including a person detector and a presence map generator, room information inferring method including person detection and presence map generation, and air conditioning apparatus
US9715627B2 (en) 2014-10-17 2017-07-25 Omron Corporation Area information estimating device, area information estimating method, and air conditioning apparatus
EP3029604A2 (en) 2014-10-17 2016-06-08 Omron Corporation Area information estimating device, area information estimating method, and air conditioning apparatus
KR20160045556A (en) 2014-10-17 2016-04-27 오므론 가부시키가이샤 Apparatus for estimating area information, method for estimating area information, and air conditioner
WO2016136462A1 (en) * 2015-02-25 2016-09-01 愼一 駒井 Method and device for cutting out subject portion from image acquired by camera image pickup
JP2017151536A (en) * 2016-02-22 2017-08-31 株式会社メガチップス Image processing apparatus, control program, and area specification method
WO2018042621A1 (en) * 2016-09-02 2018-03-08 三菱電機株式会社 Air conditioning system
JPWO2018042621A1 (en) * 2016-09-02 2018-11-22 三菱電機株式会社 Air conditioning system
WO2018069961A1 (en) 2016-10-11 2018-04-19 三菱電機株式会社 Air conditioning apparatus
CN109790993A (en) * 2016-10-11 2019-05-21 三菱电机株式会社 Air-conditioning device
CN109790993B (en) * 2016-10-11 2021-08-17 三菱电机株式会社 Air conditioner
CN106885336A (en) * 2017-02-16 2017-06-23 广东美的制冷设备有限公司 A kind of control method of the anti-cold wind of floor air conditioner, controller and floor air conditioner
JP2021069079A (en) * 2019-10-28 2021-04-30 富士通クライアントコンピューティング株式会社 Information processing system, information processing device, and program

Similar Documents

Publication Publication Date Title
JP2013024534A (en) Situation recognition device
JP5819271B2 (en) Air conditioner
JP6335425B2 (en) Air conditioner
JP5815490B2 (en) Air conditioner
JP6368552B2 (en) Air conditioner
JP5879221B2 (en) Air conditioner
JP5402488B2 (en) Air conditioner
JP2014130001A (en) Air conditioner
JP5454065B2 (en) Air conditioner
JP2016023833A (en) Air conditioner
WO2011043054A1 (en) Air conditioner
JP2015190666A (en) Indoor machine of air conditioning machine, and air conditioning machine using the same
JP2011080621A (en) Air conditioner
JP2012037102A (en) Device and method for identifying person and air conditioner with person identification device
JP5402487B2 (en) Air conditioner
JP6408300B2 (en) Air conditioner
JP2016017707A (en) Air conditioning system
JP5488297B2 (en) Air conditioner
JP2016044863A (en) Air conditioner
JP5487867B2 (en) Air conditioner
JP5487869B2 (en) Air conditioner
JP2011080685A (en) Air conditioner
JP6552164B2 (en) Air conditioner
JP2016044865A (en) Air conditioner
KR20150004575A (en) Blowing system of position tracking and customize air blowing method using blowing system of position tracking

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007