JP2017053603A - Air conditioner - Google Patents

Air conditioner Download PDF

Info

Publication number
JP2017053603A
JP2017053603A JP2015179793A JP2015179793A JP2017053603A JP 2017053603 A JP2017053603 A JP 2017053603A JP 2015179793 A JP2015179793 A JP 2015179793A JP 2015179793 A JP2015179793 A JP 2015179793A JP 2017053603 A JP2017053603 A JP 2017053603A
Authority
JP
Japan
Prior art keywords
unit
image
partition
area
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015179793A
Other languages
Japanese (ja)
Inventor
佑人 小松
Yuto Komatsu
佑人 小松
浜田 宏一
Koichi Hamada
宏一 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Johnson Controls Hitachi Air Conditioning Technology Hong Kong Ltd
Original Assignee
Johnson Controls Hitachi Air Conditioning Technology Hong Kong Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Johnson Controls Hitachi Air Conditioning Technology Hong Kong Ltd filed Critical Johnson Controls Hitachi Air Conditioning Technology Hong Kong Ltd
Priority to JP2015179793A priority Critical patent/JP2017053603A/en
Publication of JP2017053603A publication Critical patent/JP2017053603A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To properly adjust indoor air, by accurately grasping structure of a room.SOLUTION: An air conditioner includes: a photographing unit configured to photograph a plurality of images in a room; a storage unit configured to store the plurality of photographed images; a conversion unit configured to specify a region where strain is removed from the plurality of photographed images, and image-convert the specified region; a detection unit configured to detect features in the room on the basis of an image containing the region having been subjected to image conversion; and a control unit configured to adjust an air amount fed to the room or a wind direction on the basis of the features of the room detected by the detection unit.SELECTED DRAWING: Figure 1

Description

本発明は、空気調和機に関する。   The present invention relates to an air conditioner.

室内の空気の温度又は湿度を調節することによって、室内を人にとって快適な状態に調節する空気調和機が提供されている。従来の空気調和機は、ユーザによって指定される温度又は湿度に室内の空気を調節していた。   There is provided an air conditioner that adjusts the temperature or humidity of indoor air so that the room is comfortable for a person. Conventional air conditioners adjust the indoor air to a temperature or humidity specified by the user.

また、例えば、カメラ映像から撮影対象領域の障害物を検知する空間認識装置及びこの空間認識装置を用いた空気調和機が提案されている(例えば、特許文献1参照)。   In addition, for example, a space recognition device that detects an obstacle in a shooting target region from a camera image and an air conditioner using the space recognition device have been proposed (for example, see Patent Document 1).

特開2010-190432号公報JP 2010-190432 A

部屋には、人が出入りする扉、ふすま又は障子等の間仕切りが設置される。部屋の間仕切りが開く場合、空気調和機が設置される部屋と隣接する部屋又は廊下との間で換気が行われ、部屋の温度又は湿度が変化する。   In the room, a door, a bran, a shoji screen, etc. for people to enter and exit is installed. When the room partition is opened, ventilation is performed between the room where the air conditioner is installed and the adjacent room or hallway, and the temperature or humidity of the room changes.

従来の空気調和機は、部屋の間仕切りに関する正確な情報を保持していなかった。このため、従来の空気調和機は、部屋の間仕切りが開いた状態に変化しても、この間仕切りの変化に従って風向及び出力の強弱を制御できなかった。この結果、開いた間仕切り付近に温度等を調節できない箇所(空気調和機が冷房運転時には、熱だまり)が発生するために、室内全体の空気を所望の温度又は湿度に調節することができなかった。   Conventional air conditioners do not maintain accurate information about room partitions. For this reason, even if the conventional air conditioner changes to a state where the partition of the room is opened, it cannot control the strength of the wind direction and the output according to the change of the partition. As a result, there was a place where the temperature etc. could not be adjusted near the open partition (when the air conditioner was in cooling operation, a heat pool) was generated, so the air in the entire room could not be adjusted to the desired temperature or humidity. .

また、部屋の形状及び大きさは、一定ではない。従来の空気調和機は、部屋の形状及び大きさ等を示す間取りに関する正確な情報を保持していなかった。このため、従来の空気調和機は、例えば、室内において空気調和機から最も遠い部分への出力を強くするなど、部屋の間取りに従った空気の調節ができなかった。この結果、室内において、温度等を調節できない箇所が発生し、室内全体の空気を所望の温度又は湿度に調節することができなかった。   Moreover, the shape and size of the room are not constant. Conventional air conditioners do not hold accurate information regarding the floor plan indicating the shape and size of the room. For this reason, the conventional air conditioner cannot adjust the air according to the room layout, for example, by increasing the output to the farthest part from the air conditioner in the room. As a result, there are places in the room where the temperature or the like cannot be adjusted, and the air in the whole room cannot be adjusted to a desired temperature or humidity.

本発明の目的は、狭い視野角のカメラでは写り込まない部屋の特徴を正確に検出することができ、熱だまりの発生を防ぐ空気調和機の提供である。   An object of the present invention is to provide an air conditioner that can accurately detect room features that are not captured by a camera with a narrow viewing angle, and that prevents the accumulation of heat.

本発明の代表的な一例を示せば以下の通りである。すなわち、空気調和機であって、室内の画像を複数撮像する撮像部と、前記撮像された複数の画像を記憶する記憶部と、前記撮像した複数の画像の中から歪みを除去する領域を特定し、前記特定された領域を画像変換する変換部と、前記画像変換された領域を含む画像に基づいて前記室内の特徴を検出する検出部と、前記検出部によって検出された室内の特徴に基づいて、前記室内へ送る風量又は風向を調節する制御部と、を備えることを特徴とする空気調和機、を有する。   A typical example of the present invention is as follows. That is, an air conditioner that identifies an imaging unit that captures a plurality of indoor images, a storage unit that stores the captured images, and an area from which distortion is removed from the captured images And a conversion unit that converts the image of the identified area, a detection unit that detects a feature of the room based on an image including the image-converted area, and a feature of the room detected by the detection unit. And an air conditioner characterized by comprising a controller for adjusting the amount or direction of air sent to the room.

本発明の一実施形態によると、広角カメラによって撮像された画像を用いた場合にも、狭い視野角のカメラでは写り込まない部屋の特徴を正確に検出することができ、熱だまりの発生を防ぐ。   According to an embodiment of the present invention, even when an image captured by a wide-angle camera is used, it is possible to accurately detect room features that are not captured by a camera with a narrow viewing angle, thereby preventing the occurrence of thermal accumulation. .

上記以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

実施例1の空気調和機の室内機、室外機及びリモコンを示す正面図である。It is a front view which shows the indoor unit of the air conditioner of Example 1, an outdoor unit, and a remote control. 実施例1の室内機の側断面図を示す説明図である。It is explanatory drawing which shows the sectional side view of the indoor unit of Example 1. FIG. 実施例1の撮像部による撮像範囲を示す説明図である。6 is an explanatory diagram illustrating an imaging range by an imaging unit according to Embodiment 1. FIG. 実施例1の温度検出部による温度検出範囲を示す説明図である。It is explanatory drawing which shows the temperature detection range by the temperature detection part of Example 1. FIG. 実施例1の広角レンズを備える撮像部による撮像範囲を示す説明図である。6 is an explanatory diagram illustrating an imaging range by an imaging unit including the wide-angle lens of Example 1. FIG. 実施例1の撮像部及び温度検出部を回動させる方法を示す説明図である。It is explanatory drawing which shows the method of rotating the imaging part and temperature detection part of Example 1. FIG. 実施例1の撮像部及び温度検出部が配置される位置の他の例を示す説明図である。It is explanatory drawing which shows the other example of the position where the imaging part and temperature detection part of Example 1 are arrange | positioned. 実施例1の間仕切りを検出し、室内を空調する処理の概要を示す機能ブロック図である。It is a functional block diagram which shows the outline | summary of the process which detects the partition of Example 1 and air-conditions a room | chamber interior. 実施例1の撮像部が回動する場合の間仕切りを検出する処理を示すフローチャートである。6 is a flowchart illustrating processing for detecting a partition when the imaging unit according to the first embodiment rotates. 実施例1の空間検出部の処理部の機能ブロックと、画像の処理結果とを示す説明図である。FIG. 5 is an explanatory diagram illustrating functional blocks of a processing unit of the space detection unit and image processing results according to the first embodiment. 実施例1の間仕切りを検出する処理の詳細を示すフローチャートである。6 is a flowchart illustrating details of a process for detecting a partition according to the first embodiment. 実施例1の間仕切りを検出する処理の開始時の詳細を示すフローチャートである。6 is a flowchart illustrating details at the start of a process for detecting a partition according to the first embodiment. 実施例1の撮像部が広角画像を取得した際の処理の概要を示す機能ブロック図である。3 is a functional block diagram illustrating an outline of processing when the imaging unit according to the first embodiment acquires a wide-angle image. FIG. 実施例1の歪み除去部による処理を示す機能ブロック図である。6 is a functional block diagram illustrating processing by a distortion removing unit according to the first embodiment. FIG. 実施例1の正像変換部による処理の説明図を示す。FIG. 3 is an explanatory diagram of processing performed by a normal image conversion unit according to the first embodiment. 本実施例2の空間検出部の処理部の機能ブロックと、画像の処理結果とを示す説明図である。It is explanatory drawing which shows the functional block of the process part of the space detection part of the present Example 2, and the process result of an image. 本実施例2の空間検出部の処理を示すフローチャートである。It is a flowchart which shows the process of the space detection part of the present Example 2. 本実施例2の奥行き算出部によるコーナーまでの距離の算出処理を示す説明図である。It is explanatory drawing which shows the calculation process of the distance to the corner by the depth calculation part of the present Example 2. 本実施例2の人体検出部の処理結果とコーナーの距離及び方向とを示す説明図である。It is explanatory drawing which shows the process result of the human body detection part of a present Example 2, and the distance and direction of a corner.

以下の図面に従って本実施例を説明する。   A present Example is described according to the following drawings.

図1は、実施例1の空気調和機の室内機1、室外機2及びリモコン3を示す正面図である。   FIG. 1 is a front view illustrating an indoor unit 1, an outdoor unit 2, and a remote controller 3 of an air conditioner according to a first embodiment.

図1に示す空気調和機は、室内機1と、室外機2と、リモコン3とを備える。室内機1と室外機2とは冷媒配管で接続され、周知の冷媒サイクルによって、室内機1が設置される室内を空調する。また、室内機1と室外機2とは、通信ケーブル(図示せず)を介して互いに情報を送受信する。   The air conditioner shown in FIG. 1 includes an indoor unit 1, an outdoor unit 2, and a remote controller 3. The indoor unit 1 and the outdoor unit 2 are connected by refrigerant piping, and air-conditions the room in which the indoor unit 1 is installed by a known refrigerant cycle. Further, the indoor unit 1 and the outdoor unit 2 transmit and receive information to and from each other via a communication cable (not shown).

リモコン3は、ユーザによって操作され、室内機1が有する受信部に向けて赤外線信号を送信する。室内機1は、リモコン3から送信された赤外線信号を受信するための受信部を有する。リモコン3から送信される赤外線信号の内容は、運転要求、設定温度の変更、タイマ、運転モードの変更、又は、停止要求などの指令である。空気調和機は、これらの信号に基づいて、冷房モード、暖房モード、又は、除湿モードなどの空調運転を行う。   The remote controller 3 is operated by a user and transmits an infrared signal toward a receiving unit included in the indoor unit 1. The indoor unit 1 has a receiving unit for receiving an infrared signal transmitted from the remote controller 3. The content of the infrared signal transmitted from the remote controller 3 is a command such as an operation request, a change in set temperature, a timer, a change in operation mode, or a stop request. Based on these signals, the air conditioner performs an air conditioning operation such as a cooling mode, a heating mode, or a dehumidifying mode.

本実施例の室内機1は、センサ4、電装品11、撮像部26、及び、温度検出部27を備える。電装品11は、プロセッサ及びメモリを有する。電装品11は、センサ4、検出部5及び制御部7等の処理部を備える。   The indoor unit 1 according to the present embodiment includes a sensor 4, an electrical component 11, an imaging unit 26, and a temperature detection unit 27. The electrical component 11 has a processor and a memory. The electrical component 11 includes processing units such as the sensor 4, the detection unit 5, and the control unit 7.

電装品11が有する処理部は、プログラムであってもよく、また、集積回路等の物理的な装置であってもよい。   The processing unit included in the electrical component 11 may be a program or a physical device such as an integrated circuit.

センサ4は、撮像部26及び温度検出部27と接続され、撮像部26及び温度検出部27によって撮像された画像データを保持する。   The sensor 4 is connected to the imaging unit 26 and the temperature detection unit 27, and holds image data captured by the imaging unit 26 and the temperature detection unit 27.

撮像部26は、例えば、CCD(Charge Coupled Device)カメラであり、室内を撮像する装置である。撮像部26は、A/D変換機に接続され、撮像した画像データのアナログ信号をA/D変換器に入力する。A/D変換器は、撮像部26から入力された画像データをデジタル信号に変換し、出力する電子回路である。A/D変換機を介して、画像データのデジタル信号はセンサ4に入力される。なお、撮像部26は、A/D変換器を内蔵してもよいし、センサ4がA/D変換器を内蔵してもよい。   The imaging unit 26 is, for example, a CCD (Charge Coupled Device) camera, and is a device that images a room. The imaging unit 26 is connected to an A / D converter and inputs an analog signal of captured image data to the A / D converter. The A / D converter is an electronic circuit that converts the image data input from the imaging unit 26 into a digital signal and outputs the digital signal. A digital signal of image data is input to the sensor 4 via the A / D converter. The imaging unit 26 may include an A / D converter, or the sensor 4 may include an A / D converter.

温度検出部27は、例えば、横×縦が1×1画素、4×4画素、又は、1×8画素で構成されるサーモパイルであり、室内の温度を撮像する装置である。また、温度検出部27は、赤外線センサ又は赤外線カメラでもよい。   The temperature detection unit 27 is, for example, a thermopile composed of 1 × 1 pixel, 4 × 4 pixel, or 1 × 8 pixel in the horizontal and vertical directions, and is a device that images the indoor temperature. The temperature detection unit 27 may be an infrared sensor or an infrared camera.

図2は、実施例1の室内機1の側断面図を示す説明図である。   FIG. 2 is an explanatory diagram illustrating a side sectional view of the indoor unit 1 according to the first embodiment.

室内機1は、前述のセンサ4、電装品11、撮像部26、及び、温度検出部27の他、筐体ベース8、室内ファンモータ10、上下風向板14、前面パネル15、及び、空気吹出し口19を備える。   The indoor unit 1 includes the above-described sensor 4, electrical component 11, imaging unit 26, and temperature detection unit 27, as well as the housing base 8, the indoor fan motor 10, the vertical airflow direction plate 14, the front panel 15, and the air blowing. A mouth 19 is provided.

筐体ベース8は、室内機1の外部を覆う。空気吹出し口19は、室内機1の前面下方に設置される。室内機1によって温度及び湿度を調節された空気は、空気吹出し口19から室内機1の外に送られる。   The housing base 8 covers the outside of the indoor unit 1. The air outlet 19 is installed below the front surface of the indoor unit 1. The air whose temperature and humidity are adjusted by the indoor unit 1 is sent out of the indoor unit 1 from the air outlet 19.

室内ファンモータ10は、自らが回転することによって、室内の空気を取り込み、さらに、熱交換によって温度又は湿度を調節された空気を、空気吹出し口19に送る装置である。   The indoor fan motor 10 is a device that takes in indoor air by rotating itself, and further sends air, the temperature or humidity of which has been adjusted by heat exchange, to the air outlet 19.

前面パネル15は、室内機1の前面を覆うように設置される。前面パネル15は、下端を軸として前面パネル15用のモータ(図示せず)に従って回動してもよい。   The front panel 15 is installed so as to cover the front surface of the indoor unit 1. The front panel 15 may rotate according to a motor (not shown) for the front panel 15 with the lower end as an axis.

上下風向板14は、空気吹出し口19から送られる空気の風向きを調節する。上下風向板14は、室内機1が備えるマイコン(図示せず)からの指示に従い回動する。上下風向板14は、両端部に設けた回動軸(図示せず)を支点にして上下風向板14用のモータ(図示せず)に従って回動する。   The vertical wind direction plate 14 adjusts the wind direction of the air sent from the air outlet 19. The vertical wind direction plate 14 rotates according to an instruction from a microcomputer (not shown) provided in the indoor unit 1. The vertical wind direction plate 14 rotates according to a motor (not shown) for the vertical wind direction plate 14 with pivot shafts (not shown) provided at both ends as fulcrums.

図2に示す撮像部26及び温度検出部27は、空気吹出し口19の上部に設置される。そして、撮像部26及び温度検出部27は、上下風向板14の隙間から室内を撮像し、水平線37及び光軸36を基準に撮像する。光軸36は、撮像部26及び温度検出部27のレンズの向きに従って定まる方向であり、撮像部26及び温度検出部27が撮像する方向である。   The imaging unit 26 and the temperature detection unit 27 illustrated in FIG. 2 are installed on the upper part of the air outlet 19. Then, the imaging unit 26 and the temperature detection unit 27 capture an image of the room from the gap between the up and down wind direction plates 14 and capture an image based on the horizontal line 37 and the optical axis 36. The optical axis 36 is a direction determined according to the directions of the lenses of the imaging unit 26 and the temperature detection unit 27, and is a direction in which the imaging unit 26 and the temperature detection unit 27 capture an image.

撮像部26及び温度検出部27が室内機1の前面に設置されることにより、撮像部26及び温度検出部27は、室内機1による空気の調節を制御するための室内に関する情報を、室内機1の筐体ベース8等が遮蔽することなく、適切に取得することができる。   Since the imaging unit 26 and the temperature detection unit 27 are installed on the front surface of the indoor unit 1, the imaging unit 26 and the temperature detection unit 27 transmit information about the room for controlling the adjustment of air by the indoor unit 1 to the indoor unit. 1 case base 8 etc. can acquire appropriately, without shielding.

室内機1は、前述の構成の他、熱交換器、左右風向板、空気吸込み口、フィルタ、吹出し風路などの内部構造体を収容する。また、室内機1は、湿度センサ、照度センサ、臭いセンサ、又は、気圧センサ等の従来のセンサを備えてもよい。   The indoor unit 1 accommodates internal structures such as a heat exchanger, left and right wind direction plates, an air suction port, a filter, and a blow-out air channel in addition to the above-described configuration. The indoor unit 1 may include a conventional sensor such as a humidity sensor, an illuminance sensor, an odor sensor, or an atmospheric pressure sensor.

図3は、実施例1の撮像部26による撮像範囲を示す説明図である。   FIG. 3 is an explanatory diagram illustrating an imaging range by the imaging unit 26 according to the first embodiment.

図3は、撮像部26の回動方向を含む平面における、撮像部26が撮像する範囲を示す。図3は、床側から天井側を見た場合の撮像部26が撮像する範囲を示す説明図である。室内機1が部屋の天井側に設置される場合、撮像部26は、光軸36と水平線37との最大角度が所定の角度になるようにレンズを下方に向けて設置される。   FIG. 3 shows a range in which the imaging unit 26 captures an image on a plane including the rotation direction of the imaging unit 26. FIG. 3 is an explanatory diagram illustrating a range in which the imaging unit 26 captures an image when the ceiling side is viewed from the floor side. When the indoor unit 1 is installed on the ceiling side of the room, the imaging unit 26 is installed with the lens facing downward so that the maximum angle between the optical axis 36 and the horizontal line 37 is a predetermined angle.

撮像部26は、水平線37と光軸36との最大角度と同じ角度だけ、鉛直方向から傾斜した軸を中心軸として回動する。また、撮像部26は、中心軸と並行(画像において縦)に、かつ、回動方向(画像において横)に室内を撮像する。   The imaging unit 26 rotates around an axis inclined from the vertical direction by the same angle as the maximum angle between the horizontal line 37 and the optical axis 36. The imaging unit 26 images the room in parallel to the central axis (vertical in the image) and in the rotation direction (horizontal in the image).

撮像部26による一回の撮像の回動方向の視野角は、例えばおよそ60°である。この場合、撮像部26は、回動方向に、左32、正面33、及び、右34の三つの方向を撮像する。撮像部26は、他のセンサ(センサ4以外の湿度センサ及び臭気センサ等)と独立して駆動する。   The viewing angle in the rotation direction of one imaging by the imaging unit 26 is, for example, approximately 60 °. In this case, the imaging unit 26 images the three directions of the left 32, the front 33, and the right 34 in the rotation direction. The imaging unit 26 is driven independently of other sensors (such as a humidity sensor and an odor sensor other than the sensor 4).

撮像部26は、回動方向の視野角が所定の角度分重複するように、各方向を撮像する。例えば、左32において撮像された15°分の画像と、正面33において撮像された15°分の画像とが重複するように撮像する。撮像部26は、重複した画像部分を対応させることによって、各方向において撮像された画像を撮像順に適切に並べることができる。   The imaging unit 26 images each direction so that the viewing angles in the rotation direction overlap by a predetermined angle. For example, the 15 ° image captured on the left 32 and the 15 ° image captured on the front surface 33 are captured so as to overlap. The imaging unit 26 can appropriately arrange images captured in each direction in the order of imaging by associating overlapping image portions.

図3に示す撮像部26は、45°ずつ、回動することによって、合計150°の回動方向の視野角の室内の画像を取得する。図3は、室内全体の画像を回動方向に15°ずつ分割した場合の視野角を示し、10個の視野角を示す。   The imaging unit 26 illustrated in FIG. 3 acquires an indoor image with a viewing angle of a total rotation direction of 150 ° by rotating 45 ° at a time. FIG. 3 shows viewing angles when an image of the entire room is divided by 15 ° in the rotation direction, and 10 viewing angles are shown.

以下に示す撮像部26は、左32、正面33及び右34の順に室内を撮像した後、左32方向に戻る。ただし、撮像部26は、所定の時間内の室内全体の画像を取得できれば、いかなる順番で室内を撮像してもよく、右34、正面33及び左32の順に室内を撮像してもよい。   The imaging unit 26 shown below images the room in the order of left 32, front 33, and right 34, and then returns to the left 32 direction. However, the imaging unit 26 may image the room in any order as long as it can acquire an image of the entire room within a predetermined time, and may image the room in the order of the right 34, the front 33, and the left 32.

図4は、実施例1の温度検出部27による温度検出範囲を示す説明図である。   FIG. 4 is an explanatory diagram illustrating a temperature detection range by the temperature detection unit 27 according to the first embodiment.

図4は、床側から天井側を見た場合の温度検出部27が温度を検出する範囲を示す。本実施例の温度検出部27は、撮像部26と同様に、光軸36と水平線37との最大角度が所定角度になるように、レンズを下方に向けて設置される。温度検出部27の光軸36と撮像部26の光軸36との角度の差は、十分に小さい所定の誤差内に設定されるように、ほぼ0に設定される。   FIG. 4 shows a range in which the temperature detection unit 27 detects the temperature when the ceiling side is viewed from the floor side. Similar to the imaging unit 26, the temperature detection unit 27 of the present embodiment is installed with the lens facing downward so that the maximum angle between the optical axis 36 and the horizontal line 37 is a predetermined angle. The difference in angle between the optical axis 36 of the temperature detection unit 27 and the optical axis 36 of the imaging unit 26 is set to almost zero so as to be set within a sufficiently small predetermined error.

温度検出部27は、水平線37と光軸36との最大角度と同じ角度だけ、鉛直方向から傾斜した軸を中心軸として回動する。また、温度検出部27は、中心軸と並行(画像において縦)、かつ、回動方向(画像において横)に室内の温度を検出する。温度検出部27は、他のセンサ(センサ4以外の湿度センサ及び臭気センサ等)と独立して駆動する。   The temperature detection unit 27 rotates around an axis inclined from the vertical direction by the same angle as the maximum angle between the horizontal line 37 and the optical axis 36. The temperature detector 27 detects the temperature of the room in parallel with the central axis (vertical in the image) and in the rotation direction (horizontal in the image). The temperature detection unit 27 is driven independently of other sensors (such as a humidity sensor and an odor sensor other than the sensor 4).

温度検出部27の縦の検出範囲と撮像部26の縦の撮像範囲とが異なる場合、温度検出部27及び撮像部26は、各々の撮像範囲の上端がそろうように設置されてもよいし、各々の撮像範囲の縦の中心位置がそろうように設置されてもよいし、各々の撮像範囲の下端がそろうように設置されてもよい。   When the vertical detection range of the temperature detection unit 27 and the vertical imaging range of the imaging unit 26 are different, the temperature detection unit 27 and the imaging unit 26 may be installed so that the upper ends of the respective imaging ranges are aligned, It may be installed so that the vertical center position of each imaging range is aligned, or may be installed so that the lower ends of each imaging range are aligned.

温度検出部27の回動方向の全体の視野角と、撮像部26の回動方向の全体の視野角とは、略同一である。また、温度検出部27又は撮像部26は、一方が他方より大きく回動するように視野角を変更することによって、他方の視野角と略同一の視野角を得るように設定されても良い。   The overall viewing angle in the rotational direction of the temperature detection unit 27 and the overall viewing angle in the rotational direction of the imaging unit 26 are substantially the same. Further, the temperature detection unit 27 or the imaging unit 26 may be set to obtain a viewing angle substantially the same as the other viewing angle by changing the viewing angle so that one of the temperature detecting unit 27 or the imaging unit 26 rotates more than the other.

温度検出部27による一回の検出の視野角は、例えば、温度検出部27のレンズが横1画素×縦8画素によって撮像する場合、横5°×縦45°程度である。このような温度検出部27が、左から右へ検出範囲が重ならないよう30回回動されることによって、温度検出部27は、合計150°の視野角の温度検出結果を得る。   The viewing angle of one detection by the temperature detection unit 27 is, for example, about 5 ° horizontal × 45 ° vertical when the lens of the temperature detection unit 27 captures an image with 1 horizontal pixel × 8 vertical pixels. Such a temperature detection unit 27 is rotated 30 times so that the detection ranges do not overlap from left to right, whereby the temperature detection unit 27 obtains a temperature detection result with a total viewing angle of 150 °.

本実施例の温度検出部27は、左から右へ順に30回室内を撮像した後、左方向に戻る。ただし、本実施例の温度検出部27は、所定の時間内の室内全体の温度を検出できれば、いかなる順番で室内の温度を検出してもよく、右、正面及び左の順に温度を検出してもよい。   The temperature detection unit 27 according to the present embodiment images the room 30 times in order from left to right and then returns to the left. However, the temperature detection unit 27 of the present embodiment may detect the room temperature in any order as long as it can detect the temperature of the entire room within a predetermined time, and detects the temperature in the order of right, front, and left. Also good.

なお、以下に示す温度検出部27は、図4に示すように、一回の検出の回動方向の視野角が5°である。しかし、本実施例の温度検出部27は、一回の撮像で150°又は十分に広い範囲の視野角を得ることができる温度検出部27でもよい。温度検出部27が、十分に広い範囲の視野角を得られる場合、温度検出部27は回動しなくてもよい。   In addition, as shown in FIG. 4, the temperature detection unit 27 shown below has a viewing angle of 5 ° in the rotation direction of one detection. However, the temperature detection unit 27 of the present embodiment may be the temperature detection unit 27 that can obtain a viewing angle of 150 ° or a sufficiently wide range by one imaging. When the temperature detection unit 27 can obtain a sufficiently wide range of viewing angles, the temperature detection unit 27 may not rotate.

撮像部26の駆動のタイミングは、温度検出部27の駆動のタイミングと同期する。具体的には、撮像部26の撮像する範囲と温度検出部27の検出する範囲が重なるタイミングで、撮像部26と温度検出部27とは駆動する。   The drive timing of the imaging unit 26 is synchronized with the drive timing of the temperature detection unit 27. Specifically, the imaging unit 26 and the temperature detection unit 27 are driven at a timing at which the imaging range of the imaging unit 26 and the detection range of the temperature detection unit 27 overlap.

例えば、撮像部26が左32を撮像するタイミングで、温度検出部27は左から温度の検出を開始し、撮像部26が正面33を撮像するタイミングで、温度検出部27は左から10回目の温度の検出を開始する。   For example, at the timing when the imaging unit 26 images the left 32, the temperature detection unit 27 starts detecting the temperature from the left, and at the timing when the imaging unit 26 images the front surface 33, the temperature detection unit 27 is the tenth time from the left. Start temperature detection.

これによって、撮像部26及び温度検出部27は、ほぼ同じ時間帯における室内の状態を撮像又は検出することができる。   Thereby, the imaging unit 26 and the temperature detection unit 27 can capture or detect the indoor state in substantially the same time zone.

本実施例の撮像部26は、図3に示すように、一回の撮像の回動方向の視野角が60°であってもよい。一方で、本実施例の撮像部26は、一回の撮像で150°又は十分に広い範囲の幅の視野角を撮影することができる広角レンズを備えてもよい。撮像部26が広角レンズを備える場合、撮像部26は、回動せずに一回の撮像のみで室内の画像を取得してもよい。   As shown in FIG. 3, the imaging unit 26 of the present embodiment may have a viewing angle of 60 ° in the rotation direction of one imaging. On the other hand, the imaging unit 26 of the present embodiment may include a wide-angle lens that can capture a viewing angle of 150 ° or a sufficiently wide range with one imaging. When the imaging unit 26 includes a wide-angle lens, the imaging unit 26 may acquire an indoor image with only one imaging without rotating.

また、撮像部26は、180°以上回動し、室内機1の周辺を撮像してもよい。   Further, the imaging unit 26 may rotate 180 ° or more to image the periphery of the indoor unit 1.

図5は、実施例1の広角レンズを備える撮像部26による撮像範囲を示す説明図である。   FIG. 5 is an explanatory diagram illustrating an imaging range by the imaging unit 26 including the wide-angle lens according to the first embodiment.

撮像部26は、室内機1の上部側面又は下部側面に設置され、180°以上回動して室内機1の周辺を撮像してもよい。図5は、室内機1を含む水平面の撮像範囲を示す。   The imaging unit 26 may be installed on the upper side surface or the lower side surface of the indoor unit 1 and may rotate 180 ° or more to image the periphery of the indoor unit 1. FIG. 5 shows a horizontal imaging range including the indoor unit 1.

撮像部26が備える広角レンズが、150°の視野角を撮像できる場合、撮像部26は、120°回動するごとに撮像する。そして、撮像部26は、240°回動することによって、範囲350、360及び370を撮像する。範囲350、360及び370は、各々1回に撮像する回動方向の撮像範囲を示す。   When the wide-angle lens included in the imaging unit 26 can capture a viewing angle of 150 °, the imaging unit 26 captures an image every time it rotates 120 °. Then, the imaging unit 26 images the ranges 350, 360, and 370 by rotating 240 degrees. Ranges 350, 360, and 370 each indicate an imaging range in the rotational direction in which imaging is performed once.

図5に示す撮像部26は、回動方向の視野角が30°重複するように各方向を撮像する。例えば、範囲350及び範囲360は、30°の範囲が重複する。撮像部26は、前述のとおり、重複した画像部分を対応させることによって、各方向において撮像された画像を撮像順に適切に並べることができる。   The imaging unit 26 illustrated in FIG. 5 images each direction so that the viewing angles in the rotation direction overlap each other by 30 °. For example, the range 350 and the range 360 overlap the 30 ° range. As described above, the imaging unit 26 can appropriately arrange the images captured in each direction by associating the overlapping image portions.

撮像部26が360°の撮像範囲を撮像する場合、温度検出部27も、360°の範囲の温度を撮像してもよい。   When the imaging unit 26 captures an imaging range of 360 °, the temperature detection unit 27 may also capture a temperature in the range of 360 °.

図6は、実施例1の撮像部26及び温度検出部27を回動させる方法を示す説明図である。   FIG. 6 is an explanatory diagram illustrating a method of rotating the imaging unit 26 and the temperature detection unit 27 according to the first embodiment.

撮像部26及び温度検出部27は、ステッピングモータ42によって回動される。ステッピングモータ42は、室内機1に備わり、撮像部26及び温度検出部27の各々に直接的又は間接的に接続する。以下に、ステッピングモータ42が撮像部26及び温度検出部27を回動させる複数の方法を示す。   The imaging unit 26 and the temperature detection unit 27 are rotated by a stepping motor 42. The stepping motor 42 is provided in the indoor unit 1 and is connected directly or indirectly to each of the imaging unit 26 and the temperature detection unit 27. Hereinafter, a plurality of methods by which the stepping motor 42 rotates the imaging unit 26 and the temperature detection unit 27 will be described.

図6(a)は、実施例1のギア43によって回動される撮像部26及び温度検出部27を示す説明図である。   FIG. 6A is an explanatory diagram illustrating the imaging unit 26 and the temperature detection unit 27 that are rotated by the gear 43 according to the first embodiment.

室内機1は、複数のギア43を有してもよい。そして、図6(a)に示すステッピングモータ42は、組み合わされた複数のギア43を介して、撮像部26又は温度検出部27を回動させてもよい。   The indoor unit 1 may have a plurality of gears 43. And the stepping motor 42 shown to Fig.6 (a) may rotate the imaging part 26 or the temperature detection part 27 via the some gear 43 combined.

図6(b)は、実施例1のアーム44によって回動される撮像部26及び温度検出部27を示す説明図である。   FIG. 6B is an explanatory diagram illustrating the imaging unit 26 and the temperature detection unit 27 that are rotated by the arm 44 according to the first embodiment.

室内機1は、アーム44を有してもよい。そして、図6(b)に示すステッピングモータ42は、アーム44を介して撮像部26又は温度検出部27を回動させてもよい。   The indoor unit 1 may have an arm 44. Then, the stepping motor 42 shown in FIG. 6B may rotate the imaging unit 26 or the temperature detection unit 27 via the arm 44.

図6(c)は、実施例1のステッピングモータ42によって直接回動される撮像部26及び温度検出部27を示す説明図である。   FIG. 6C is an explanatory diagram illustrating the imaging unit 26 and the temperature detection unit 27 that are directly rotated by the stepping motor 42 according to the first embodiment.

ステッピングモータ42は、撮像部26及び温度検出部27に直接接続され、撮像部26及び温度検出部27を直接回動させてもよい。   The stepping motor 42 may be directly connected to the imaging unit 26 and the temperature detection unit 27, and may directly rotate the imaging unit 26 and the temperature detection unit 27.

図7は、実施例1の撮像部26及び温度検出部27が配置される位置の他の例を示す説明図である。   FIG. 7 is an explanatory diagram illustrating another example of positions where the imaging unit 26 and the temperature detection unit 27 according to the first embodiment are arranged.

図1に示す撮像部26及び温度検出部27は、水平方向に配置された。しかし、撮像部26と温度検出部27とは、図7に示すように、鉛直方向に配置されてもよい。   The imaging unit 26 and the temperature detection unit 27 illustrated in FIG. 1 are arranged in the horizontal direction. However, the imaging unit 26 and the temperature detection unit 27 may be arranged in the vertical direction as shown in FIG.

なお、撮像部26と温度検出部27とは、室内を広く撮像又は検出でき、かつ、近接して配置されれば、室内機1のいかなる場所に配置されてもよい。例えば、室内機1が室内の下部に配置される場合において、撮像部26と温度検出部27とは、室内機1の前面中央部、又は前面上部などに配置されてもよい。   Note that the imaging unit 26 and the temperature detection unit 27 may be arranged at any location in the indoor unit 1 as long as the room can be imaged or detected widely and are arranged close to each other. For example, when the indoor unit 1 is disposed in the lower part of the room, the imaging unit 26 and the temperature detection unit 27 may be disposed in the center of the front surface of the indoor unit 1 or in the upper part of the front surface.

図8は、実施例1の間仕切りを検出し、室内を空調する処理の概要を示す機能ブロック図である。   FIG. 8 is a functional block diagram illustrating an outline of a process for detecting the partition in the first embodiment and air-conditioning the room.

本実施例における間仕切りとは、一つの部屋と他の部屋又は廊下等との間に配置される物であり、例えば、扉、ふすま、又は、障子等である。   The partition in the present embodiment is an object disposed between one room and another room or a hallway, and is, for example, a door, a bran, a shoji screen, or the like.

センサ4は、撮像部26が撮像した画像及び温度検出部27が検出した検出結果を収集し、収集された画像及び検出結果等のデータを、検出部5に入力する。   The sensor 4 collects the image captured by the imaging unit 26 and the detection result detected by the temperature detection unit 27, and inputs the collected image and data such as the detection result to the detection unit 5.

電装品11は、検出部5、制御部7、及び、記憶部79を有する。記憶部79は、センサ4によって取得された画像等を格納し、必要に応じて、検出部5及び制御部7にデータを提供する。また、記憶部79は、必要に応じて、検出部5及び制御部7の処理結果を格納する。   The electrical component 11 includes a detection unit 5, a control unit 7, and a storage unit 79. The storage unit 79 stores images acquired by the sensor 4 and provides data to the detection unit 5 and the control unit 7 as necessary. Further, the storage unit 79 stores the processing results of the detection unit 5 and the control unit 7 as necessary.

記憶部79は、電装品11が有するメモリによって実装されてもよいし、小型の大容量の記憶装置によって実装されてもよい。   The storage unit 79 may be implemented by a memory included in the electrical component 11 or may be implemented by a small and large-capacity storage device.

検出部5は、空間検出部29を少なくとも有する。また、検出部5は、人体検出部30及び温度マトリクス検出部31を有してもよい。検出部5は、センサ4が取得した結果を用いて、室内機1周辺の環境の特徴を検出する。   The detection unit 5 includes at least a space detection unit 29. The detection unit 5 may include a human body detection unit 30 and a temperature matrix detection unit 31. The detection unit 5 detects the environmental features around the indoor unit 1 using the result obtained by the sensor 4.

実施例1の空間検出部29は、撮像部26により撮像された画像を保持し、保持された画像に基づいて、室内機1が設置される部屋の間仕切りの有無を検出する。具体的には、空間検出部29は、過去の画像と現在の画像との間で異なる領域を抽出し、抽出した領域を解析することによって、間仕切りがあるか否かと、間仕切りが開いている状態か又は閉じている状態かとを検出する。また、間仕切りがあると検出された場合、空間検出部29は、間仕切りの位置、面積、形状、複雑度、及び、輝度等を検出する。   The space detection unit 29 according to the first embodiment holds an image picked up by the image pickup unit 26, and detects the presence or absence of a partition in the room in which the indoor unit 1 is installed based on the held image. Specifically, the space detection unit 29 extracts different regions between the past image and the current image, and analyzes the extracted region to determine whether there is a partition and whether the partition is open. Or closed state is detected. When it is detected that there is a partition, the space detection unit 29 detects the position, area, shape, complexity, brightness, and the like of the partition.

また、空間検出部29は、撮像部26が150°など、所定の視野角以上の広角レンズによって撮像する場合、撮像された画像から歪みを検出し、除去する。   The space detection unit 29 detects and removes distortion from the captured image when the imaging unit 26 captures an image with a wide-angle lens having a predetermined viewing angle, such as 150 °.

人体検出部30は、撮像部26によって撮像された画像を用い、在室者の有無と、在室者に関する情報とを検出する。人体検出部30は、在室者に関する情報として、例えば、在室者の位置、人数、活動量、属性、個人、及び、生活シーン等を検出する。   The human body detection unit 30 uses the image captured by the imaging unit 26 to detect the presence / absence of an occupant and information related to the occupant. The human body detection unit 30 detects, for example, the position, the number of persons, the amount of activity, the attribute, the individual, the life scene, and the like of the occupant as information on the occupant.

温度マトリクス検出部31は、温度検出部27による検出結果を用いて、室内機1の設置された室内の表面温度を検出する。温度マトリクス検出部31は、例えば、温度マトリクスを検出する。   The temperature matrix detection unit 31 detects the surface temperature of the room where the indoor unit 1 is installed using the detection result of the temperature detection unit 27. The temperature matrix detection unit 31 detects a temperature matrix, for example.

空間検出部29、人体検出部30及び温度マトリクス検出部31等の検出部5の処理部は、検出された結果を、情報として制御部7に通知する。制御部7は、検出部5から通知された情報に基づき、空気調和機による空気の調節を制御する。また、制御部7は、センサ4以外の湿度センサ等から入力されたデータ、又は、リモコン3から入力されたデータに基づき、空気調和機による空気の調節を制御してもよい。   The processing units of the detection unit 5 such as the space detection unit 29, the human body detection unit 30, and the temperature matrix detection unit 31 notify the control unit 7 of the detected result as information. The control unit 7 controls the adjustment of air by the air conditioner based on the information notified from the detection unit 5. Further, the control unit 7 may control the adjustment of air by the air conditioner based on data input from a humidity sensor other than the sensor 4 or data input from the remote controller 3.

制御部7は、例えば、室内ファンモータ10、又は、室外機2に備わる圧縮機、室外ファンモータ、四方弁若しくは電動弁などと接続され、これらの装置の動作を制御することによって、空気調和機を制御する。具体的には、制御部7は、空気調和機を制御することによって、部屋への風量、風向、又は、部屋へ送る空気の温度等を調節する。   The control unit 7 is connected to, for example, the indoor fan motor 10 or the compressor, the outdoor fan motor, the four-way valve, or the motor operated valve provided in the outdoor unit 2, and controls the operation of these devices to control the air conditioner. To control. Specifically, the control unit 7 controls the air conditioner to adjust the air volume to the room, the wind direction, the temperature of the air sent to the room, and the like.

四方弁とは、室外機2に備わり、空気調和機の運転を冷房モード又は暖房モードに切り替えるための弁である。四方弁が切り替わった場合、空気の流れが逆転し、例えば、高温高圧の空気を冷却していた室外機2と室内の熱を奪っていた室内機1との役割が逆転する。   The four-way valve is a valve provided in the outdoor unit 2 for switching the operation of the air conditioner to the cooling mode or the heating mode. When the four-way valve is switched, the air flow is reversed, and for example, the roles of the outdoor unit 2 that has cooled the high-temperature and high-pressure air and the indoor unit 1 that has taken away the heat in the room are reversed.

電動弁とは、室外機2に備わり、冷媒を膨張させるための弁である。また、室外ファンモータとは、室外機2に備わり、外気を取り入れるモータである。   The electric valve is a valve provided in the outdoor unit 2 for expanding the refrigerant. The outdoor fan motor is a motor that is provided in the outdoor unit 2 and takes in outside air.

図9は、実施例1の撮像部26が回動する場合の間仕切りを検出する処理を示すフローチャートである。   FIG. 9 is a flowchart illustrating processing for detecting a partition when the imaging unit 26 of the first embodiment rotates.

図9に示す処理は、撮像部26が室内全体の画像を3回の撮像によって取得する場合に、空間検出部29が間仕切りを検出する処理を示す。撮像部26は、あらかじめ設定された所定の周期において図9の処理を開始してもよいし、ステップ77において間仕切りを検出できないと判定した場合、又は、ステップ78において間仕切りに関する情報が制御部7へ通知された後に、図9の処理を開始してもよい(70)。   The process illustrated in FIG. 9 illustrates a process in which the space detection unit 29 detects a partition when the imaging unit 26 acquires an image of the entire room by imaging three times. The imaging unit 26 may start the processing of FIG. 9 in a predetermined cycle set in advance, or when it is determined in step 77 that the partition cannot be detected, or in step 78 information on the partition is sent to the control unit 7. After being notified, the processing of FIG. 9 may be started (70).

ステップ70の後、撮像部26は、第1方向の画像を撮像する。第1方向の画像とは、例えば、図3に示す左32方向の画像であり、また、図5に示す範囲350方向の画像である。そして、撮像部26は、撮像された画像をA/C変換器を介してセンサ4に送る(71)。   After step 70, the imaging unit 26 captures an image in the first direction. The image in the first direction is, for example, the image in the left 32 direction shown in FIG. 3 and the image in the range 350 direction shown in FIG. And the imaging part 26 sends the imaged image to the sensor 4 via an A / C converter (71).

また、ステップ71において、温度検出部27は、第1方向に相当する方向の温度を検出する。例えば、図4に示す温度検出部27は、左から順に少なくとも9回室内の温度を検出する。また、室内機1が図5に示す撮像部26を有する場合、回動しながら少なくとも5回室内の温度を検出する。そして、温度検出部27は、検出された結果をセンサ4に送る。   In step 71, the temperature detector 27 detects the temperature in the direction corresponding to the first direction. For example, the temperature detection unit 27 illustrated in FIG. 4 detects the indoor temperature at least nine times in order from the left. Moreover, when the indoor unit 1 has the imaging unit 26 shown in FIG. 5, the indoor temperature is detected at least five times while rotating. Then, the temperature detection unit 27 sends the detected result to the sensor 4.

検出部5が、センサ4を介して、撮像部26によって撮像された画像を取得した場合、空間検出部29は、撮像された画像を解析し、第1方向の画像に間仕切りが含まれる場合、間仕切りを検出する(72)。また、ステップ72において人体検出部30は、温度検出部27による検出結果に基づいて、第1方向の在室者の有無等を検出し、温度マトリクス検出部31は、温度検出部27による検出結果に基づいて、第1方向の温度マトリクスを出力してもよい。   When the detection unit 5 acquires an image captured by the imaging unit 26 via the sensor 4, the space detection unit 29 analyzes the captured image, and when the image in the first direction includes a partition, A partition is detected (72). In step 72, the human body detection unit 30 detects the presence or absence of a person in the first direction based on the detection result by the temperature detection unit 27, and the temperature matrix detection unit 31 detects the detection result by the temperature detection unit 27. Based on the above, a temperature matrix in the first direction may be output.

ステップ73及びステップ74は、ステップ71及びステップ72の処理と同様であり、第2方向の画像を撮像及び解析する処理である。第2方向の画像とは、例えば、図3に示す左32方向の画像であり、図5に示す範囲360方向の画像である。   Step 73 and step 74 are the same as the processing of step 71 and step 72, and are processing for capturing and analyzing an image in the second direction. The image in the second direction is, for example, the image in the left 32 direction shown in FIG. 3 and the image in the range 360 direction shown in FIG.

また、ステップ75及びステップ76は、ステップ71及びステップ72の処理と同様であり、第3方向の画像を撮像及び解析する処理である。第3方向の画像とは、例えば、図3に示す左32方向の画像であり、図5に示す範囲370方向の画像である。   Further, Step 75 and Step 76 are the same as the processing of Step 71 and Step 72, and are processing for capturing and analyzing an image in the third direction. The image in the third direction is, for example, the image in the left 32 direction shown in FIG. 3 and the image in the range 370 direction shown in FIG.

ステップ73はステップ71の後に実行され、ステップ75はステップ73の後に実行される。また、ステップ74は、ステップ72の後、画像等のデータを検出部5が受信した場合に実行される。ステップ76は、ステップ75の後、画像等のデータを検出部5が受信した場合に実行される。   Step 73 is executed after step 71, and step 75 is executed after step 73. Step 74 is executed when the detection unit 5 receives data such as an image after step 72. Step 76 is executed when the detection unit 5 receives data such as an image after Step 75.

ステップ76の後、空間検出部29は、ステップ72、74及び76において間仕切りが検出されたか否かを判定する(77)。間仕切りが検出されない場合、図9に示す処理は、ステップ70に戻る。間仕切りが検出された場合、検出部5は、間仕切りの状態及び間仕切りの位置の情報を、制御部7に通知する(78)。   After step 76, the space detector 29 determines whether a partition is detected in steps 72, 74, and 76 (77). If no partition is detected, the process shown in FIG. When the partition is detected, the detection unit 5 notifies the control unit 7 of the partition state and the partition position information (78).

本実施例における間仕切りの状態の情報とは、間仕切りが開いている状態(開状態)であるか、又は、間仕切りが閉じている状態(閉状態)であるかを示す情報である。また、間仕切りの位置の情報は、間仕切りの中心座標、間仕切りの外周の座標(例えば、間仕切りの右上と左下の二点の座標で示される)、及び、間仕切りの方向のうち、少なくとも一つを示す。   The partition state information in this embodiment is information indicating whether the partition is in an open state (open state) or whether the partition is in a closed state (closed state). Further, the partition position information indicates at least one of the center coordinates of the partition, the coordinates of the outer periphery of the partition (for example, indicated by the coordinates of two points on the upper right and the lower left of the partition), and the direction of the partition. .

なお、ステップ78における検出部5は、温度マトリクス検出部31の処理結果に基づいて、間仕切りの表面温度と、間仕切り以外の領域の表面温度とを制御部7に通知してもよい。   Note that the detection unit 5 in step 78 may notify the control unit 7 of the surface temperature of the partition and the surface temperature of the region other than the partition based on the processing result of the temperature matrix detection unit 31.

ステップ78の後、図9に示す処理は、ステップ70に戻る。   After step 78, the process shown in FIG. 9 returns to step 70.

撮像部26が、室内全体の画像を2回又は4回以上の撮像によって取得する場合、ステップ71及びステップ72に相当する処理は、撮像する方向ごとに実行される。また、撮像部26が、室内全体の画像を1回の撮像によって取得する場合、ステップ71及びステップ72に相当する処理は、各々1回のみ実行される。   When the imaging unit 26 acquires an image of the entire room by imaging twice or four times or more, processing corresponding to step 71 and step 72 is executed for each imaging direction. Further, when the imaging unit 26 acquires an image of the entire room by a single imaging, the processes corresponding to step 71 and step 72 are each executed only once.

制御部7は、検出部5から通知された間仕切りの状態及び間仕切りの位置の情報に基づき、空気調和機による空気の調節を制御する。例えば、間仕切りが開状態である場合、制御部7は、間仕切りの方向に送る風の量を増やすように、空気調和機の各装置に送風を調節させる。   The control unit 7 controls the adjustment of the air by the air conditioner based on the partition state and the partition position information notified from the detection unit 5. For example, when the partition is in the open state, the control unit 7 causes each device of the air conditioner to adjust the air flow so as to increase the amount of air sent in the direction of the partition.

また、検出部5から通知された情報が、間仕切りの表面温度と間仕切り以外の領域の表面温度とにあらかじめ設定された所定の温度以上の差があることを示す場合、制御部7は、温度差がなくなるように間仕切りに向けた風量及び風向を調節してもよい。   Further, when the information notified from the detection unit 5 indicates that there is a difference of a predetermined temperature or more between the surface temperature of the partition and the surface temperature of the region other than the partition, the control unit 7 The air volume and direction directed to the partition may be adjusted so that there is no more.

これによって、間仕切りが開状態である場合にも、実施例1の空気調和機は、間仕切り付近の空気を調節することができ、室内全体を快適な状態に調節することができる。   Thereby, even when the partition is in the open state, the air conditioner of the first embodiment can adjust the air in the vicinity of the partition and can adjust the entire room to a comfortable state.

図10は、実施例1の空間検出部29の処理部の機能ブロックと、画像の処理結果とを示す説明図である。   FIG. 10 is an explanatory diagram illustrating the functional blocks of the processing unit of the space detection unit 29 and the image processing result according to the first embodiment.

実施例1の空間検出部29は、歪み除去部290、差分特定部291、領域分割部292、複雑度算出部294、間仕切り位置検出部295、及び、間仕切り開閉判定部296の処理部を少なくとも有する。また、空間検出部29は、必要に応じて間仕切り判定部293を有する。   The space detection unit 29 according to the first embodiment includes at least processing units of a distortion removal unit 290, a difference identification unit 291, an area division unit 292, a complexity calculation unit 294, a partition position detection unit 295, and a partition opening / closing determination unit 296. . The space detection unit 29 includes a partition determination unit 293 as necessary.

空間検出部29が有する処理部は、プログラムによって実装されてもよく、物理的な集積回路によって実装されてもよい。   The processing unit included in the space detection unit 29 may be implemented by a program or a physical integrated circuit.

図10に示す画像A及び画像Bは、右に間仕切りを含む。図10に示す画像Aは開状態の間仕切りを含み、図10に示す画像Bは閉状態の間仕切りを含む。画像Aは、画像Bが撮像された後に撮像された画像である。   Image A and image B shown in FIG. 10 include a partition on the right. An image A shown in FIG. 10 includes an open partition, and an image B illustrated in FIG. 10 includes a closed partition. Image A is an image captured after image B is captured.

撮像部26が広角レンズを持つ場合、図10に示す処理において、歪み除去部290は、まず、画像A及び画像Bの歪みを除去する。ここで、画像A又は画像Bに既に歪みを除去したことを示す除去済フラグが付加されている場合、歪み除去部290は、除去済フラグが付加された画像から歪みを除去しない。   When the imaging unit 26 has a wide-angle lens, in the process illustrated in FIG. 10, the distortion removing unit 290 first removes the distortion of the image A and the image B. Here, when the removed flag indicating that the distortion has already been removed is added to the image A or the image B, the distortion removing unit 290 does not remove the distortion from the image to which the removed flag is added.

歪み除去部290による歪み除去の方法は、後述する。広角レンズによって撮像された画像A及び画像Bを用いることによって、制御部7は、狭い範囲を撮像した画像には映らなかった戸又は梁を検出することができる。   A method of removing distortion by the distortion removing unit 290 will be described later. By using the image A and the image B captured by the wide-angle lens, the control unit 7 can detect a door or a beam that is not reflected in the image captured in a narrow range.

差分特定部291は、入力された二つの画像(画像A及び画像B)を比較し、画像Aと画像Bとで異なる領域(差分領域190)を特定する。画像90は、特定された差分領域190を示す。   The difference specifying unit 291 compares two input images (image A and image B), and specifies a different region (difference region 190) between the image A and the image B. The image 90 shows the identified difference area 190.

領域分割部292は、差分特定部291によって特定された差分領域190を、間仕切りを含む領域の候補領域191として、他の領域から分割する。画像91は、分割された候補領域191を示す。   The area dividing unit 292 divides the difference area 190 specified by the difference specifying part 291 from other areas as a candidate area 191 of an area including a partition. The image 91 shows the divided candidate area 191.

また、領域分割部292は、特定された差分領域190の画像Aにおける位置を特定する。これによって、間仕切りの画像Aにおける座標(間仕切りの外周の座標等)、又は、間仕切りの方向が決定される。   The area dividing unit 292 specifies the position of the specified difference area 190 in the image A. Thereby, the coordinates (such as the coordinates of the outer periphery of the partition) in the image A of the partition or the direction of the partition are determined.

空間検出部29は、必要に応じて、間仕切り判定部293を実行し、間仕切り判定部293は、候補領域191が間仕切りを含む領域であるか否かを判定する。間仕切り判定部293が実行されない場合、空間検出部29は、候補領域191が間仕切りを含む領域に決定する。   The space detection unit 29 executes a partition determination unit 293 as necessary, and the partition determination unit 293 determines whether the candidate region 191 is a region including a partition. When the partition determination unit 293 is not executed, the space detection unit 29 determines that the candidate region 191 is a region including the partition.

複雑度算出部294は、画像Aにおける間仕切りを含む領域の複雑度を算出する。間仕切り位置検出部295は、間仕切りを含む領域の中心位置93を検出する。画像92は、検出される中心位置93を示す。   The complexity calculation unit 294 calculates the complexity of the area including the partition in the image A. The partition position detection unit 295 detects the center position 93 of the region including the partition. The image 92 shows the detected center position 93.

間仕切り開閉判定部296は、複雑度算出部294によって算出された複雑度に基づいて、画像Aにおける間仕切りが開状態であるか閉状態であるかを判定する。   The partition opening / closing determination unit 296 determines whether the partition in the image A is in an open state or a closed state based on the complexity calculated by the complexity calculation unit 294.

図11は、実施例1の間仕切りを検出する処理の詳細を示すフローチャートである。   FIG. 11 is a flowchart illustrating details of processing for detecting a partition according to the first embodiment.

より具体的には、図11は、図10に示す処理部の処理の流れを詳細に表現したフローチャートである。   More specifically, FIG. 11 is a flowchart expressing the processing flow of the processing unit shown in FIG. 10 in detail.

図11に示す処理は、空間検出部29が間仕切りを検出する処理の詳細を示し、図9に示すステップ72、74及び76における処理に相当する。また、図11に示す処理は、間仕切り判定部293が実行される場合の処理を示す。   The process shown in FIG. 11 shows the details of the process in which the space detection unit 29 detects the partition, and corresponds to the processes in steps 72, 74, and 76 shown in FIG. Moreover, the process shown in FIG. 11 shows a process in case the partition determination part 293 is performed.

空間検出部29は、撮像部26によって撮像された画像データ(画像A)をセンサ4を介して受信した場合、前回受信した画像データ(画像B)を読み出す。具体的には、空間検出部29は、受信した画像データを撮像された方向毎にメモリに保持しており、センサ4から画像Aを受信した場合、画像Aが撮像された方向と同じ方向の画像Bを、メモリから読み出す。   When the space detection unit 29 receives the image data (image A) captured by the imaging unit 26 via the sensor 4, the space detection unit 29 reads the previously received image data (image B). Specifically, the space detection unit 29 holds the received image data in the memory for each direction in which the image is captured, and when the image A is received from the sensor 4, the space detection unit 29 has the same direction as the direction in which the image A was captured. Image B is read from memory.

なお、空間検出部29は、過去に実行された図11の処理の結果である間仕切りに関する情報(間仕切りの状態、及び、位置等)と、画像データとを、対応させてメモリに保持してもよい。そして、画像Bを読み出す際、画像Bに対応する間仕切りに関する情報も読み出してもよい。   Note that the space detection unit 29 may store information related to the partition (partition state and position, etc.), which is a result of the processing of FIG. 11 executed in the past, and image data in association with each other in the memory. Good. Then, when the image B is read, information related to the partition corresponding to the image B may also be read.

図11に示す処理の開始後、歪み除去部290は、画像A及び画像Bの両方が歪みを除去されているかを判定する(52)。歪み除去部290は、画像に除去済フラグが付加されている場合、画像から歪みが除去されたと判定する。   After the start of the process shown in FIG. 11, the distortion removing unit 290 determines whether distortion has been removed from both the image A and the image B (52). The distortion removing unit 290 determines that the distortion is removed from the image when the removed flag is added to the image.

画像A及び画像Bの両方が歪みを除去されていた場合、差分特定部291は、ステップ54を実行する。   When the distortion has been removed from both the image A and the image B, the difference specifying unit 291 executes Step 54.

画像A及び画像Bの少なくとも一つが歪みを除去されていない場合、歪み除去部290は、画像A及び画像Bのうち、歪みの除去フラグが付加されていない画像において歪みを除去する領域を特定し、さらに、特定した領域から歪みを除去するように画像を変換する(53)。そして、歪みを除去した画像に、除去済フラグを付加する。   When at least one of the image A and the image B has not been subjected to distortion removal, the distortion removal unit 290 specifies a region from which distortion is to be removed in the image A and the image B to which the distortion removal flag is not added. Further, the image is converted so as to remove the distortion from the specified region (53). Then, a removed flag is added to the image from which distortion has been removed.

ここで、歪み除去部290は、画像A又は画像Bの所定の範囲、例えば、中心点から所定の長さ以上の領域を、歪みを除去する領域として特定してもよい。これは、一般的に歪みが生じる領域は、撮像範囲の外郭側の領域であるためである。   Here, the distortion removing unit 290 may specify a predetermined range of the image A or the image B, for example, an area having a predetermined length or more from the center point as an area for removing distortion. This is because a region where distortion is generally generated is a region on the outer side of the imaging range.

また、歪み除去部290は、処理量に制限がない場合、画像におけるすべての領域を歪みを除去する領域として特定してもよい。歪みを除去する方法は、後述する。歪み除去部290は、歪みを除去した画像A及び画像Bを差分特定部291に入力する。   In addition, the distortion removing unit 290 may specify all areas in the image as areas for removing distortion when the processing amount is not limited. A method for removing the distortion will be described later. The distortion removing unit 290 inputs the image A and the image B from which the distortion is removed to the difference specifying unit 291.

歪み除去部290が画像から歪みを除去することによって、広角レンズを用いて画像を撮像した場合も、正確な画像を取得できる。   When the distortion removing unit 290 removes distortion from the image, an accurate image can be acquired even when the image is captured using the wide-angle lens.

ステップ52において画像A及び画像Bの両方が歪みを除去されていると判定された場合、又は、ステップ53の後、差分特定部291はステップ54を実行する。差分特定部291は、画像Aと画像Bとの差分領域190を特定し、間仕切りの領域を特定する(54)。ここで用いる画像Aと画像Bは、ステップ53又は前回以前の処理において歪みを除去された画像である。   If it is determined in step 52 that both the image A and the image B have the distortion removed, or after step 53, the difference specifying unit 291 executes step 54. The difference specifying unit 291 specifies the difference area 190 between the image A and the image B, and specifies the partition area (54). The images A and B used here are images from which distortion has been removed in step 53 or the previous processing.

差分特定部291は、画像Aと画像Bとの間の色差、又は、輝度の相違等を用いて、差分領域190を特定する。   The difference specifying unit 291 specifies the difference area 190 using a color difference between the image A and the image B, a difference in luminance, or the like.

画像Bの中に間仕切りが含まれ、画像Bを撮像した時から画像Aを撮像した時までの間に、間仕切りが開いた場合、又は、閉まった場合、画像Aと画像Bとの間には、画像が異なる領域、すなわち、差分領域190が含まれる。   If the partition is included in the image B and the partition is opened or closed between the time when the image B is captured and the time when the image A is captured, the space between the image A and the image B , Regions having different images, that is, a difference region 190 is included.

ステップ55の後、空間検出部29は、ステップ55において少なくとも一つの差分領域190が特定されたか否かを判定する(56)。差分領域190が一つも特定されない場合、空間検出部29は、図11に示す処理を終了し(59)、ステップ72、74又は76の処理を終了する。   After step 55, the space detection unit 29 determines whether or not at least one difference region 190 has been specified in step 55 (56). When no difference area 190 is specified, the space detection unit 29 ends the process shown in FIG. 11 (59), and ends the process of step 72, 74, or 76.

ステップ55において少なくとも一つの差分領域190が特定された場合、領域分割部292は、画像Aから差分領域190を、候補領域191として分割する。そして、候補領域191の画像Aにおける位置(外周の座標、方向等)を特定する(57)。ステップ57において、画像Aから差分領域190を候補領域191として分割することによって、検出部5は、差分領域190から、間仕切りを含む領域を検出することができる。   When at least one difference area 190 is specified in step 55, the area dividing unit 292 divides the difference area 190 from the image A as a candidate area 191. Then, the position (peripheral coordinates, direction, etc.) in the image A of the candidate area 191 is specified (57). In step 57, by dividing the difference area 190 as the candidate area 191 from the image A, the detection unit 5 can detect an area including a partition from the difference area 190.

ステップ57の後、空間検出部29は、候補領域191のすべてにステップ60からの処理が実行されたか否かを判定する(58)。候補領域191が一つである場合、ステップ58は不要である。候補領域191のすべてにステップ60の処理が実行された場合、空間検出部29は、図11に示す処理を終了し(59)、ステップ72、74又は76の処理を終了する。   After step 57, the space detection unit 29 determines whether or not the processing from step 60 has been performed on all candidate areas 191 (58). If there is one candidate area 191, step 58 is not necessary. When the process of step 60 is performed on all candidate areas 191, the space detection unit 29 ends the process shown in FIG. 11 (59), and ends the process of step 72, 74, or 76.

候補領域191のうち、ステップ60からの処理が実行されていない領域がある場合、空間検出部29は、ステップ60の処理を実行していない候補領域191(以下、候補領域C)を選択する。そして、間仕切り判定部293は、候補領域Cの円形度を算出する(60)。ステップ60によって、間仕切り判定部293は、候補領域Cの形状を特定する。   When there is an area in the candidate area 191 where the process from step 60 has not been executed, the space detection unit 29 selects a candidate area 191 that has not executed the process in step 60 (hereinafter, candidate area C). And the partition determination part 293 calculates the circularity of the candidate area | region C (60). In step 60, the partition determination unit 293 specifies the shape of the candidate area C.

本実施例における円形度は、領域の形状が真円に近ければ近いほど高い値が算出される評価値である。   The circularity in the present embodiment is an evaluation value with which a higher value is calculated as the shape of the region is closer to a perfect circle.

ステップ60の後、間仕切り判定部293は、ステップ60において算出された円形度が所定の閾値を超えるか否かを判定することによって、候補領域Cが円形に近いか否かを判定する(61)。   After step 60, the partition determination unit 293 determines whether the candidate region C is close to a circle by determining whether the circularity calculated in step 60 exceeds a predetermined threshold (61). .

算出された円形度が所定の閾値を超え、候補領域Cが所定の基準より円形に近いと判定された場合、本実施例において候補領域Cが間仕切りである可能性は低い。このため、間仕切り判定部293は、候補領域Cを、間仕切りを含む領域の候補領域191から除外する。そして、図11に示す処理は、ステップ58に戻る。   When the calculated circularity exceeds a predetermined threshold and it is determined that the candidate area C is closer to a circle than the predetermined reference, it is unlikely that the candidate area C is a partition in this embodiment. For this reason, the partition determination unit 293 excludes the candidate region C from the candidate region 191 of the region including the partition. Then, the processing shown in FIG.

算出された円形度が所定の閾値以下であり、候補領域Cが所定の基準と比較して円形でないと判定された場合、本実施例において候補領域Cが間仕切りを含む領域である可能性は高い。このため、間仕切り判定部293は、候補領域Cの面積を算出し、間仕切りの大きさを特定する(62)。   When the calculated circularity is less than or equal to a predetermined threshold and it is determined that the candidate area C is not circular compared to a predetermined reference, it is highly likely that the candidate area C is an area including a partition in this embodiment. . For this reason, the partition determination unit 293 calculates the area of the candidate region C and specifies the size of the partition (62).

なお、ステップ61において間仕切り判定部293は、所定の最小値と、所定の最小値よりも大きい所定の最大値とを用いて、候補領域Cの円形度が間仕切りとして適当な円形度であるか否かを判定してもよい。具体的には、間仕切り判定部293は、候補領域Cの円形度が所定の最小値以下である場合も、間仕切りを含む領域の候補から候補領域Cを除外してもよい。これは、候補領域Cの円形度が所定の最小値以下である場合、候補領域Cは、複雑な形状の領域である可能性が高いためである。   In step 61, the partition determination unit 293 uses the predetermined minimum value and the predetermined maximum value larger than the predetermined minimum value to determine whether the circularity of the candidate area C is an appropriate circularity as a partition. It may be determined. Specifically, the partition determination unit 293 may exclude the candidate region C from the region candidates including the partition even when the circularity of the candidate region C is equal to or less than a predetermined minimum value. This is because when the circularity of the candidate area C is less than or equal to a predetermined minimum value, the candidate area C is highly likely to be an area having a complicated shape.

ステップ62の後、間仕切り判定部293は、ステップ62において算出された面積が所定の最小値以下か否かを判定する(63)。候補領域Cの面積が所定の最小値以下である場合、候補領域Cは、洗濯物又は人体である可能性が高く、間仕切りを含む領域である可能性が低い。このため、間仕切り判定部293は、このような候補領域Cの面積は間仕切りの大きさとして適当ではないと判定し、間仕切りを示す領域の候補領域191から候補領域Cを除外する。そして、図11に示す処理は、ステップ58に戻る。   After step 62, the partition determination unit 293 determines whether or not the area calculated in step 62 is equal to or smaller than a predetermined minimum value (63). When the area of the candidate area C is equal to or less than the predetermined minimum value, the candidate area C is highly likely to be a laundry or a human body, and is unlikely to be an area including a partition. For this reason, the partition determination unit 293 determines that the area of such a candidate region C is not appropriate as the partition size, and excludes the candidate region C from the candidate region 191 of the region indicating the partition. Then, the processing shown in FIG.

候補領域Cの面積が所定の最小値を超えるとステップ63において判定された場合、候補領域Cは間仕切りを含む領域であると決定され、ステップ64が実行される。ステップ61及び63を実行することによって、間仕切り判定部293は、候補領域191の中から、間仕切りを含む領域である可能性がより高い領域を精度よく検出し、検出された領域を間仕切りを含む領域として決定することができる。   If it is determined in step 63 that the area of the candidate region C exceeds the predetermined minimum value, the candidate region C is determined to be a region including a partition, and step 64 is executed. By executing Steps 61 and 63, the partition determination unit 293 accurately detects a region that is more likely to be a region including a partition from the candidate regions 191, and the detected region includes a partition. Can be determined as

なお、ステップ63において間仕切り判定部293は、所定の最小値と、所定の最小値よりも十分に大きい所定の最大値とを用いて、候補領域Cの面積が間仕切りとして適当な面積であるか否かを判定してもよい。具体的には、間仕切り判定部293は、候補領域Cの面積が所定の最大値以上である場合も、間仕切りを含む領域の候補から候補領域Cを除外してもよい。これは、候補領域Cの面積が所定の最大値以上である場合、候補領域Cは、室内の照明の強さ等が変化し、室内の照度又は色が大きく変化したために生じた差分の領域である可能性が高いためである。   In step 63, the partition determination unit 293 uses the predetermined minimum value and the predetermined maximum value sufficiently larger than the predetermined minimum value to determine whether the area of the candidate region C is an appropriate area for the partition. It may be determined. Specifically, the partition determination unit 293 may exclude the candidate region C from the region candidates including the partition even when the area of the candidate region C is equal to or larger than a predetermined maximum value. This is because the candidate area C is an area of a difference caused by a change in indoor illumination intensity or a large change in room illuminance or color when the area of the candidate area C is equal to or greater than a predetermined maximum value. This is because there is a high possibility.

複雑度算出部294は、ステップ61及びステップ63によって間仕切りを含む領域であると決定された領域の画像Aにおける複雑度を算出する(64)。複雑度算出部294は、決定された領域に含まれるエッジの数等に基づいて複雑度を算出する。   The complexity calculation unit 294 calculates the complexity in the image A of the area determined to be the area including the partition in step 61 and step 63 (64). The complexity calculation unit 294 calculates the complexity based on the number of edges included in the determined area.

本実施例における複雑度とは、画像に含まれる物体(壁、床、家具、及び人等)の密度であり、画像が含む色又は輝度等の量である。また、本実施例の複雑度は、領域に含まれるエッジの数が多ければ多いほど高い値が算出される。   The complexity in this embodiment is the density of objects (walls, floors, furniture, people, etc.) included in an image, and is an amount such as color or luminance included in the image. Further, the higher the complexity of the present embodiment, the higher the number of edges included in the region.

遠くの風景が表示される所定の大きさの画像は、近くの風景を含む当該所定の大きさの領域よりも、一般に、多くの物体を含む。このため、間仕切りが閉まっている場合に間仕切りを含む領域には、一枚の間仕切りのみが表示されるが、間仕切りが開いている場合に間仕切りの領域には、多くの物体が含まれる。複雑度算出部294が複雑度を算出することにより、間仕切り開閉判定部296による後述する処理が可能になる。   An image having a predetermined size on which a distant landscape is displayed generally includes more objects than the region having the predetermined size including a nearby landscape. For this reason, when the partition is closed, only one partition is displayed in the area including the partition. However, when the partition is open, the partition area includes many objects. When the complexity calculation unit 294 calculates the complexity, the partition opening / closing determination unit 296 can perform processing described later.

ステップ64の後、間仕切り位置検出部295は、間仕切りを含む領域であると決定された領域の中心位置(図10に示す中心位置93に相当)の座標を算出する(65)。これは、空間検出部29が算出された中心位置の座標を制御部7に通知することにより、制御部7に風向を調節させるためである。なお、間仕切り位置検出部295は、室内機1が風向を定めることができるような座標であれば、いずれの方法を用いて中心位置の座標を算出してもよい。   After step 64, the partition position detector 295 calculates the coordinates of the center position (corresponding to the center position 93 shown in FIG. 10) of the region determined to be the region including the partition (65). This is because the control unit 7 adjusts the wind direction by notifying the control unit 7 of the coordinates of the center position calculated by the space detection unit 29. The partition position detection unit 295 may calculate the coordinates of the center position using any method as long as the indoor unit 1 can determine the wind direction.

ステップ65の後、間仕切り開閉判定部296は、算出された画像Aにおける複雑度が所定の閾値以下であるか否かを判定する(66)。これによって、間仕切り開閉判定部296は、決定された領域に含まれる間仕切りが、開状態であるか閉状態であるかを判定する。   After step 65, the partition opening / closing determination unit 296 determines whether or not the calculated complexity in the image A is equal to or less than a predetermined threshold (66). Thereby, the partition opening / closing determination unit 296 determines whether the partition included in the determined region is in an open state or a closed state.

一般に、開いた間仕切りを含む領域は、隣の部屋又は廊下に存在する人間、洗濯物又は家具等を含むため、閉じた間仕切りを含む領域の画像よりも複雑度が高い。このため、間仕切り開閉判定部296は、ステップ66において、ステップ64において算出された複雑度が所定の閾値より高い場合、決定された領域が示す間仕切りは開いている状態であると判定する。そして、間仕切り開閉判定部296は、ステップ57において特定された領域の位置(外周の座標、方向等)、ステップ64において算出された中心位置(座標)、及び、間仕切りが開いたことを出力する(出力68)。   In general, an area including an open partition has a higher degree of complexity than an image of an area including a closed partition because it includes a person, laundry, furniture, or the like existing in an adjacent room or hallway. For this reason, the partition opening / closing determination unit 296 determines in step 66 that the partition indicated by the determined region is in an open state when the complexity calculated in step 64 is higher than a predetermined threshold. Then, the partition opening / closing determination unit 296 outputs the position of the area specified in step 57 (peripheral coordinates, direction, etc.), the center position (coordinates) calculated in step 64, and the fact that the partition is opened ( Output 68).

ステップ66において、ステップ64において算出された複雑度が、所定の閾値以下である場合、間仕切り開閉判定部296は、決定された領域が示す間仕切りは閉じている状態であると判定する。そして、ステップ57において特定された領域の位置(外周の座標、方向等)、ステップ64において算出された中心位置(座標)、及び、間仕切りが閉状態であることを、処理結果として出力する(出力67)。   In step 66, when the complexity calculated in step 64 is equal to or less than a predetermined threshold, the partition opening / closing determination unit 296 determines that the partition indicated by the determined area is in a closed state. Then, the position of the area specified in step 57 (peripheral coordinates, direction, etc.), the center position (coordinates) calculated in step 64, and the fact that the partition is closed are output as processing results (output). 67).

なお、ステップ66において、間仕切り開閉判定部296は、画像Bにおける決定された領域の複雑度が、画像Aにおける決定された領域の複雑度よりも低い場合、決定された領域が示す間仕切りは開いている状態であると判定してもよい。   In step 66, when the complexity of the determined area in the image B is lower than the complexity of the determined area in the image A, the partition opening / closing determination unit 296 opens the partition indicated by the determined area. You may determine that it is in a state.

出力67又は出力68の後、図11に示す処理は、ステップ58に戻り、空間検出部29は、候補領域191から新たな候補領域Cを選択する。   After the output 67 or the output 68, the process shown in FIG. 11 returns to step 58, and the space detection unit 29 selects a new candidate area C from the candidate area 191.

図9に示すステップ77において、いずれかの方向の画像に対して実行された図11の処理の結果、出力67又は出力68が出力されたと判定される場合、空間検出部29は、間仕切りが検出されたと判定する。そして、空間検出部29は、出力67又は出力68を制御部7に通知する。   When it is determined in step 77 shown in FIG. 9 that the output 67 or the output 68 is output as a result of the processing of FIG. 11 performed on the image in any direction, the space detection unit 29 detects the partition. It is determined that Then, the space detection unit 29 notifies the control unit 7 of the output 67 or the output 68.

なお、間仕切り判定部293は、下記に示す処理を、ステップ58の後からステップ64が開始される前までに行うことによって、候補領域Cが間仕切りを含む領域であるか否かを、精度よく判定してもよい。   The partition determination unit 293 accurately determines whether or not the candidate region C is a region including a partition by performing the following processing after step 58 and before step 64 is started. May be.

前述のステップ61において、候補領域Cの円形度に従って候補領域Cが間仕切りを含む領域であるか否かを判定したが、間仕切り判定部293は、円形度の代わりに、又は、円形度に加えて、候補領域Cの上端、下端、左端、又は、右端の直線度に従って、候補領域Cが間仕切りを含む領域であるか否かを判定してもよい。これは、扉又はふすま等の間仕切りは、一般に長方形である場合が多いためである。   In step 61 described above, it is determined whether or not the candidate region C is a region including a partition according to the circularity of the candidate region C. However, the partition determination unit 293 may instead of the circularity or in addition to the circularity. Depending on the straightness of the upper end, lower end, left end, or right end of the candidate area C, it may be determined whether the candidate area C is an area including a partition. This is because a partition such as a door or a bran is generally rectangular in many cases.

例えば、算出された直線度が、少なくとも一つの端が直線でないことを示す場合、候補領域Cは、カーテン、置物又は洗濯物を含むため、間仕切り判定部293は、間仕切りを含む領域の候補領域191から候補領域Cを除外してもよい。   For example, when the calculated linearity indicates that at least one end is not a straight line, the candidate area C includes a curtain, a figurine, or a laundry. Therefore, the partition determination unit 293 includes a candidate area 191 that includes a partition. The candidate area C may be excluded from

さらに、間仕切り判定部293は、画像Aにおける候補領域Cの上端の位置に基づいて間仕切りであるか否かを判定してもよい。具体的には、候補領域Cの上端の位置が画像Aの上端から所定の距離以上である場合、その候補領域Cは天井から一定以下の高さに設置されたテレビなどである可能性が高いため、間仕切り判定部293は、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Furthermore, the partition determination unit 293 may determine whether the partition is a partition based on the position of the upper end of the candidate area C in the image A. Specifically, when the position of the upper end of the candidate area C is a predetermined distance or more from the upper end of the image A, the candidate area C is highly likely to be a television set at a certain height below the ceiling. Therefore, the partition determination unit 293 may exclude the candidate region C from the candidate region 191 of the region including the partition.

さらに、間仕切り判定部293は、候補領域Cの上端の角度と画像Aの上端の角度との差が所定の角度の範囲内に無い場合、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Furthermore, when the difference between the upper end angle of the candidate area C and the upper end angle of the image A is not within a predetermined angle range, the partition determination unit 293 selects the candidate area C from the candidate area 191 of the area including the partition. It may be excluded.

また、間仕切り判定部293は、候補領域Cの左端又は右端の位置に基づいて間仕切りを含む領域であるか否かを判定してもよい。具体的には、間仕切り判定部293は、候補領域Cの左端又は右端の各々の角度と、画像Aの左端又は右端の角度との差が所定の範囲内にない場合、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Further, the partition determination unit 293 may determine whether the region includes the partition based on the position of the left end or the right end of the candidate region C. Specifically, the partition determination unit 293 partitions the candidate region C into partitions when the difference between the left end or right end angle of the candidate region C and the left end or right end angle of the image A is not within a predetermined range. May be excluded from the candidate area 191 of the area including.

また、間仕切り判定部293は、候補領域Cの輝度に基づいて間仕切りを含む領域であるか否かを判定してもよい。具体的には、画像Aと画像Bとの候補領域Cの輝度が所定の範囲より大きく変化した場合、候補領域Cはカーテンの開閉又は照明の点灯に伴う輝度の変化によって発生した差であると判定し、間仕切り判定部293は、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Further, the partition determination unit 293 may determine whether the region includes a partition based on the luminance of the candidate region C. Specifically, when the brightness of the candidate area C between the image A and the image B changes more than a predetermined range, the candidate area C is a difference caused by a change in brightness due to opening / closing of the curtain or lighting of the illumination. The partition determination unit 293 may exclude the candidate region C from the candidate region 191 of the region including the partition.

さらに、間仕切り判定部293は、過去に複数回算出された複雑度に基づいて、候補領域Cが間仕切りを含む領域であるか否かを判定してもよい。例えば、過去に撮像された三つ以上の画像における候補領域Cの複雑度が各々異なる値に3回以上変化する場合、候補領域Cはテレビを含む画像である可能性が高い。このため、間仕切り判定部293は、このような候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Furthermore, the partition determination unit 293 may determine whether or not the candidate region C is a region including a partition based on the complexity calculated a plurality of times in the past. For example, when the complexity of the candidate area C in three or more images captured in the past changes three or more times to different values, the candidate area C is likely to be an image including a television. For this reason, the partition determination unit 293 may exclude such a candidate region C from the candidate regions 191 of the region including the partition.

これは、テレビに表示される画像は常に変化するため、テレビの画像に対して算出される複雑度は様々に変化するためである。また、一方で、間仕切りを含む領域において算出される複雑度は、二つのパターンで変化するものと考えられるためである。このように、間仕切り判定部293は、間仕切り以外を含む領域を候補領域191から、複雑度を用いて除外することができ、間仕切りの検出精度を向上させることができる。   This is because the image displayed on the television always changes, and the complexity calculated for the television image changes variously. On the other hand, the complexity calculated in the region including the partition is considered to change in two patterns. As described above, the partition determination unit 293 can exclude the region including other than the partition from the candidate region 191 using the complexity, and can improve the detection accuracy of the partition.

さらに、温度マトリクス検出部31が室内の表面温度を測定する場合、空間検出部29は、温度マトリクス検出部31の測定結果を用いることで、精度よく間仕切りを検出してもよい。例えば、領域分割部292は、ステップ57において、表面温度が画像Aと画像Bとで異なる領域を、候補領域191として画像Aから分割してもよい。   Furthermore, when the temperature matrix detection unit 31 measures the indoor surface temperature, the space detection unit 29 may detect the partition with high accuracy by using the measurement result of the temperature matrix detection unit 31. For example, the area dividing unit 292 may divide the area where the surface temperature is different between the image A and the image B from the image A as the candidate area 191 in step 57.

また、温度マトリクス検出部31により測定された表面温度の温度分布により、領域分割部292及び間仕切り判定部293は、間仕切りの位置及び面積を算出してもよい。   Further, based on the temperature distribution of the surface temperature measured by the temperature matrix detection unit 31, the region division unit 292 and the partition determination unit 293 may calculate the position and area of the partition.

また、候補領域Cの表面温度が所定の最高温度より高い、又は、所定の最低温度より低い場合、候補領域Cが電化製品又は水槽などの家具を含む可能性が高いため、間仕切り判定部293は、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Further, when the surface temperature of the candidate area C is higher than the predetermined maximum temperature or lower than the predetermined minimum temperature, the candidate area C is likely to include furniture such as an electrical appliance or an aquarium. The candidate area C may be excluded from the candidate area 191 of the area including the partition.

また、温度マトリクス検出部31により測定された結果、室内気温と候補領域Cの表面温度との差、又は、候補領域Cの周囲の表面温度と候補領域Cの表面温度との差、が所定の差よりも小さい場合、候補領域Cは洗濯物等である可能性が高い。このため、間仕切り判定部293は、このような候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Further, as a result of measurement by the temperature matrix detection unit 31, a difference between the room temperature and the surface temperature of the candidate region C, or a difference between the surface temperature around the candidate region C and the surface temperature of the candidate region C is a predetermined value. If it is smaller than the difference, the candidate area C is likely to be a laundry or the like. For this reason, the partition determination unit 293 may exclude such a candidate region C from the candidate regions 191 of the region including the partition.

また、画像B、又は、過去の複数の画像において特定された間仕切りに関する情報がステップ55において読み出されていた場合、間仕切り判定部293は、読み出された情報に基づいて候補領域Cが間仕切りを含む領域であるか否かを判定してもよい。例えば、過去に間仕切りを含む領域であると判定された領域の位置、面積及び形状等と、候補領域Cの位置、面積及び形状等とが、所定の基準に従って近似している場合、間仕切り判定部293は、候補領域Cが間仕切りを含む領域であると決定してもよい。   Further, when the information related to the partition specified in the image B or a plurality of past images has been read in step 55, the partition determination unit 293 determines that the candidate region C performs partitioning based on the read information. You may determine whether it is an area | region to include. For example, when the position, area, shape, and the like of a region that has been determined to be a region including a partition in the past and the position, area, shape, etc. of the candidate region C are approximated according to a predetermined criterion, the partition determination unit 293 may determine that the candidate area C is an area including a partition.

また、間仕切り判定部293は、読み出された過去の間仕切りに関する情報に基づいて、候補領域Cが間仕切りを含む領域であることの所定の確からしさを得られた場合、候補領域Cが間仕切りを含む領域であると決定してもよい。   In addition, when the partition determination unit 293 obtains predetermined certainty that the candidate area C is an area including the partition based on the read information regarding the past partition, the candidate area C includes the partition. The region may be determined.

また、間仕切り判定部293は、読み出された過去の間仕切りに関する情報に、テレビ又は洗濯物等を含む領域に関する情報が含まれる場合、過去にテレビ又は洗濯物を含む領域であると判定された領域と候補領域Cとが同じ又は近似する場合、候補領域Cを、間仕切りを含む領域の候補領域191から除外してもよい。   Moreover, the partition determination part 293 is the area | region determined as the area | region which included the television or the laundry in the past, when the information regarding the area | region including a television or laundry is included in the read information regarding the past partition And the candidate area C may be the same or approximate, the candidate area C may be excluded from the candidate area 191 of the area including the partition.

以下に、間仕切り開閉判定部296が、前述の処理以外に間仕切りの開閉を判定する処理の方法を示す。   Below, the partition opening / closing determination part 296 shows the method of the process which determines the opening / closing of a partition other than the above-mentioned process.

間仕切り開閉判定部296は、ステップ66において、温度マトリクス検出部31の測定結果に基づいて間仕切りが開状態であるか閉状態であるかを判定してもよい。   In step 66, the partition opening / closing determination unit 296 may determine whether the partition is in an open state or a closed state based on the measurement result of the temperature matrix detection unit 31.

例えば、間仕切りを含む領域の表面温度が当該領域の周辺と同程度の温度である場合、間仕切り開閉判定部296は、間仕切りは閉状態であるとステップ66において判定してもよい。これにより、間仕切りを介した隣室の温度と室内機1が設置される室内との温度とが均一になった場合にも、間仕切り開閉判定部296は、間仕切りに向けての空調を、間仕切り以外の方向に向けての空調と同程度にするよう、制御部7に適切に指示できる。   For example, when the surface temperature of the region including the partition is approximately the same as that around the region, the partition opening / closing determination unit 296 may determine in step 66 that the partition is in the closed state. Thereby, even when the temperature of the adjacent room through the partition and the temperature of the room in which the indoor unit 1 is installed become uniform, the partition opening / closing determination unit 296 performs air conditioning toward the partition other than the partition. The controller 7 can be instructed appropriately so that the air conditioning is in the same direction as the direction.

また、例えば、温度マトリクス検出部31は、室内気温及び室外気温を測定する。そして、温度マトリクス検出部31は、複数回測定された室内気温及び室外気温を学習することによって、間仕切りが開いた場合の室内気温、及び、間仕切りが閉じた場合の室内気温を概算する。そして、空間検出部29は、画像Bの撮像時における室内気温と、画像Aの撮像時における室内気温と、概算された室内気温とに基づいて、画像B撮像時から画像A撮像時の間に、間仕切りが開いたのか閉じたのかを判定してもよい。   Further, for example, the temperature matrix detection unit 31 measures the indoor air temperature and the outdoor air temperature. And the temperature matrix detection part 31 approximates the room temperature when a partition is opened, and the room temperature when a partition is closed by learning the room temperature and outdoor temperature measured several times. Then, the space detection unit 29 divides the space between the time when the image B is captured and the time when the image A is captured based on the room temperature when the image B is captured, the room temperature when the image A is captured, and the estimated room temperature. It may be determined whether is open or closed.

なお、前述の室内機1は部屋の天井側に設置され、撮像部26は室内機1の下部に設置されていた。しかし、撮像部26は室内を広く撮像できれば、いずれの方向を向いて設置されてもよく、例えば、室内機1が床に近接して設置される場合、撮像部26のレンズは上方を向いて設置されてもよい。この場合、撮像部26は、間仕切り全体を撮像することができるように設置されることが望ましい。   The indoor unit 1 described above is installed on the ceiling side of the room, and the imaging unit 26 is installed in the lower part of the indoor unit 1. However, the imaging unit 26 may be installed in any direction as long as it can image a room widely. For example, when the indoor unit 1 is installed close to the floor, the lens of the imaging unit 26 faces upward. It may be installed. In this case, it is desirable that the imaging unit 26 be installed so that the entire partition can be imaged.

図11に示すステップ53において、歪み除去部290は、画像の位置に基づいて歪みを除去する領域を特定した。一方で、歪み除去部290は、差分特定部291によって特定された画像Bと画像Aとの差の領域を、歪みを除去する領域として特定してもよい。この場合に実行される処理A(図11においてステップ52〜54)を、図12に示す。   In step 53 shown in FIG. 11, the distortion removing unit 290 specifies an area from which distortion is removed based on the position of the image. On the other hand, the distortion removing unit 290 may specify the difference area between the image B and the image A specified by the difference specifying unit 291 as an area for removing distortion. FIG. 12 shows processing A (steps 52 to 54 in FIG. 11) executed in this case.

図12は、実施例1の間仕切りを検出する処理の開始時の詳細を示すフローチャートである。   FIG. 12 is a flowchart illustrating details at the start of the process of detecting the partition according to the first embodiment.

図12に示す処理Aはステップ51〜53を含む。   Process A shown in FIG. 12 includes steps 51 to 53.

まず、図12の処理において、差分特定部291は、画像Aと画像Bとの差分領域190を特定し、間仕切りの領域を特定する(51)。具体的な内容は、図11に示すステップ54と同じである。そして、差分領域190の位置等の情報をメモリに格納する。   First, in the process of FIG. 12, the difference specifying unit 291 specifies the difference area 190 between the image A and the image B, and specifies the partition area (51). The specific contents are the same as in step 54 shown in FIG. Then, information such as the position of the difference area 190 is stored in the memory.

なお、差分特定部291は、ステップ51において、画像A及び画像Bの一方が歪みを除去されており、他方が歪みを除去されている場合、歪みを除去していない画像をメモリから取得し、歪みを除去されていない画像Bと歪みを除去されていない画像Aとの差分領域190を特定する。   Note that, in step 51, when one of the image A and the image B has the distortion removed and the other has the distortion removed, the difference specifying unit 291 acquires an image from which the distortion has not been removed from the memory, A difference area 190 between the image B from which distortion has not been removed and the image A from which distortion has not been removed is specified.

ステップ51の後、歪み除去部290は、画像A及び画像Bの両方が歪みを除去されているかを判定する(52)。歪み除去部290は、画像に除去済フラグが付加されている場合、画像から歪みが除去されたと判定する。   After step 51, the distortion removing unit 290 determines whether distortion has been removed from both the image A and the image B (52). The distortion removing unit 290 determines that the distortion is removed from the image when the removed flag is added to the image.

画像A及び画像Bの両方が歪みを除去されていた場合、空間検出部29は、ステップ56を実行する。そして、図11に示すステップ56以降の処理を実行する。   When the distortion has been removed from both the image A and the image B, the space detection unit 29 executes step 56. And the process after step 56 shown in FIG. 11 is performed.

画像A及び画像Bの少なくとも一つが歪みを除去されていない場合、歪み除去部290は、画像Aにおける差分領域190を歪みを除去する領域として特定し、差分領域190から歪みを除去する(53)。そして、歪みを除去した画像Aに、差分領域190から歪みを除去したことを示す除去済フラグを付加する。   If at least one of the image A and the image B has not been subjected to distortion removal, the distortion removal unit 290 identifies the difference area 190 in the image A as an area from which distortion is to be removed, and removes distortion from the difference area 190 (53). . Then, a removed flag indicating that the distortion has been removed from the difference area 190 is added to the image A from which the distortion has been removed.

これによって、差分領域190以外の領域から歪みを除去するような無駄な処理を省くことができる。   As a result, useless processing such as removing distortion from the area other than the difference area 190 can be omitted.

ステップ53の後、空間検出部29は、ステップ56以降の処理を実行する。   After step 53, the space detection unit 29 executes the processing after step 56.

図12に示す処理Aにおいて、差分特定部291が特定した差分領域190のみから歪みを除去することによって、歪み除去部290は、画像のすべてから歪みを除去したり、広範囲な領域から歪みを除去したりする必要がなく、処理量を低減できる。   In the process A shown in FIG. 12, by removing the distortion only from the difference area 190 specified by the difference specifying section 291, the distortion removing section 290 removes the distortion from all the images or removes the distortion from a wide area. The amount of processing can be reduced.

図13は、実施例1の撮像部26が広角画像を取得した際の処理の概要を示す機能ブロック図である。   FIG. 13 is a functional block diagram illustrating an outline of processing performed when the imaging unit 26 according to the first embodiment acquires a wide-angle image.

実施例1の広角撮像部80とは、広角レンズを備えた撮像部26のことである。撮像部26は、撮像された画像を電装品11の記憶部79に格納する。   The wide-angle imaging unit 80 of Example 1 is the imaging unit 26 that includes a wide-angle lens. The imaging unit 26 stores the captured image in the storage unit 79 of the electrical component 11.

そして、検出部5に含まれる変換部2901は、画像の歪みを除去する領域を特定し、そして、特定した領域の歪みを除去するように画像を変換する。この変換部2901は、空間検出部29が有する歪み除去部290である。   Then, the conversion unit 2901 included in the detection unit 5 identifies an area from which the distortion of the image is to be removed, and converts the image so as to remove the distortion of the identified area. The conversion unit 2901 is a distortion removal unit 290 included in the space detection unit 29.

そして、検出部5における空間検出部29、人体検出部30、及び温度マトリクス検出部31等は、画像から室内の特徴を抽出し、室内の特徴を示す情報を記憶部79に格納する。ここで、室内の特徴とは、特に空間検出部29によって検出された間仕切り、及び間仕切りの開閉である。   Then, the space detection unit 29, the human body detection unit 30, the temperature matrix detection unit 31 and the like in the detection unit 5 extract indoor features from the image and store information indicating the indoor features in the storage unit 79. Here, the indoor features are the partition detected by the space detection unit 29 and the opening / closing of the partition.

そして、制御部7は、記憶部79に格納された室内の特徴を示す情報に基づいて、室内へ送る風の風向及び風量を調節する。   And the control part 7 adjusts the wind direction and air volume of the wind sent indoors based on the information which shows the indoor feature stored in the memory | storage part 79. FIG.

図14は、実施例1の歪み除去部290による処理を示す機能ブロック図である。   FIG. 14 is a functional block diagram illustrating processing performed by the distortion removing unit 290 according to the first embodiment.

歪み除去部290は、歪み除去領域特定部110、正像変換部111、及び、補間処理部112を含む。歪み除去部290は、図14の処理によって、画像の中の歪みを除去する領域を、画像変換する。   The distortion removing unit 290 includes a distortion removing region specifying unit 110, a normal image converting unit 111, and an interpolation processing unit 112. The distortion removing unit 290 performs image conversion on a region from which distortion is removed in the image by the processing of FIG.

まず、歪み除去領域特定部110は、歪みを除去する領域を特定する。具体的には、歪み除去領域特定部110は、画像におけるあらかじめ指定された範囲を歪みを除去する領域として特定してもよいし、差分特定部291によって特定された過去の画像との差の領域を、歪みを除去する領域として特定してもよい。   First, the distortion removal area specifying unit 110 specifies an area from which distortion is to be removed. Specifically, the distortion removal region specifying unit 110 may specify a predesignated range in the image as a region for removing distortion, or a difference region from the past image specified by the difference specifying unit 291. May be specified as a region from which distortion is removed.

正像変換部111は、歪みを除去する領域として特定された歪み除去前の領域である(x,y)平面における基準の点(対応点)を、歪み除去後の領域である(u,v)平面(平面化画像)の点に対応付け、平面化画像における対応点を定める。   The normal image conversion unit 111 uses the reference point (corresponding point) in the (x, y) plane, which is the region before distortion removal, specified as the region from which distortion is removed, as the region after distortion removal (u, v ) Corresponding to points on the plane (planarized image), the corresponding points in the planarized image are determined.

図15は、実施例1の正像変換部111による正像変換処理の説明図を示す。   FIG. 15 is an explanatory diagram of normal image conversion processing by the normal image conversion unit 111 according to the first embodiment.

正像変換部111は、図15に示すような(u,v)平面と(x,y)平面との関係と、式1〜式3とを用いて、(u,v)平面の点と(x,y)平面の対応点との対応付けを行い、(u,v)平面における対応点を定める。正像変換部111は、これによって、(x,y)平面における対応点を、(u,v)平面における対応点に変換する。









α=回転角
β=天頂角
φ=取り出す平面の回転角
m=倍率
R=広角画像の外周円の半径
The normal image conversion unit 111 uses the relationship between the (u, v) plane and the (x, y) plane as shown in FIG. Correspondence with corresponding points on the (x, y) plane is performed to determine corresponding points on the (u, v) plane. Accordingly, the normal image conversion unit 111 converts the corresponding point on the (x, y) plane to the corresponding point on the (u, v) plane.









α = rotation angle β = zenith angle φ = rotation angle of the extracted plane m = magnification R = radius of the outer circumference circle of the wide-angle image

正像変換部111による処理の後、補間処理部112は、例えば、キュービック補間を用いて、(u,v)平面における対応点周辺から補間することにより、(u,v)平面の画素を生成する。   After the processing by the normal image conversion unit 111, the interpolation processing unit 112 generates a pixel on the (u, v) plane by interpolating from around the corresponding point on the (u, v) plane, for example, using cubic interpolation. To do.

歪み除去部290は、図14に示す処理によって、歪みを除去する領域として特定した領域から歪みを除去し、その結果、入力された画像を歪みが除去された画像に変換する。そして、後続の処理において、歪みが除去された画像が用いられることによって、室内の特徴(間仕切り等)を正確に検出することができる。   The distortion removing unit 290 removes distortion from the area specified as the area from which distortion is removed by the processing shown in FIG. 14, and as a result, converts the input image into an image from which distortion has been removed. In subsequent processing, an image from which distortion has been removed is used, so that indoor features (such as partitions) can be accurately detected.

実施例1によれば、部屋の間仕切りの状態及び位置を適切に検出し、検出結果に従って風量及び風向を調節するため、実施例1の空気調和機は、部屋の間仕切り近辺に空気を調節できない空間を発生させることなく、室内全体の空気を快適に調節することができる。   According to the first embodiment, the air conditioner according to the first embodiment is a space in which the air cannot be adjusted in the vicinity of the room partition in order to appropriately detect the state and position of the room partition and adjust the air volume and the wind direction according to the detection result. It is possible to comfortably adjust the air in the entire room without generating any.

また、実施例1の空気調和機は、撮像部26によって撮像された画像から歪みを除去する領域を特定し、さらに、特定した領域から歪みを除去する。このため、撮像部26が広角レンズを用いて広い幅の画像を撮像した場合にも、画像から歪みを除去することができ、室内の特徴を正確に検出することができる。また、例えば、狭い範囲を撮像するカメラでは写り込まない戸などの間仕切りを撮影し、この間仕切りの開閉を検出することにより、熱だまりの発生を防ぐことができる。   Moreover, the air conditioner of Example 1 specifies the area | region which removes distortion from the image imaged by the imaging part 26, and also removes distortion from the specified area | region. For this reason, even when the imaging unit 26 captures a wide-width image using a wide-angle lens, distortion can be removed from the image, and indoor features can be accurately detected. Further, for example, by capturing a partition that is not captured by a camera that captures a narrow range, and detecting the opening and closing of the partition, it is possible to prevent the accumulation of heat.

実施例2の検出部5は、撮像部26によって撮像された画像を用いて、室内の間取りを検出する。本実施例における室内の間取りとは、少なくとも、室内の角(以下、コーナー)から室内機1までの距離と、室内機1の正面方向からコーナーまでの角度とによって示される室内の形状及び大きさをいう。また、本実施例における部屋の奥行きとは、室内機1から最も遠いコーナーまでの距離である。   The detection unit 5 according to the second embodiment detects a floor plan using the image captured by the imaging unit 26. The indoor floor plan in the present embodiment means at least the shape and size of the room indicated by the distance from the corner of the room (hereinafter, corner) to the indoor unit 1 and the angle from the front direction of the indoor unit 1 to the corner. Say. In addition, the depth of the room in the present embodiment is a distance from the indoor unit 1 to the farthest corner.

実施例2の室内機1、室外機2及びリモコン3は、実施例1と同じである。また、実施例2のセンサ4、撮像部26及び温度検出部27は、実施例1と同じである。そして、実施例2の電装品11は、空間検出部29以外、実施例1の電装品11と同じである。   The indoor unit 1, the outdoor unit 2, and the remote controller 3 of the second embodiment are the same as those of the first embodiment. Further, the sensor 4, the imaging unit 26, and the temperature detection unit 27 of the second embodiment are the same as those of the first embodiment. The electrical component 11 according to the second embodiment is the same as the electrical component 11 according to the first embodiment except for the space detection unit 29.

実施例2の空間検出部29は、撮像部26によって撮像された画像を用いて、室内の間取りを検出する処理部である。実施例2の検出部5は、プログラムによって実装されてもよいし、集積回路等の物理的装置によって実装されてもよい。   The space detection unit 29 according to the second exemplary embodiment is a processing unit that detects a floor plan using an image captured by the imaging unit 26. The detection unit 5 according to the second embodiment may be implemented by a program or a physical device such as an integrated circuit.

以下において、室内機1が部屋の天井側に設置される場合を、主に示す。   Below, the case where the indoor unit 1 is installed in the ceiling side of a room is mainly shown.

図16は、本実施例2の空間検出部29の処理部の機能ブロックと、画像の処理結果とを示す説明図である。   FIG. 16 is an explanatory diagram illustrating functional blocks of the processing unit of the space detection unit 29 according to the second embodiment and an image processing result.

実施例2の空間検出部29は、歪み除去部290、エッジ検出部81、直線生成部82、交点検出部83、及び、奥行き算出部84等の処理部を有する。実施例2の空間検出部29の処理部は、プログラムによって実装されてもよく、物理的装置によって実装されてもよい。また、実施例2の空間検出部29は、実施例2の処理部と、実施例1の空間検出部29と同じ処理部とを有してもよく、間取りと間仕切りとを検出してもよい。   The space detection unit 29 according to the second embodiment includes processing units such as a distortion removal unit 290, an edge detection unit 81, a straight line generation unit 82, an intersection detection unit 83, and a depth calculation unit 84. The processing unit of the space detection unit 29 according to the second embodiment may be implemented by a program or a physical device. The space detection unit 29 of the second embodiment may include the processing unit of the second embodiment and the same processing unit as the space detection unit 29 of the first embodiment, and may detect a floor plan and a partition. .

図16に示す画像94がセンサ4を介して入力された場合、歪み除去部290は、実施例1の図14に示す処理と同じ方法によって、入力された画像94を歪みを除去した画像94に変換する。   When the image 94 shown in FIG. 16 is input via the sensor 4, the distortion removing unit 290 converts the input image 94 into an image 94 from which distortion is removed by the same method as the process shown in FIG. 14 of the first embodiment. Convert.

歪み除去部290による処理の後、エッジ検出部81は、歪みを除去された画像94に含まれるエッジを検出する。図16に示す画像95は、画像94からエッジを検出した結果である。   After the processing by the distortion removing unit 290, the edge detecting unit 81 detects an edge included in the image 94 from which the distortion is removed. An image 95 shown in FIG. 16 is a result of detecting an edge from the image 94.

直線生成部82は、エッジ検出部81によって検出されたエッジのうち、選択されたエッジを延長する。図16に示す画像96は、直線生成部82によってエッジが延長された結果、生成された直線を示す。   The straight line generation unit 82 extends a selected edge among the edges detected by the edge detection unit 81. An image 96 shown in FIG. 16 shows a straight line generated as a result of the edge being extended by the straight line generation unit 82.

交点検出部83は、直線生成部82によって延長された直線の交点を検出する。画像97は、画像96において検出された複数の交点98(98a〜98c)を示す。   The intersection detection unit 83 detects the intersection of the straight lines extended by the straight line generation unit 82. The image 97 shows a plurality of intersection points 98 (98a to 98c) detected in the image 96.

奥行き算出部84は、画像97における交点98の位置に従って、コーナーまでの距離を算出し、コーナーに向かう方向を求める。そして、奥行き算出部84は、算出されたコーナー距離に基づいて、室内において室内機1から最も遠いコーナーを特定し、最も遠いコーナーまでの距離を部屋の奥行きに決定する。   The depth calculation unit 84 calculates the distance to the corner according to the position of the intersection 98 in the image 97, and obtains the direction toward the corner. Then, the depth calculation unit 84 specifies the farthest corner from the indoor unit 1 in the room based on the calculated corner distance, and determines the distance to the farthest corner as the depth of the room.

図17は、本実施例2の空間検出部29の処理を示すフローチャートである。   FIG. 17 is a flowchart illustrating the processing of the space detection unit 29 according to the second embodiment.

撮像部26によって撮像された画像を入力された場合、図17に示す処理が開始される。なお、実施例2の空間検出部29は、図9に示す実施例1の空間検出部29の処理と同じく、撮像部26によって各方向において撮像された画像が検出部5に入力される都度、図17に示す処理を実行してもよい。   When an image captured by the imaging unit 26 is input, the process illustrated in FIG. 17 is started. In addition, the space detection unit 29 of the second embodiment is similar to the processing of the space detection unit 29 of the first embodiment illustrated in FIG. 9 every time an image captured in each direction by the imaging unit 26 is input to the detection unit 5. You may perform the process shown in FIG.

また、実施例2の空間検出部29は、図9に示すステップ77と同様に、図17に示す処理によってコーナーが検出されたか否かを判定し、判定結果に従って、間取りに関する情報を制御部7に通知する。そして、制御部7は、通知された間取りに関する情報に従って、空気調和機が送る風の量又は風の向きを制御する。   Further, the space detection unit 29 according to the second embodiment determines whether or not a corner is detected by the process illustrated in FIG. 17 in the same manner as Step 77 illustrated in FIG. 9. Notify And the control part 7 controls the quantity or direction of the wind which an air conditioner sends according to the information regarding the notified floor plan.

まず、歪み除去部290は、実施例1の図14に示す処理と同じ方法によって、入力された画像を歪みを除去した画像に変換する(85)。歪み除去部290によって歪みを除去された画像を用いて間取りを検出することによって、例えば広角レンズを有する撮像部26が広角画像を撮像した場合にも、狭い視野角の画像では映らなかった梁等を正確に検出することが可能となる。   First, the distortion removing unit 290 converts the input image into an image from which distortion has been removed by the same method as the process shown in FIG. 14 of the first embodiment (85). By detecting the floor plan using the image from which the distortion is removed by the distortion removing unit 290, for example, when the imaging unit 26 having a wide-angle lens captures a wide-angle image, a beam or the like that is not reflected in an image with a narrow viewing angle Can be accurately detected.

そして、エッジ検出部81は、入力された画像に含まれるエッジを検出する(86)。エッジとは、画像に写される異なる二つの色間の境界線であり、特に、本実施例においては直線である。   Then, the edge detection unit 81 detects an edge included in the input image (86). An edge is a boundary line between two different colors that appear in an image, and in particular, in the present embodiment, is a straight line.

ステップ86の後、直線生成部82は、ステップ86において検出されたエッジから所定の長さのエッジを抽出し、抽出されたエッジを画像内で延長することによって直線を生成する(87)。   After step 86, the straight line generation unit 82 extracts an edge having a predetermined length from the edge detected in step 86, and generates a straight line by extending the extracted edge in the image (87).

ステップ87の後、交点検出部83は、ステップ87において生成された直線の交点98を検出する(88)。ここで検出される交点98には、室内機1が設置される室内のコーナーに相当する交点が含まれる。ステップ88において交点98が検出されない場合、図17に示す処理は終了する。   After step 87, the intersection detection unit 83 detects the intersection 98 of the straight line generated in step 87 (88). The intersection 98 detected here includes an intersection corresponding to a corner in the room where the indoor unit 1 is installed. If the intersection point 98 is not detected in step 88, the process shown in FIG. 17 ends.

なお、三つ以上の直線が一つの交点で交わらず、かつ、二つ以上の直線の交点が所定の位置の範囲に複数存在する場合、交点検出部83は、複数の交点の位置を平均し、平均の位置を交点98の位置として検出してもよい。   Note that when three or more straight lines do not intersect at one intersection and there are a plurality of intersections of two or more straight lines within a predetermined position range, the intersection detection unit 83 averages the positions of the plurality of intersections. The average position may be detected as the position of the intersection 98.

ステップ88の後、奥行き算出部84は、ステップ88において検出された交点98から、あらかじめ定められた所定の基準に従って、コーナーに対応する交点98(本実施例における消失点)として抽出する。所定の基準とは、例えば、撮像部26が水平面から下方を撮像する場合、画像において最も下に位置すること、又は、最も下に位置する交点98と同じ直線(縦方向を除く)上に位置することである。   After step 88, the depth calculation unit 84 extracts the intersection point 98 (the vanishing point in this embodiment) corresponding to the corner from the intersection point 98 detected in step 88 according to a predetermined criterion. The predetermined reference is, for example, when the imaging unit 26 captures an image below the horizontal plane, is located at the lowest position in the image, or is located on the same straight line (excluding the vertical direction) as the lowest intersection point 98 It is to be.

これは、例えば、図16に示す画像97のように交点98が複数検出されている場合に、床と壁二枚とが交わるコーナーに相当する交点98cを消失点として検出するためである。なお、本実施例における消失点とは、画像においてコーナーに対応する点のことを示す。   This is because, for example, when a plurality of intersections 98 are detected as in an image 97 shown in FIG. 16, an intersection 98c corresponding to a corner where the floor and two walls intersect is detected as a vanishing point. In addition, the vanishing point in a present Example shows the point corresponding to a corner in an image.

そして、奥行き算出部84は、消失点の画像における位置と、あらかじめ保持する室内機1の高さとに基づいて、室内機1からコーナーまでの距離を算出し、さらに、コーナーの方向を求める。そして、奥行き算出部84は、算出されたコーナーまでの距離に基づいて、部屋の奥行きを決定する(89)。   Then, the depth calculation unit 84 calculates the distance from the indoor unit 1 to the corner based on the position of the vanishing point in the image and the height of the indoor unit 1 held in advance, and further determines the direction of the corner. Then, the depth calculator 84 determines the depth of the room based on the calculated distance to the corner (89).

ステップ89の後、空間検出部29は、コーナーの位置(コーナーまでの距離、コーナーの方向)、及び、部屋の奥行き等を出力する(出力104)。検出部5は、出力104を制御部7に通知する。   After step 89, the space detection unit 29 outputs the position of the corner (distance to the corner, direction of the corner), the depth of the room, and the like (output 104). The detection unit 5 notifies the control unit 7 of the output 104.

制御部7は、出力104に基づいて、空気調和機による空気の調節を制御する。例えば、制御部7は、部屋の奥行きに従って強くされた風を、奥行きを距離として算出されたコーナーの方向に向かって送るように、空気調和機の各装置を制御する。また、制御部7は、コーナーの方向に従って、風向がスイングするように、空気調和機の各装置を制御する。これによって、空気調和機は、室内の間取りに従って適切に空気を調節でき、室内を快適な状態に調節することができる。   The control unit 7 controls the adjustment of air by the air conditioner based on the output 104. For example, the control unit 7 controls each device of the air conditioner so as to send a wind strengthened according to the depth of the room toward the corner calculated using the depth as a distance. Moreover, the control part 7 controls each apparatus of an air conditioner so that a wind direction swings according to the direction of a corner. Thereby, the air conditioner can appropriately adjust the air according to the floor plan of the room, and can adjust the room to a comfortable state.

以下に、奥行き算出部84によるコーナーまでの距離の算出方法を説明する。   Below, the calculation method of the distance to the corner by the depth calculation part 84 is demonstrated.

図18は、本実施例2の奥行き算出部84によるコーナーまでの距離の算出処理を示す説明図である。   FIG. 18 is an explanatory diagram illustrating a calculation process of the distance to the corner by the depth calculation unit 84 according to the second embodiment.

図18(a)は、本実施例2の画像における消失点99の縦の位置を示す説明図である。   FIG. 18A is an explanatory diagram showing the vertical position of the vanishing point 99 in the image of the second embodiment.

図18(a)は、撮像部26が撮像した画像である。図18(a)の画像には、二つの消失点99(消失点99A及び消失点B)が含まれる。奥行き算出部84は、消失点99から画像上端までの縦の長さaと、消失点99から画像下端までの縦の長さbとを、画像の画素等に基づいて取得する。   FIG. 18A is an image captured by the imaging unit 26. The image in FIG. 18A includes two vanishing points 99 (the vanishing point 99A and the vanishing point B). The depth calculation unit 84 acquires a vertical length a from the vanishing point 99 to the upper end of the image and a vertical length b from the vanishing point 99 to the lower end of the image based on the pixels of the image.

図18(b)は、本実施例2の消失点の縦の位置とコーナーまでの距離との関係を示す説明図である。   FIG. 18B is an explanatory diagram illustrating the relationship between the vertical position of the vanishing point and the distance to the corner according to the second embodiment.

図18(b)は、室内機1とコーナーとを含み、垂直方向と並行する平面を示す。図18(b)に示す撮像部26は、水平面から下方45°の画角を撮像する。このため、室内機1からコーナーまでの水平面上の距離Lと、画像における長さa及び長さbと、室内機1が設置された高さhとの関係は、以下の式4に示す比によって表現される。
L:h=(a+b):a (式4)
そして、式4から、以下の式5が導かれる。
L=(a+b)×h/a (式5)
FIG. 18B shows a plane including the indoor unit 1 and a corner and parallel to the vertical direction. The imaging unit 26 illustrated in FIG. 18B captures an angle of view of 45 ° below the horizontal plane. For this reason, the relationship between the distance L on the horizontal plane from the indoor unit 1 to the corner, the length a and the length b in the image, and the height h at which the indoor unit 1 is installed is the ratio shown in the following Equation 4. Is represented by
L: h = (a + b): a (Formula 4)
Then, from Expression 4, the following Expression 5 is derived.
L = (a + b) × h / a (Formula 5)

奥行き算出部84は、長さa及び長さbと、室内機1が設置された高さhと、式5とを用いて距離Lを算出できる。図18(a)のように消失点99が複数検出されている場合、奥行き算出部84は、各々の消失点99に対応する距離Lを算出する。なお、例えば、室内機1が設置される高さhは2メートルであり、奥行き算出部84は高さh(2メートル)をあらかじめ保持する。   The depth calculation unit 84 can calculate the distance L using the length a and the length b, the height h at which the indoor unit 1 is installed, and Equation 5. When a plurality of vanishing points 99 are detected as shown in FIG. 18A, the depth calculation unit 84 calculates the distance L corresponding to each vanishing point 99. For example, the height h at which the indoor unit 1 is installed is 2 meters, and the depth calculation unit 84 holds the height h (2 meters) in advance.

なお、前述の例では、撮像部26が水平面から下方45°の上下の画角を撮像した場合の画像を用いて長さa及び長さbを取得した。しかし、奥行き算出部84が、撮像部26が撮像する上下の向きを示す角度を保持していれば、撮像部26の向きは水平面から下方45°に限られない。   In the above-described example, the length a and the length b are acquired using an image when the imaging unit 26 images an upper and lower angle of view of 45 ° below the horizontal plane. However, as long as the depth calculation unit 84 holds an angle indicating the up and down direction that the imaging unit 26 captures, the orientation of the imaging unit 26 is not limited to 45 ° below the horizontal plane.

例えば、撮像部26が水平面を基準として上方10°から下方35°の画角を撮像していた場合も、奥行き算出部84が、撮像部26の上下の角度の情報に基づいて撮像部26と同じ高さに対応する位置を画像において特定することによって、長さaを取得することができる。また、奥行き算出部84は、長さbの代わりに、撮像部26によって撮像された画像の縦の長さ(a+b)を取得すれば、式5を用いて距離Lを算出することができる。   For example, even when the imaging unit 26 captures an angle of view of 10 ° above and 35 ° below with respect to the horizontal plane, the depth calculation unit 84 is connected to the imaging unit 26 based on information on the upper and lower angles of the imaging unit 26. By specifying a position corresponding to the same height in the image, the length a can be obtained. In addition, the depth calculation unit 84 can calculate the distance L using Expression 5 if the vertical length (a + b) of the image captured by the imaging unit 26 is obtained instead of the length b.

距離Lを算出した後、奥行き算出部84は、水平面上の距離Lと高さhと三平方の定理とを用いて、室内機1からコーナーまでの距離を算出する。   After calculating the distance L, the depth calculation unit 84 calculates the distance from the indoor unit 1 to the corner using the distance L on the horizontal plane, the height h, and the square theorem.

また、奥行き算出部84は、同じ方向の複数の画像に各々実行された、図17に示す処理の結果を用いて、コーナーまでの距離を算出してもよい。具体的には、奥行き算出部84は、複数回の図17に示す処理において算出された複数の結果の平均値を算出し、算出された平均値をコーナーまでの距離と決定してもよい。すなわち、奥行き算出部84は、算出されたコーナーまでの距離を学習し、例えば、最新の10回分の距離の算出結果を平均した距離をコーナーまでの距離と決定してもよい。   Further, the depth calculation unit 84 may calculate the distance to the corner by using the result of the process shown in FIG. 17 performed on each of the plurality of images in the same direction. Specifically, the depth calculation unit 84 may calculate an average value of a plurality of results calculated in a plurality of processes shown in FIG. 17, and may determine the calculated average value as a distance to the corner. That is, the depth calculation unit 84 may learn the distance to the calculated corner, and may determine, for example, a distance obtained by averaging the latest 10 distance calculation results as the distance to the corner.

さらに、奥行き算出部84は、画像における消失点99の横の位置と、画像が撮像された方向(例えば、図3に示す左32、正面33又は右34)とに基づいて室内機1の真正面からコーナーまでの角度を算出することによって、コーナーの方向を求める。ただし、求められた方向に従って検出部5が制御部7に風向を指示できればいいため、奥行き算出部84は、前述の方法以外の方法を用いてコーナーの方向を求めてもよい。   Further, the depth calculation unit 84 is directly in front of the indoor unit 1 based on the horizontal position of the vanishing point 99 in the image and the direction (for example, left 32, front 33, or right 34 shown in FIG. 3). The direction of the corner is obtained by calculating the angle from to the corner. However, the depth calculation unit 84 may determine the direction of the corner using a method other than the method described above because the detection unit 5 can instruct the wind direction to the control unit 7 according to the determined direction.

例えば、奥行き算出部84は、同じ方向の複数の画像に各々実行された、図17に示す処理の結果を用いて、コーナーの方向を求めてもよい。具体的には、奥行き算出部84は、複数回の図17に示す処理の結果から求められた複数の結果の平均値を算出し、算出された平均値をコーナーの方向と決定してもよい。すなわち、奥行き算出部84は、求められたコーナーの方向を学習し、例えば最新の10回分の処理結果を平均した方向をコーナーの方向と決定してもよい。   For example, the depth calculation unit 84 may obtain the direction of the corner by using the result of the process shown in FIG. 17 performed on each of the plurality of images in the same direction. Specifically, the depth calculation unit 84 may calculate an average value of a plurality of results obtained from the results of the processing shown in FIG. 17 a plurality of times, and may determine the calculated average value as a corner direction. . That is, the depth calculation unit 84 may learn the obtained corner direction, and may determine, for example, the direction obtained by averaging the latest 10 processing results as the corner direction.

そして、奥行き算出部84は、図18(a)のように複数の消失点99に相当するコーナーまでの距離を算出した場合、最も遠い距離を部屋の奥行きに決定する。例えば、消失点99Bに相当するコーナーまでの距離が消失点99Aに相当するコーナーまでの距離よりも長い場合、奥行き算出部84は、消失点99Bに相当するコーナーまでの距離を奥行きに決定する。   When the distance to the corner corresponding to the plurality of vanishing points 99 is calculated as shown in FIG. 18A, the depth calculation unit 84 determines the farthest distance as the depth of the room. For example, when the distance to the corner corresponding to the vanishing point 99B is longer than the distance to the corner corresponding to the vanishing point 99A, the depth calculation unit 84 determines the distance to the corner corresponding to the vanishing point 99B as the depth.

さらに、奥行き算出部84は、消失点99の画像における座標を特定してもよい。そして、検出部5は、間取りに関する情報として座標を制御部7に通知してもよい。これによって、画像に含まれるコーナーが複数である場合、検出部5は、コーナー間をスイングさせるように風向を制御するための情報を、制御部7に通知することができる。   Further, the depth calculation unit 84 may specify the coordinates of the vanishing point 99 in the image. And the detection part 5 may notify a coordinate to the control part 7 as information regarding a floor plan. Accordingly, when there are a plurality of corners included in the image, the detection unit 5 can notify the control unit 7 of information for controlling the wind direction so as to swing between the corners.

以下に、人体検出部30の処理結果又は温度マトリクス検出部31の処理結果を用いて、コーナーまでの距離を算出するその他の方法を示す。   Hereinafter, other methods for calculating the distance to the corner using the processing result of the human body detection unit 30 or the processing result of the temperature matrix detection unit 31 will be described.

図19は、本実施例2の人体検出部30の処理結果とコーナーの距離及び方向とを示す説明図である。   FIG. 19 is an explanatory diagram illustrating the processing result of the human body detection unit 30 according to the second embodiment and the distance and direction of the corner.

図19は、人体検出部30によって検出された室内の人体と、コーナーとの関係を示す。図19は、室内における床から天井を見る視点によって、人体の位置を示す。奥行き算出部84は、ステップ89において、撮像部26により撮像された画像に基づき、右のコーナーの方向48及び左のコーナーの方向49を特定する。そして、人体検出部30により検出された人体の位置に基づき、奥行き算出部84は、室内機1からコーナーまでの距離を推定する。   FIG. 19 shows the relationship between the human body in the room detected by the human body detection unit 30 and the corner. FIG. 19 shows the position of the human body from the viewpoint of viewing the ceiling from the floor in the room. In step 89, the depth calculation unit 84 specifies the right corner direction 48 and the left corner direction 49 based on the image captured by the imaging unit 26. Then, based on the position of the human body detected by the human body detection unit 30, the depth calculation unit 84 estimates the distance from the indoor unit 1 to the corner.

なお、人体検出部30は、例えば、人体の頭部を円とみなし、頭部に対応する円の大きさによって室内機1から人体までの距離を算出する。また、人体検出部30は、例えば、人体の頭部に対応する円の方向を求めることによって、人体が存在する方向を求める。   For example, the human body detection unit 30 regards the head of the human body as a circle, and calculates the distance from the indoor unit 1 to the human body based on the size of the circle corresponding to the head. Moreover, the human body detection part 30 calculates | requires the direction in which a human body exists, for example by calculating | requiring the direction of the circle corresponding to the head of a human body.

奥行き算出部84は、例えば、人体検出部30により検出された最も右側の人体46の位置を右側の壁の位置とみなし、最も右側の人体46を通過し、かつ、室内機1が設置される壁と垂直に接する壁101を仮想的に生成する。そして、奥行き算出部84は、生成された壁101と、撮像部26の画像から求められた右のコーナーの方向48との交点を右のコーナーに定める。そして、奥行き算出部84は、人体46の位置と方向48と室内機1の高さと三角関数とを用いることによって、室内機1から右のコーナーまでの距離及び右のコーナーの位置を推定する。   For example, the depth calculation unit 84 regards the position of the rightmost human body 46 detected by the human body detection unit 30 as the position of the right wall, passes through the rightmost human body 46, and the indoor unit 1 is installed. A wall 101 that is perpendicular to the wall is virtually generated. Then, the depth calculation unit 84 determines the intersection of the generated wall 101 and the right corner direction 48 obtained from the image of the imaging unit 26 as the right corner. Then, the depth calculation unit 84 estimates the distance from the indoor unit 1 to the right corner and the position of the right corner by using the position and direction 48 of the human body 46, the height of the indoor unit 1, and the trigonometric function.

そして、奥行き算出部84は、定められた右のコーナーから室内機1が設置される壁と平行方向に、室内機1に対向する正面の壁102を仮想的に生成し、正面の壁102と左のコーナーの方向49との交点を左のコーナーに定める。そして、奥行き算出部84は、推定された右のコーナーの位置と、方向48及び方向49と、室内機1の高さと、三角関数とを用いることによって、室内機1から左のコーナーまでの距離を推定する。   The depth calculation unit 84 virtually generates a front wall 102 facing the indoor unit 1 in a direction parallel to the wall on which the indoor unit 1 is installed from the determined right corner, The intersection with the direction 49 of the left corner is determined at the left corner. Then, the depth calculation unit 84 uses the estimated position of the right corner, the direction 48 and the direction 49, the height of the indoor unit 1, and the trigonometric function to obtain a distance from the indoor unit 1 to the left corner. Is estimated.

さらに、奥行き算出部84は、正面33方向の最も遠い人体47の位置を室内機1に対向する壁103の位置と推定し、推定された壁103と方向48及び方向49との交点を各々右のコーナー及び左のコーナーに定める。そして、奥行き算出部84は、人体47の位置と方向48及び方向49と三角関数とを用いることによって、室内機1から右のコーナーまでの距離及び室内機1から左のコーナーまでの距離を推定する。   Further, the depth calculation unit 84 estimates the position of the farthest human body 47 in the direction of the front 33 as the position of the wall 103 facing the indoor unit 1, and sets the intersection of the estimated wall 103 and the direction 48 and the direction 49 to the right. Determine the corner and left corner. The depth calculation unit 84 estimates the distance from the indoor unit 1 to the right corner and the distance from the indoor unit 1 to the left corner by using the position of the human body 47, the direction 48, the direction 49, and the trigonometric function. To do.

そして、奥行き算出部84は、人体46を用いて推定された右のコーナーまでの距離と人体47を用いて推定された右のコーナーまでの距離との統計値を算出し、算出された統計値を右のコーナーまでの距離に決定する。また、奥行き算出部84は、推定された左のコーナーの距離についても同様に統計値を算出し、左のコーナーまでの距離に決定する。ここで、統計値とは、平均値でもよいし、最大値又は最小値であってもよい。   Then, the depth calculation unit 84 calculates a statistical value between the distance to the right corner estimated using the human body 46 and the distance to the right corner estimated using the human body 47, and the calculated statistical value To the distance to the right corner. In addition, the depth calculation unit 84 similarly calculates a statistical value for the estimated distance to the left corner, and determines the distance to the left corner. Here, the statistical value may be an average value, or a maximum value or a minimum value.

また、奥行き算出部84は、最も左に位置する人体を用いて、右のコーナーまでの距離及び左のコーナーまでの距離を推定し、すべての推定結果を用いて、右のコーナーまでの距離及び左のコーナーまでの距離を決定してもよい。さらに、奥行き算出部84は、このように決定された距離を学習し、例えば10回分の結果を平均した値をコーナーの距離として決定してもよい。   Further, the depth calculation unit 84 estimates the distance to the right corner and the distance to the left corner using the human body located on the leftmost side, and uses all the estimation results to determine the distance to the right corner and The distance to the left corner may be determined. Further, the depth calculation unit 84 may learn the distance determined in this way, and may determine, for example, a value obtained by averaging the results of 10 times as the corner distance.

さらに、他の方法として、奥行き算出部84は、例えば人体検出部30の処理結果に基づき、正面33方向に位置する人体のうち、最も遠い人体の位置を室内機1に対向する壁の位置とみなし、当該最も遠い人体と室内機1との距離を、部屋の奥行きとして算出してもよい。また、奥行き算出部84は、複数回算出された奥行きを学習し、例えば最新の10回分の算出結果の平均値を部屋の奥行きに決定してもよい。   Furthermore, as another method, for example, based on the processing result of the human body detection unit 30, the depth calculation unit 84 sets the farthest human body position in the direction of the front 33 as the position of the wall facing the indoor unit 1. The distance between the farthest human body and the indoor unit 1 may be calculated as the depth of the room. Further, the depth calculation unit 84 may learn the depth calculated a plurality of times, and may determine, for example, the average value of the latest 10 calculation results as the depth of the room.

さらに、室内機1が設置される部屋が長方形であり、室内機1が、一つの壁側面に平行に設置されている場合、奥行き算出部84は、人体検出部30の処理結果に基づき、最も左側に位置する人体の位置と最も右側に位置する人体の位置との間の距離、及び、室内機1から正面に位置する人体までの距離を用いて、コーナーまでの距離を決定してもよい。   Furthermore, when the room in which the indoor unit 1 is installed is rectangular and the indoor unit 1 is installed in parallel to one wall side surface, the depth calculation unit 84 is based on the processing result of the human body detection unit 30 and The distance to the corner may be determined using the distance between the position of the human body located on the left side and the position of the human body located on the rightmost side and the distance from the indoor unit 1 to the human body located on the front. .

ここで、最も左側に位置する人体の位置と最も右側に位置する人体の位置との間の距離は、室内機1に対向する壁の両端のコーナー間の距離とみなされる。また、室内機1から正面に位置する人体までの距離は、室内機1から室内機1に対向する壁までの距離とみなされ、部屋の奥行きとみなされる。   Here, the distance between the position of the human body located on the leftmost side and the position of the human body located on the rightmost side is regarded as the distance between the corners at both ends of the wall facing the indoor unit 1. The distance from the indoor unit 1 to the human body located in front is regarded as the distance from the indoor unit 1 to the wall facing the indoor unit 1 and is regarded as the depth of the room.

以下に、温度マトリクス検出部31により検出された結果に基づいて、奥行き、コーナーまでの距離等を算出する方法を説明する。   A method for calculating the depth, the distance to the corner, and the like based on the result detected by the temperature matrix detection unit 31 will be described below.

奥行き算出部84は、温度マトリクス検出部31により検出された室内の表面温度に基づき、室内の床を特定し、特定された床によってコーナーまでの距離を算出してもよい。   The depth calculation unit 84 may specify the indoor floor based on the indoor surface temperature detected by the temperature matrix detection unit 31, and may calculate the distance to the corner using the specified floor.

床の温度は、床をはさんだ部屋の外側の温度に影響される。このため、奥行き算出部84は、温度マトリクス検出部31によって検出された室内温度と表面温度との差により、床の位置を特定する。   The floor temperature is affected by the temperature outside the room across the floor. For this reason, the depth calculation unit 84 specifies the position of the floor based on the difference between the room temperature detected by the temperature matrix detection unit 31 and the surface temperature.

床を特定できた場合、奥行き算出部84は、前述の式5と、検出された床の上下方向の画角に占める床の上下方向の画角の割合と、室内機1が設置されている高さhとによって、室内機1に対向する壁までの奥行き及びコーナーまでの距離を算出できる。さらに、奥行き算出部84は、算出された奥行きを学習し、例えば、最新の10回分の検出結果を平均した距離を奥行きとし、奥行きとコーナーの方向とからコーナーまでの距離を算出してもよい。   When the floor can be specified, the depth calculation unit 84 is installed with the above-described Equation 5, the ratio of the detected vertical field angle of the floor, and the indoor unit 1. Based on the height h, the depth to the wall facing the indoor unit 1 and the distance to the corner can be calculated. Further, the depth calculation unit 84 may learn the calculated depth, for example, calculate the distance from the depth and the direction of the corner to the corner by using the distance obtained by averaging the latest 10 detection results as the depth. .

また、人体検出部30により検出された人体の位置に基づいて、奥行き算出部84は、空間のコーナーの位置及び方向を検出してもよい。具体的には、奥行き算出部84は、人体検出部30によって検出された人体のうち、最も左側の人体の位置を左側の壁の位置と仮定し、最も右側の人体の位置を右側の壁の位置と仮定し、最も正面方向に遠い人体の位置を正面の壁の位置と仮定し、さらに、これらの仮定された壁の位置の組み合わせによりコーナーを特定する。   Further, based on the position of the human body detected by the human body detection unit 30, the depth calculation unit 84 may detect the position and direction of the corner of the space. Specifically, the depth calculation unit 84 assumes that the position of the leftmost human body among the human bodies detected by the human body detection unit 30 is the position of the left wall, and the position of the rightmost human body is the position of the right wall. Assuming the position, the position of the human body farthest in the front direction is assumed to be the position of the front wall, and the corner is specified by a combination of these assumed wall positions.

さらに、奥行き算出部84は、特定されたコーナーの位置又は方向を学習し、例えば、最新の10回分の特定結果を平均した位置又は方向をコーナーの位置又は方向に決定してもよい。   Furthermore, the depth calculation unit 84 may learn the position or direction of the identified corner, and may determine, for example, the position or direction obtained by averaging the latest 10 specific results as the corner position or direction.

また、温度マトリクス検出部31により検出された室内の表面温度に基づき、奥行き算出部84は、空間のコーナーの位置及び方向を検出してもよい。具体的には、室内温度と表面温度との差に基づいて壁の位置を特定し、さらに、特定された壁の位置に基づいてコーナーの位置又は方向を特定する。   Further, based on the indoor surface temperature detected by the temperature matrix detection unit 31, the depth calculation unit 84 may detect the position and direction of the corner of the space. Specifically, the position of the wall is specified based on the difference between the room temperature and the surface temperature, and further, the position or direction of the corner is specified based on the specified wall position.

さらに、奥行き算出部84は、撮像部26により撮像された画像に基づいて求められたコーナーまでの距離及び方向等と、人体検出部30の検出結果に基づいて求められたコーナーまでの距離及び方向等と、温度マトリクス検出部31の検出結果に基づいて求められたコーナーまでの距離及び方向等との統計値を算出し、算出された統計値を、コーナーまでの距離及び方向に決定してもよい。ここでの統計値は、例えば、平均値、最大値又は最小値でもよい。   Further, the depth calculation unit 84 is configured to determine the distance and direction to the corner determined based on the image captured by the imaging unit 26, and the distance and direction to the corner determined based on the detection result of the human body detection unit 30. Etc., and the statistical values of the distance and direction to the corner obtained based on the detection result of the temperature matrix detection unit 31 are calculated, and the calculated statistical value is determined as the distance and direction to the corner. Good. The statistical value here may be, for example, an average value, a maximum value, or a minimum value.

さらに、空間検出部29が、室内機1の据付位置を撮像部26が撮像した画像を用いて推定し、推定された据付位置に基づいて、制御部7が風向を調節してもよい。例えば、正面33において撮像された画像における交点が右側に偏っている場合、空間検出部29は、室内機1の右34側に偏って据え付けられていると推定してもよい。そして、推定結果に従って、制御部7は、左32方向に風を送るように室内機1及び室外機2が備える装置を制御してもよい。   Furthermore, the space detection unit 29 may estimate the installation position of the indoor unit 1 using the image captured by the imaging unit 26, and the control unit 7 may adjust the wind direction based on the estimated installation position. For example, when the intersection in the image captured on the front surface 33 is biased to the right side, the space detection unit 29 may be estimated to be biased and installed on the right 34 side of the indoor unit 1. And according to an estimation result, the control part 7 may control the apparatus with which the indoor unit 1 and the outdoor unit 2 are provided so that a wind may be sent to 32 directions on the left.

なお、前述の室内機1は部屋の天井側に設置され、撮像部26は室内機1の下部に設置された。しかし、本実施例の撮像部26は、室内を広く撮像できれば、いずれの方向を向いて設置されてもよく、例えば、室内機1が床に近接して設置される場合、撮像部26のレンズは室内機1の上部に設置されてもよい。   The indoor unit 1 described above was installed on the ceiling side of the room, and the imaging unit 26 was installed in the lower part of the indoor unit 1. However, the imaging unit 26 of the present embodiment may be installed in any direction as long as the room can be imaged widely. For example, when the indoor unit 1 is installed close to the floor, the lens of the imaging unit 26 May be installed in the upper part of the indoor unit 1.

そして、室内機1が部屋の下部に設置される場合、奥行き算出部84は、室内機1から天井側のコーナーまでの距離を算出してもよい。奥行き算出部84は、天井側のコーナーまでの距離を、式5を用いて算出し、この場合、撮像部26の上下の画角は45°であり、高さhは室内機1から天井までの高さであり、長さaは水平面から天井側の消失点までの長さであり、長さ(a+b)は画像の縦の長さである。   When the indoor unit 1 is installed in the lower part of the room, the depth calculation unit 84 may calculate the distance from the indoor unit 1 to the corner on the ceiling side. The depth calculation unit 84 calculates the distance to the corner on the ceiling side using Equation 5, and in this case, the vertical angle of view of the imaging unit 26 is 45 °, and the height h is from the indoor unit 1 to the ceiling. The length a is the length from the horizontal plane to the vanishing point on the ceiling side, and the length (a + b) is the vertical length of the image.

実施例2によれば、検出部5が室内の間取り(コーナーの位置(距離、方向)、奥行き等)を適切に取得できるため、実施例2に制御部7は、室内の形状及び大きさ(間取り)にあわせて風量又は風向を適切に調節することができる。この結果、実施例2の空気調和機を、室内を快適な状態に調節することができる。   According to the second embodiment, since the detection unit 5 can appropriately acquire the room layout (corner position (distance, direction), depth, etc.), the control unit 7 according to the second embodiment has a shape and size of the room ( The air volume or direction can be adjusted appropriately according to the floor plan. As a result, the air conditioner of Example 2 can be adjusted to a comfortable state in the room.

また、実施例2の歪み除去部290によって歪みを除去された画像を用いて間取りを検出することによって、例えば広角レンズを有する撮像部26が広角画像を撮像した場合にも、狭い視野角の画像では映らなかった梁等を正確に検出することが可能となる。   Further, by detecting the floor plan using the image from which the distortion is removed by the distortion removing unit 290 according to the second embodiment, for example, even when the imaging unit 26 having a wide-angle lens captures a wide-angle image, an image with a narrow viewing angle is obtained. Thus, it becomes possible to accurately detect beams and the like that were not reflected.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。   In addition, this invention is not limited to an above-described Example, Various modifications are included.

例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除又は置き換えをすることが可能である。   For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. In addition, it is possible to add, delete, or replace another configuration for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手順は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル又はファイル等の情報は、メモリ、ハードディスク若しくはSSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、若しくはDVD等の記録媒体に置くことができる。   In addition, each of the above-described configurations, functions, processing units, and processing procedures may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as a program, a table, or a file that realizes each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられる物を示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate objects that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1 室内機
2 室外機
3 リモコン
4 センサ
5 検出部
7 制御部
11 電装品
26 撮像部
27 温度検出部
29 空間検出部
30 人体検出部
31 温度マトリクス検出部
DESCRIPTION OF SYMBOLS 1 Indoor unit 2 Outdoor unit 3 Remote control 4 Sensor 5 Detection part 7 Control part 11 Electrical component 26 Imaging part 27 Temperature detection part 29 Space detection part 30 Human body detection part 31 Temperature matrix detection part

Claims (6)

空気調和機であって、
室内の画像を撮像する撮像部と、
前記撮像された画像を記憶する記憶部と、
前記撮像した画像の中から歪みを除去する領域を特定し、前記特定された領域を変換する変換部と、
前記変換された領域を含む画像に基づいて前記室内の特徴を検出する検出部と、
前記検出部によって検出された室内の特徴に基づいて、前記室内へ送る風量又は風向を調節する制御部と、を備えることを特徴とする空気調和機。
An air conditioner,
An imaging unit that captures an indoor image;
A storage unit for storing the captured image;
A region for removing distortion from the captured image, and a conversion unit for converting the specified region;
A detection unit that detects features in the room based on an image including the converted area;
An air conditioner, comprising: a control unit that adjusts an amount or direction of air sent to the room based on the indoor characteristic detected by the detection unit.
請求項1に記載の空気調和機であって、
前記変換部は、前記特定された領域から歪みを除去した平面化領域を生成することによって、前記特定された領域を変換することを特徴とすることを特徴とする空気調和機。
The air conditioner according to claim 1,
The air conditioner characterized in that the conversion unit converts the specified area by generating a planarized area from which distortion is removed from the specified area.
請求項2に記載の空気調和機であって、
前記変換部は、正像変換部及び補間処理部を用いて画像変換し、
前記正像変換部は、前記特定された領域における対応点を正像変換することにより、前記平面化領域における対応点に変換し、
前記補間処理部は、前記平面化領域における対応点の周辺の画素を、キュービック補間することにより、前記平面化領域の画素を生成することを特徴とする空気調和機。
The air conditioner according to claim 2,
The conversion unit performs image conversion using a normal image conversion unit and an interpolation processing unit,
The normal image conversion unit converts the corresponding point in the specified area into a corresponding point in the planarized area by performing a normal image conversion,
The air conditioner, wherein the interpolation processing unit generates pixels in the planarization region by performing cubic interpolation on pixels around corresponding points in the planarization region.
請求項1に記載の空気調和機であって、
前記撮像部は、前記室内の複数の画像を撮像し、
前記空気調和機は、前記複数の画像の差の領域を特定する差分特定部を、さらに有し、
前記変換部は、前記特定された差の領域を、前記歪みを除去する領域として特定することを特徴とする空気調和機。
The air conditioner according to claim 1,
The imaging unit captures a plurality of images in the room,
The air conditioner further includes a difference specifying unit that specifies a difference area between the plurality of images,
The said conversion part specifies the area | region of the specified difference as an area | region which removes the said distortion, The air conditioner characterized by the above-mentioned.
請求項1に記載の空気調和機であって、
前記撮像部は、前記室内を撮像することによって第1の画像を取得し、前記第1の画像を取得した後、前記室内を撮像することによって第2の画像を取得し、
前記検出部は、前記第1の画像と前記第2の画像との差の領域を少なくとも一つ特定することによって、部屋の間仕切りを含む領域を検出し、前記第2の画像における前記検出された領域の複雑度を算出することによって、前記検出された領域に含まれる間仕切りが前記第2の画像において開いている状態であるか閉じている状態であるかを前記室内の特徴として検出することを特徴とする空気調和機。
The air conditioner according to claim 1,
The imaging unit acquires a first image by imaging the room, acquires the first image, and then acquires a second image by imaging the room;
The detection unit detects an area including a room partition by specifying at least one difference area between the first image and the second image, and detects the detected area in the second image. By calculating the complexity of the area, detecting whether the partition included in the detected area is in an open state or a closed state in the second image as an indoor feature. A featured air conditioner.
請求項1に記載の空気調和機であって、
前記撮像部は、150度の横幅の視野角を有する広角レンズによって、前記画像を撮像することを特徴とする空気調和機。
The air conditioner according to claim 1,
The air conditioner characterized in that the image pickup unit picks up the image with a wide-angle lens having a horizontal viewing angle of 150 degrees.
JP2015179793A 2015-09-11 2015-09-11 Air conditioner Pending JP2017053603A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179793A JP2017053603A (en) 2015-09-11 2015-09-11 Air conditioner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179793A JP2017053603A (en) 2015-09-11 2015-09-11 Air conditioner

Publications (1)

Publication Number Publication Date
JP2017053603A true JP2017053603A (en) 2017-03-16

Family

ID=58320573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179793A Pending JP2017053603A (en) 2015-09-11 2015-09-11 Air conditioner

Country Status (1)

Country Link
JP (1) JP2017053603A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107726560A (en) * 2017-09-30 2018-02-23 珠海格力电器股份有限公司 A kind of image capture device, air conditioner and its control method
CN108954709A (en) * 2018-06-29 2018-12-07 广东美的制冷设备有限公司 Control method, device and the apparatus of air conditioning of the apparatus of air conditioning
CN110370895A (en) * 2019-06-28 2019-10-25 三一重机有限公司 Excavator air-out control method, device and excavator
WO2019221244A1 (en) * 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 Object sensing system, sensor system, air conditioning system, object sensing method, and program
WO2020003416A1 (en) * 2018-06-27 2020-01-02 三菱電機株式会社 Air-conditioning device, air-conditioning system, and temperature measurement method
CN113531816A (en) * 2020-04-21 2021-10-22 青岛海尔空调器有限总公司 Air supply control method and system of air conditioner
CN114543295A (en) * 2020-11-11 2022-05-27 东元电机股份有限公司 Intelligent air conditioning system and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107726560A (en) * 2017-09-30 2018-02-23 珠海格力电器股份有限公司 A kind of image capture device, air conditioner and its control method
CN107726560B (en) * 2017-09-30 2024-01-30 珠海格力电器股份有限公司 Image acquisition equipment, air conditioner and control method of air conditioner
JP7228767B2 (en) 2018-05-16 2023-02-27 パナソニックIpマネジメント株式会社 SENSOR SYSTEM, AIR CONDITIONING SYSTEM, OBJECT DETECTION METHOD AND PROGRAM
WO2019221244A1 (en) * 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 Object sensing system, sensor system, air conditioning system, object sensing method, and program
JPWO2019221244A1 (en) * 2018-05-16 2021-05-27 パナソニックIpマネジメント株式会社 Object detection system, sensor system, air conditioning system, object detection method and program
CN112105964A (en) * 2018-05-16 2020-12-18 松下知识产权经营株式会社 Object detection system, sensor system, air conditioning system, object detection method, and program
JPWO2020003416A1 (en) * 2018-06-27 2020-12-17 三菱電機株式会社 Air conditioner, air conditioner system and temperature measurement method
WO2020003416A1 (en) * 2018-06-27 2020-01-02 三菱電機株式会社 Air-conditioning device, air-conditioning system, and temperature measurement method
WO2020000554A1 (en) * 2018-06-29 2020-01-02 广东美的制冷设备有限公司 Control method and device for air conditioning apparatus, and air conditioning apparatus
CN108954709A (en) * 2018-06-29 2018-12-07 广东美的制冷设备有限公司 Control method, device and the apparatus of air conditioning of the apparatus of air conditioning
CN110370895A (en) * 2019-06-28 2019-10-25 三一重机有限公司 Excavator air-out control method, device and excavator
CN113531816A (en) * 2020-04-21 2021-10-22 青岛海尔空调器有限总公司 Air supply control method and system of air conditioner
CN114543295A (en) * 2020-11-11 2022-05-27 东元电机股份有限公司 Intelligent air conditioning system and method
CN114543295B (en) * 2020-11-11 2023-07-25 东元电机股份有限公司 Intelligent air conditioning system and method

Similar Documents

Publication Publication Date Title
JP2017053603A (en) Air conditioner
JP5789760B2 (en) Air conditioner
KR102121785B1 (en) Air-conditioner controlling direction of the wind using artificial intelligence by instructed position and method of controlling thereof
JP5815490B2 (en) Air conditioner
JP2010190432A (en) Spatial recognition device and air conditioner
JP5294801B2 (en) Air conditioner
KR101980906B1 (en) Air conditioner and controlling method of the same
CN106196276A (en) Air conditioner
JP2016156507A (en) Air conditioner
JP5958462B2 (en) Imaging apparatus, imaging method, and program
JP2015137836A (en) Air conditioner and indoor unit of the same
JP2015052431A (en) Indoor unit of air conditioner, and air conditioner
KR20090087366A (en) Air conditioner and controlling method thereof
JP2015190666A (en) Indoor machine of air conditioning machine, and air conditioning machine using the same
JP2010266169A (en) Air-conditioning control device
JP2015055384A (en) Air conditioner
JP2015048956A (en) Air conditioner
JP2008250444A (en) Face detection device, face detection method, and face detection program
JP2016017707A (en) Air conditioning system
JP2010216713A (en) Air conditioner
JP6068301B2 (en) Air conditioner
JP6953753B2 (en) Air conditioner system
CN112696372A (en) Fan adjusting method, fan and storage medium
KR20090087364A (en) Air conditioner and controlling method thereof
JP2011080742A (en) Air conditioner

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171011