WO2011043054A1 - 空気調和機 - Google Patents

空気調和機 Download PDF

Info

Publication number
WO2011043054A1
WO2011043054A1 PCT/JP2010/005946 JP2010005946W WO2011043054A1 WO 2011043054 A1 WO2011043054 A1 WO 2011043054A1 JP 2010005946 W JP2010005946 W JP 2010005946W WO 2011043054 A1 WO2011043054 A1 WO 2011043054A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
person
area
distance
indoor unit
Prior art date
Application number
PCT/JP2010/005946
Other languages
English (en)
French (fr)
Inventor
智 佐藤
寧 神野
恵子 岩本
智貴 森川
孝 杉尾
裕介 河野
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2011043054A1 publication Critical patent/WO2011043054A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F1/00Room units for air-conditioning, e.g. separate or self-contained units or units receiving primary air from a central station
    • F24F1/0007Indoor units, e.g. fan coil units
    • F24F1/0043Indoor units, e.g. fan coil units characterised by mounting arrangements
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • F24F11/46Improving electric energy efficiency or saving
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/79Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling the direction of the supplied air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • F24F2120/12Position of occupants

Definitions

  • the present invention relates to an air conditioner provided with an obstacle detection means for detecting the presence or absence of an obstacle in an indoor unit and controlling a wind direction changing blade based on a detection result of the obstacle detection means.
  • the conventional air conditioner is provided with a human position detecting means and an obstacle position detecting means in the indoor unit, and controls the air direction changing means based on the detection signals of both the human position detecting means and the obstacle position detecting means to improve the air conditioning efficiency. Has improved.
  • this air conditioner when heating operation starts, it is first determined whether there is a person in the room by the person position detecting means, and if there is no person, whether there is an obstacle by the obstacle position detecting means If there is no obstacle, the wind direction changing means is controlled so that the conditioned air spreads throughout the room.
  • the wind direction changing means is controlled in a direction in which there is no obstacle.
  • air conditioning is performed directly on the obstacle.
  • the wind direction changing means is controlled so that the wind does not hit and the conditioned air spreads throughout the room (for example, see Patent Document 1).
  • the present invention has been made in view of such problems of the prior art, and an air conditioner that can improve comfort or air conditioning efficiency by performing airflow control according to the height of an obstacle.
  • the purpose is to provide.
  • the present invention provides an obstacle detection means for detecting the presence or absence of an obstacle using an airflow change blade that changes the direction of air blown from an outlet and an imaging device in an indoor unit. And an air conditioner that performs air-conditioning operation by controlling the wind direction changing blade based on the detection result of the obstacle detection means, and at least three thresholds are provided at the height from the floor surface, and the obstacle is It is divided into at least two according to the height, and the wind direction changing blade is controlled according to the height of the obstacle.
  • the wind direction changing blade is controlled according to the height of the obstacle, the range of the air flow control is widened, and the comfort or the air conditioning efficiency can be improved.
  • FIG. 1 is a front view of an indoor unit of an air conditioner according to the present invention.
  • 2 is a longitudinal sectional view of the indoor unit of FIG. 3 is a longitudinal sectional view of the indoor unit of FIG. 1 with the movable front panel opening the front opening and the upper and lower blades opening the outlet.
  • 4 is a longitudinal sectional view of the indoor unit of FIG. 1 in a state where the lower blades constituting the upper and lower blades are set downward.
  • FIG. 5 is a flowchart showing the flow of the human position estimation process in this embodiment.
  • FIG. 6 is a schematic diagram for explaining background difference processing in human position estimation in the present embodiment.
  • FIG. 7 is a schematic diagram for explaining processing for creating a background image in background difference processing.
  • FIG. 8 is a schematic diagram for explaining processing for creating a background image in background difference processing.
  • FIG. 9 is a schematic diagram for explaining a process of creating a background image in the background difference process
  • FIG. 10 is a schematic diagram for explaining region division processing in human position estimation in the present embodiment.
  • FIG. 11 is a schematic diagram for explaining two coordinate systems used in this embodiment.
  • FIG. 12 is a schematic diagram showing the distance from the image sensor unit to the position of the center of gravity of the person.
  • FIG. 13 is a schematic diagram showing a human position determination area detected by the image sensor unit constituting the human body detection means.
  • FIG. 14 is a schematic diagram in the case where a person is present in the human position determination area detected by the imaging sensor unit constituting the human body detection means.
  • FIG. 15 is a flowchart for setting region characteristics in each region shown in FIG.
  • FIG. 16 is a flowchart for finally determining the presence or absence of a person in each area shown in FIG. 17 is a schematic plan view of a residence where the indoor unit of FIG. 1 is installed.
  • 18 is a graph showing the long-term cumulative result of each sensor unit in the residence of FIG. 19 is a schematic plan view of another residence in which the indoor unit of FIG. 1 is installed.
  • 20 is a graph showing the long-term cumulative result of each sensor unit in the residence of FIG.
  • FIG. 21 is a flowchart showing the flow of a human position estimation process using a process of extracting a person-like area from a frame image.
  • FIG. 22 is a flowchart showing the flow of human position estimation processing using processing for extracting a face-like region from a frame image.
  • FIG. 23 is a schematic diagram showing an obstacle position determination area detected by the obstacle detection means.
  • FIG. 24 is a schematic diagram for explaining obstacle detection by the stereo method.
  • FIG. 25 is a flowchart showing the flow of processing for measuring the distance to the obstacle.
  • FIG. 26 is a schematic diagram showing the distance from the image sensor unit to the position P.
  • FIG. 27 is a schematic elevation view of the indoor unit installation space when the minimum and maximum parallax for detecting the presence or absence of an obstacle is set according to the distance from the indoor unit.
  • FIG. 28 is a schematic elevation view of the indoor unit installation space when the minimum and maximum parallaxes when the installation height of the indoor unit is low are set according to the distance from the indoor unit.
  • FIG. 29 is a schematic elevation view of the indoor unit installation space when the minimum / maximum parallax when the installation height of the indoor unit is high is set according to the distance from the indoor unit
  • FIG. 30 is another schematic elevation view of the indoor unit installation space when the minimum and maximum parallax for detecting high obstacles and the minimum and maximum parallax for detecting low obstacles are set in the short-distance area.
  • FIG. 29 is a schematic elevation view of the indoor unit installation space when the minimum / maximum parallax when the installation height of the indoor unit is high is set according to the distance from the indoor unit
  • FIG. 30 is another schematic elevation view of the indoor unit installation space when the minimum and maximum parallax for detecting high obstacles and the minimum and maximum parallax for detecting low obstacles are set in the short-distance area.
  • FIG. 31 is still another schematic elevation view of the indoor unit installation space when the minimum and maximum parallax for high obstacle detection and the minimum and maximum parallax for low obstacle detection are set in the short-distance area.
  • FIG. 32 is a schematic elevation view of the indoor unit installation space when the minimum / maximum parallax for high obstacle detection and the minimum / maximum parallax for low obstacle detection are set in the short-distance area when the installation height of the indoor unit is low.
  • FIG. 33 shows another schematic diagram of the indoor unit installation space when the minimum / maximum parallax for high obstacle detection and the minimum / maximum parallax for low obstacle detection are set in the short-distance area when the installation height of the indoor unit is high. Area FIG.
  • FIG. 34 is a flowchart showing learning control for obstacle detection.
  • FIG. 35 is a flowchart showing a modification of the obstacle detection learning control.
  • FIG. 36 is a schematic diagram showing the definition of the wind direction at each position of the left and right blades constituting the left and right blades.
  • FIG. 37 is a front view of another indoor unit of an air conditioner according to the present invention.
  • FIG. 38 is a schematic diagram showing the relationship between the image sensor unit and the light projecting unit.
  • FIG. 39 is a flowchart showing the flow of processing for measuring the distance to an obstacle using the light projecting unit and the image sensor unit.
  • FIG. 40 is a front view of another indoor unit of an air conditioner according to the present invention.
  • FIG. 40 is a front view of another indoor unit of an air conditioner according to the present invention.
  • FIG. 41 is a flowchart showing the flow of processing of the human body distance detecting means using the human body detecting means.
  • FIG. 42 is a schematic diagram for explaining the process of estimating the distance from the image sensor unit to the person using v1, which is the v coordinate at the top of the image.
  • FIG. 43 is a flowchart showing the processing flow of the obstacle detection means using the human body detection means.
  • FIG. 44 is a schematic diagram for explaining the process of estimating the height v2 of the person on the image using the distance information from the imaging sensor unit to the person estimated by the human body distance detecting means.
  • FIG. 45 is a schematic diagram for explaining processing for estimating whether an obstacle exists between the image sensor unit and a person.
  • FIG. 46 is a schematic diagram for explaining processing for estimating whether an obstacle exists between the image sensor unit and a person.
  • 1st invention provides an indoor unit with the wind direction change blade
  • An air conditioner that performs air-conditioning operation by controlling the wind direction change blade based on the detection result of the object detection means, and classifies the obstacle into at least two according to the height from the floor, and the height
  • the wind direction changing blade is controlled according to the above.
  • This configuration broadens the range of airflow control and can improve comfort or air conditioning efficiency.
  • the second invention is such that the number of obstacle heights varies depending on the distance from the indoor unit, and the number of regions in which the air flow control is particularly affected is increased, and the number of regions in the region having less influence is increased.
  • the memory used can be reduced by reducing.
  • the third aspect of the invention increases the number of obstacles in the area closer to the indoor unit, and can achieve comfortable air conditioning in the area close to the indoor unit that is susceptible to airflow control.
  • the pixels of the imaging device determined by the vertical angle and the horizontal angle as viewed from the indoor unit are set in the indoor unit installation space.
  • the width of the air flow control is further expanded, and comfort or air conditioning efficiency is improved. Can do.
  • FIGS. 1 to 4 show the indoor unit of an air conditioner according to the present invention. ing.
  • the indoor unit has a main body 2 and a movable front panel (hereinafter simply referred to as “front panel”) 4 that can freely open and close the front opening 2a of the main body 2.
  • front panel a movable front panel
  • FIGS. 3 and 4 show a state where the front panel 4 opens the front opening 2a.
  • a heat exchanger 6 that exchanges heat between indoor air taken in from the front opening 2 a and the top opening 2 b, and heat exchange by the heat exchanger 6
  • the indoor fan 8 for transporting the air that has been transported, and the up-and-down air direction change blades (hereinafter simply referred to as “ (Upper and lower blades) 12 and left and right wind direction changing blades (hereinafter simply referred to as “left and right blades”) 14 for changing the air blowing direction to the left and right, and heat exchange with the front opening 2a and the upper opening 2b
  • a filter 16 for removing dust contained in room air taken from the front opening 2a and the top opening 2b is provided between the container 6 and the container 6.
  • the upper part of the front panel 4 is connected to the upper part of the main body 2 via two arms 18 and 20 provided at both ends thereof, and a drive motor (not shown) connected to the arm 18 is driven and controlled.
  • a drive motor (not shown) connected to the arm 18 is driven and controlled.
  • the upper and lower blades 12 are composed of an upper blade 12a and a lower blade 12b, and are respectively swingably attached to the lower portion of the main body 2.
  • the upper blade 12a and the lower blade 12b are connected to separate driving sources (for example, stepping motors), and are independently angle-controlled by a control device (for example, a microcomputer) built in the indoor unit.
  • a control device for example, a microcomputer
  • the upper and lower blades 12 can be composed of three or more upper and lower blades. In this case, at least two (particularly, the uppermost blade and the lowermost blade) can be independently angle-controlled. Is preferred.
  • the left and right blades 14 are composed of a total of 10 blades arranged five by left and right from the center of the indoor unit, and are respectively swingably attached to the lower part of the main body 2.
  • the left and right five blades are connected to separate drive sources (for example, stepping motors) as a unit, and the left and right five blades are independently angle-controlled by a control device built in the indoor unit. .
  • a method for driving the left and right blades 14 will also be described later.
  • an imaging sensor unit 24 is attached to the upper portion of the front panel 4 as an imaging device.
  • the imaging sensor unit 24 has a sensor holder (see FIG. 3 and FIG. 4). (Not shown).
  • the imaging sensor unit 24 includes a circuit board, a lens attached to the circuit board, and an imaging sensor mounted inside the lens. Further, the human body detecting means determines the presence or absence of a person by a circuit board based on, for example, a difference process described later. That is, the circuit board acts as presence / absence determination means for determining the presence / absence of a person.
  • ⁇ Human position estimation by human body detection means> In order to estimate the human position by the image sensor unit 24, a difference method which is a known technique is used. This is to perform a difference process between a background image that is an image in which no person is present and an image captured by the image sensor unit 24, and to estimate that a person is present in a region where the difference is generated.
  • FIG. 5 is a flowchart showing the flow of human position estimation processing in the present embodiment.
  • a background difference process is used to detect pixels that have a difference in the frame image.
  • Background difference processing is a comparison between a background image captured under a specific condition and a captured image captured under the same imaging conditions such as the background image and the field of view, viewpoint, and focal length of the imaging sensor unit 24. This is a technique for detecting an object that does not exist in the image but exists in the captured image. In order to detect a person, an image without a person is created as a background image.
  • FIG. 6 is a schematic diagram for explaining the background difference processing.
  • FIG. 6A shows a background image.
  • the visual field is set to be substantially equal to the air-conditioned space of the air conditioner.
  • 101 indicates a window existing in the air-conditioned space
  • 102 indicates a door.
  • FIG. 6B shows a frame image captured by the image sensor unit.
  • the field of view, the viewpoint, the focal length, and the like of the image sensor unit 24 are equal to the background image of FIG.
  • Reference numeral 103 denotes a person existing in the air-conditioned space.
  • FIGS. 6A and 6B shows a difference image.
  • White pixels indicate pixels where no difference exists, and black pixels indicate pixels where a difference occurs. It can be seen that the area of the person 103 that is not present in the background image but is present in the captured frame image is detected as the area 104 where the difference occurs. That is, it is possible to detect a person area by extracting an area where a difference is generated from the difference image.
  • FIGS. 7A to 7C are schematic diagrams showing three consecutive frames of images taken by the imaging sensor unit 24 in a scene in which the person 103 is moving from right to left in front of the window 101.
  • FIG. is there.
  • FIG. 7B shows an image of the next frame of FIG. 7A
  • FIG. 7C shows an image of the next frame of FIG. 7B.
  • 8A to 8C show inter-frame difference images obtained by performing inter-frame difference processing using the image of FIG.
  • White pixels indicate pixels where no difference exists
  • black pixels 105 indicate pixels where a difference occurs.
  • FIGS. 9A to 9C are diagrams schematically showing the update of the background image in each frame of FIGS. 7A to 7C.
  • a hatched area 106 indicates an area where the background image has been updated
  • a black area 107 indicates an area where a background image has not yet been created
  • a white area 108 indicates an area where the background image has not been updated. That is, the total area of the black area 107 and the white area 108 in FIG. 9 is equal to the black area in FIG.
  • the black area 107 is gradually reduced and a background image is automatically created.
  • step S102 the obtained difference area is divided into areas, and if there are a plurality of persons, the difference areas are divided into a plurality of difference areas.
  • the difference image is determined according to the rule that “the pixel in which the difference occurs and the pixel in which the difference exists in the vicinity are the same region”. Can be divided into regions.
  • FIG. 10 is a schematic diagram in which this area division processing is executed.
  • FIG. 10A shows a difference image calculated by the difference process, and black pixels 111 and 112 are pixels in which a difference occurs.
  • FIG. 10B shows that when FIG.
  • step S103 the position of the detected person is detected by calculating the position of the center of gravity of each obtained area.
  • perspective projection conversion may be used.
  • FIG. 11 is a schematic diagram for explaining two coordinate systems.
  • the image coordinate system This is a two-dimensional coordinate system in the captured image, where the upper left pixel of the image is the origin, u is rightward, and v is downward.
  • a camera coordinate system which is a three-dimensional coordinate system based on the camera. In this case, the focal position of the image sensor unit is the origin, the optical axis direction of the image sensor unit 24 is Zc, the camera upward direction is Yc, and the camera left direction is Xc.
  • the focal position of the image sensor unit is the origin
  • the optical axis direction of the image sensor unit 24 is Zc
  • the camera upward direction is Yc
  • the camera left direction is Xc.
  • f is the focal length [mm]
  • (u0, v0) is the image center [Pixel] on the image coordinates
  • (dpx, dpy) is the size [mm / Pixel] of one pixel of the image sensor.
  • FIGS. 12A and 12B the center of gravity position of the person on the image is (ug, vg), and the three-dimensional position in the camera coordinate system is (Xgc, Ygc, Zgc).
  • FIG. 12A is a schematic view of the air-conditioned space viewed from the side
  • FIG. 12B is a schematic view of the air-conditioned space viewed from above.
  • H the height at which the image sensor unit is installed
  • the Xc direction is equal to the horizontal direction
  • the optical axis Zc is installed at an angle ⁇ from the vertical direction.
  • the direction in which the image sensor unit 24 is facing is measured in a vertical direction (elevation angle, an angle measured upward from the vertical line) ⁇ and a horizontal angle (rightward from the front reference line as viewed from the indoor unit). Angle) ⁇ . Furthermore, when the height of the center of gravity of the person is h, the distance L from the imaging sensor unit 24 to the center of gravity position and the direction W, which are three-dimensional positions in the air-conditioned space, can be calculated by the following equations.
  • Equations 3 and 5 are When the installed height H and the height h of the center of gravity of the person are defined, the center of gravity position (L, W) of the person in the air-conditioned space is uniquely determined from the center of gravity position (ug, vg) on the screen. It shows that it is required.
  • FIGS. 13A and 13B show in which area in the air-conditioned space a person exists when the center of gravity position on the image exists in each of the areas A to G.
  • FIGS. 14A and 14B are schematic diagrams when a person is present. In FIG.
  • FIG. 15 is a flowchart for setting region characteristics to be described later in each of the regions A to G using the image sensor unit 24.
  • FIG. 16 illustrates which of the regions A to G using the image sensor unit. It is a flowchart for determining whether or not there is a person in an area, and a person position determination method will be described below with reference to these flowcharts.
  • step S1 the presence or absence of a person in each area is first determined by the above-described method at a predetermined cycle T1 (for example, 200 milliseconds if the frame rate of the image sensor unit 24 is 5 fps).
  • a predetermined cycle T1 for example, 200 milliseconds if the frame rate of the image sensor unit 24 is 5 fps.
  • each of the areas A to G is divided into a first area where the person is good (a place where the person is good) and a second area where the person is short (the area where the person simply passes, and the stay time is short). And a third area (a non-living area such as a wall or a window where people hardly go).
  • the first region, the second region, and the third region are referred to as a life category I, a life category II, and a life category III, respectively, and the life category I, the life category II, and the life category III are respectively a region characteristic I. It can also be said that the region of region characteristic II, region of region characteristic II, region of region characteristic III.
  • the life category I (region characteristic I) and the life category II (region characteristic II) are combined into a life region (region where people live), while the life category III (region characteristic III) is changed to a non-life region (
  • the area of life may be broadly classified according to the frequency of the presence or absence of a person.
  • FIG. 17 shows a case where the indoor unit of the air conditioner according to the present invention is installed in an LD of 1 LDK composed of one Japanese-style room, LD (living room / dining room) and kitchen, and is indicated by an ellipse in FIG. The area shows the well-placed place where the subject reported.
  • the presence / absence of a person in each of the regions A to G is determined every period T1, and 1 (with a reaction) or 0 (without a reaction) is output as a reaction result (determination) in the period T1, Is repeated a plurality of times, and in step S2, all sensor outputs are cleared.
  • step S3 it is determined whether or not the cumulative operation time of the predetermined air conditioner has elapsed. If it is determined in step S3 that the predetermined time has not elapsed, the process returns to step S1. On the other hand, if it is determined that the predetermined time has elapsed, the reaction results accumulated in the predetermined time in each of the regions A to G are two. Each region A to G is identified as one of the life categories I to III by comparing with the threshold value.
  • the first threshold value and the second threshold value smaller than the first threshold value are set, and in step S4, the long-term accumulation results of the respective regions A to G are obtained. It is determined whether or not it is greater than the first threshold value, and the region determined to be greater is determined to be the life category I in step S5. If it is determined in step S4 that the long-term accumulation result of each region A to G is less than the first threshold value, whether or not the long-term accumulation result of each region A to G is greater than the second threshold value in step S6.
  • the region determined to be large is determined to be the life category II in step S7, while the region determined to be small is determined to be the life category III in step S8.
  • the areas C, D, and G are determined as the life category I
  • the areas B and F are determined as the life category II
  • the areas A and E are determined as the life category III.
  • FIG. 19 shows a case where the indoor unit of the air conditioner according to the present invention is installed in another LD of 1 LDK, and FIG. 20 discriminates each region A to G based on the long-term accumulation result in this case. Results are shown.
  • the areas B, C, and E are determined as the life category I
  • the areas A and F are determined as the life category II
  • the areas D and G are determined as the life category III.
  • step S23 it is determined whether or not a predetermined number M (for example, 45 times) of reaction results in the cycle T1 has been obtained. If it is determined that the cycle T1 has not reached the predetermined number M, the process returns to step S21. If it is determined that the period T1 has reached the predetermined number M, in step S24, the total number of reaction results in the period T1 ⁇ M is used as the cumulative reaction period number, and the cumulative reaction period number for one time is calculated.
  • a predetermined number M for example, 45 times
  • step S27 by subtracting 1 from the number of times (N) of cumulative reaction period calculations and returning to step S21, the calculation of the cumulative reaction period number for a predetermined number of times is repeatedly performed.
  • Table 1 shows a history of reaction results for the latest one time (time T1 ⁇ M).
  • ⁇ A0 means the number of cumulative reaction periods for one time in the region A.
  • the cumulative reaction period number of one time immediately before ⁇ A0 is ⁇ A1
  • the previous cumulative reaction period number of ⁇ A0 is ⁇ A2,...
  • N 4
  • the past four history ( ⁇ A4, ⁇ A3 , .SIGMA.A2, .SIGMA.A1), for life category I it is determined that there is a person if the cumulative reaction period is one or more.
  • life category II it is determined that there is a person if the cumulative reaction period of one or more times is two or more in the past four history
  • life category III the past four history Among them, if the cumulative reaction period number of 2 times or more is 3 times or more, it is determined that there is a person.
  • the presence / absence of the person is similarly estimated from the past four histories, life categories, and cumulative reaction period times.
  • the region characteristics obtained by accumulating the region determination results for each predetermined period for a long period of time and the region determination results for each predetermined cycle are accumulated N times, and the cumulative reaction of each region obtained is obtained.
  • the area characteristics of each area A to G (life classification I to III) is determined, and the time required for presence estimation and the time required for absence estimation are changed according to the region characteristics of the regions A to G.
  • the time required for estimating the presence / absence of the area determined as the life category II as a standard in the area determined as the life category I, there is a person at a shorter time interval than the area determined as the life category II. In contrast, when there are no people in the area, the absence of the person is estimated at a longer time interval than the area determined as the life category II.
  • the time required for estimation is set to be long.
  • the presence of a person is estimated at a longer time interval than the area determined to be life category II.
  • the difference method is used for human position estimation by the image sensor unit, but other methods may be used as a matter of course.
  • a person-like region may be extracted from the frame image using image data of the whole body of the person.
  • a technique using a HOG (Histograms of Oriented Gradients) feature amount or the like is widely known (N. Dalal and B. Triggs, “Histograms of Oriented Gradients for Proc. IEEE Conf. On Computer Vision and Pattern Recognition, Vol.1, pp.886-893, 2005.).
  • HOG Heistograms of Oriented Gradients
  • SVM Serial Vector Machine
  • FIG. 21 is a flowchart showing the flow of the human position estimation process using the process of extracting a human-like area from the frame image.
  • the same steps as those in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • step S104 a human-like area is extracted as a human area in the frame image by using the HOG feature amount described above.
  • step S103 the position of the detected person is detected by calculating the position of the center of gravity of the obtained human area.
  • Equations 3 and 5 may be used as described above.
  • a face-like area may be extracted from the frame image.
  • a method using Haar-Like features is widely known (P. Viola and M. Jones, “Robust real-time face detection”, International Journal of Computer Vision, .57, no.2, pp.137-154, 2004.).
  • the Haar-Like feature amount is a feature amount focusing on the luminance difference between local regions, and this feature amount is learned and identified by SVM (Support Vector Machine) or the like to detect a person region from a frame image. It doesn't matter.
  • FIG. 22 is a flowchart showing a flow of a human position estimation process using a process of extracting a face-like area from a frame image.
  • the same steps as those in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • step S105 a face-like area is extracted as a face area in the frame image by using the Haar-Like feature amount described above.
  • step S103 the position of the detected person is detected by calculating the position of the center of gravity of the obtained face area.
  • perspective projection conversion may be used.
  • the obstacle detection means for detecting an obstacle using the above-described imaging sensor unit 24 will be described.
  • the term “obstacle” refers to all objects that are blown out from the air outlet 10 of the indoor unit and impede the flow of air to provide a comfortable space for residents. It is a collective term for non-residents such as furniture such as sofas, televisions, and audio.
  • the floor surface of the living space is subdivided as shown in FIG. 23 based on the vertical angle ⁇ and the horizontal angle ⁇ as shown in FIG.
  • Each of these areas is defined as an obstacle position determination area or “position” to determine in which position an obstacle exists.
  • all the positions shown in FIG. 23 substantially coincide with the whole area of the human position determination area shown in FIG. 13B, and the area boundary in FIG. 13B substantially coincides with the position boundary in FIG.
  • air conditioning control described later can be easily performed, and the memory to be stored is reduced as much as possible.
  • the number of position areas is set larger than the number of areas of the human position determination area, and at least two positions belong to each of the human position determination areas, and these at least two obstacle position determinations.
  • the air conditioning control can be performed by dividing the area so that at least one position belongs to each person position determination area.
  • each of the plurality of person position determination areas is divided according to the distance to the indoor unit, and the number of areas belonging to the person position determination area in the near area is determined as the person position determination in the far area.
  • the number of positions belonging to the area is set to be larger than the number of areas belonging to the area, but the number of positions belonging to each person position determination area may be the same regardless of the distance from the indoor unit.
  • the air conditioner according to the present invention detects the presence or absence of a person in the regions A to G by the human body detection means, and detects the presence or absence of an obstacle in the positions A1 to G2 by the obstacle detection means. Based on the detection signal (detection result) of the human body detection means and the detection signal (detection result) of the obstacle detection means, the comfortable space is provided by driving and controlling the upper and lower blades 12 and the left and right blades 14 as the wind direction changing means. I am doing so.
  • the human body detection means can detect the presence or absence of a person by using an object that moves, for example, by detecting an object that moves in the air-conditioned space. Since the distance between the obstacles is detected by the image sensor unit 24, the person and the obstacle cannot be distinguished.
  • the area where the person is located may not be air-conditioned, or the person may be directly conditioned by air-conditioning airflow (airflow), resulting in inefficient air conditioning control or discomfort to the person. There is a risk of air conditioning control.
  • the obstacle detection means detects the obstacle only by performing the data processing described below.
  • FIG. 24 is a schematic diagram for explaining obstacle detection by the stereo method.
  • the distance to a point P that is an obstacle is measured using the image sensor units 24 and 26.
  • f is the focal length
  • B is the distance between the focal points of the two image sensor units 24 and 26
  • u1 is the u coordinate of the obstacle on the image of the image sensor unit 24, and the image of the image sensor unit 26 of u1.
  • the u coordinate of the corresponding point in the above is u2
  • X is the distance from the image sensor unit to the point P. Further, it is assumed that the image center positions of the two image sensor units 24 and 26 are equal. At this time, the distance X from the imaging sensor unit to the point P is obtained from the following equation.
  • the distance X from the imaging sensor unit to the obstacle point P depends on the parallax
  • the search for corresponding points may use a block matching method using a template matching method.
  • distance measurement detection of the position of an obstacle
  • the imaging sensor unit uses the imaging sensor unit.
  • each pixel is set in the range of 5 to 80 degrees in the vertical direction and 10 to 170 degrees in the horizontal direction, and the image sensor unit measures the parallax of each pixel.
  • the air conditioner performs distance measurement (detection of the position of an obstacle) by measuring parallax at each pixel from pixel [14,15] to pixel [142,105].
  • the detection range of the obstacle detection means at the start of the operation of the air conditioner may be limited to an elevation angle of 10 degrees or more. This is because the measurement data can be effectively used by measuring the distance only in the area where there is a high possibility that there is a person at the start of operation of the air conditioner and there is a high possibility that the person is not detected, that is, the area where the wall is located (Since the person is not an obstacle, the data of the area where the person is present is not used as will be described later).
  • step S41 when it is determined that there is no person in the area corresponding to the current pixel (any one of the areas A to G shown in FIG. 13), the process proceeds to step S42 while it is determined that there is a person. If so, the process proceeds to step S43. That is, since the person is not an obstacle, the pixel corresponding to the area determined to have a person uses the previous distance data without performing distance measurement (does not update the distance data) and determines that there is no person. It is set so that distance measurement is performed only on the pixel corresponding to the region thus determined, and the newly measured distance data is used (distance data is updated).
  • an obstacle in each obstacle position determination area is determined according to a person presence / absence determination result in the person position determination area corresponding to each obstacle position determination area.
  • the presence / absence determination of an obstacle is efficiently performed. More specifically, in the obstacle position determination area belonging to the human position determination area determined that there is no person by the human body detection means, the previous determination result by the obstacle detection means is updated with a new determination result, In the obstacle position determination area belonging to the human position determination area determined to have a person by the human body detection means, the previous determination result by the obstacle detection means is not updated with a new determination result.
  • step S42 the above-described block matching method is used to calculate the parallax of each pixel, and the process proceeds to step S44.
  • step S44 data is acquired eight times with the same pixel, and it is determined whether distance measurement based on the acquired data is complete. If it is determined that distance measurement is not complete, the process proceeds to step S41. Return. Conversely, if it is determined in step S44 that the distance measurement has been completed, the process proceeds to step S45.
  • step S45 the reliability of the distance estimation is improved by evaluating the reliability. That is, if it is determined that there is reliability, a distance number determination process is performed in step S46. On the other hand, if it is determined that there is no reliability, a nearby distance number is processed as distance data of the pixel in step S47. .
  • the image sensor units 24 and 26 function as obstacle position detection means.
  • step S46 the distance number determination process in step S46 will be described. First, the term “distance number” will be described.
  • the “distance number” means an approximate distance from the image sensor unit to the position P where the air-conditioned space is located. As shown in FIG. 26, the image sensor unit is installed 2 m above the floor surface, and the image sensor Assuming that the distance from the unit to the position P is “distance corresponding to the distance number” X [m], the position P is expressed by the following equation.
  • the position of the obstacle is the elevation angle ⁇ and distance from the indoor unit. It can be determined based on the number (distance information).
  • the distance X corresponding to the distance number depends on the parallax between the imaging sensor units. Further, the distance number is an integer value from 2 to 12, and the distance corresponding to each distance number is set as shown in Table 4.
  • Table 4 shows the position of the position P corresponding to the elevation angle ( ⁇ ) determined by the v-coordinate value of each pixel according to each distance number and the number 2, and in the black part, h is negative. Value (h ⁇ 0), indicating the position to bite into the floor.
  • the position corresponding to the distance number ⁇ 10 is a position that exceeds the wall of the room with a diagonal distance> 4.50 m (a position outside the room), and is a distance number that has no meaning at all. Yes, in black.
  • Table 6 shows the limit value of the distance number set according to the capability rank of the air conditioner and the elevation angle of each pixel.
  • step S45 the reliability evaluation process in step S45 and the distance number determination process in step S46 will be described.
  • Determine the distance number for 8 times for each pixel, remove the two distance numbers in order from the largest, and remove the two distance numbers in order from the smallest, and take the average value of the remaining four distance numbers to determine the distance number.
  • the stereo method based on the block matching method when an obstacle having no luminance change is detected, the parallax calculation is not stable, and a parallax result (distance number) that differs greatly every time measurement is performed. Therefore, in step S45, the values of the remaining four distance numbers are compared, and if the variation is equal to or greater than the threshold value, in step S47, the distance number value is given as not reliable because the distance number value is not reliable.
  • the distance number estimated in the neighboring pixels is used.
  • the average value is an integer value obtained by rounding up the decimal point and quantizing, and the position corresponding to the distance number thus determined is as shown in Table 4 or Table 5.
  • the distance number is determined by taking an average value of the remaining four distance numbers except for two distance numbers, each of which is larger and smaller.
  • the number of distances determined for each pixel is not limited to eight, and the number of distances taking an average value is not limited to four.
  • an obstacle in each obstacle position determination area is determined according to a person presence / absence determination result in the person position determination area corresponding to each obstacle position determination area.
  • the presence / absence determination of an obstacle is efficiently performed. More specifically, in the obstacle position determination area belonging to the human position determination area determined that there is no person by the human body detection means, the previous determination result by the obstacle detection means is updated with a new determination result, In the obstacle position determination area belonging to the human position determination area determined to have a person by the human body detection means, the previous determination result by the obstacle detection means is not updated with a new determination result.
  • step S43 in the flowchart of FIG. 25 the previous distance data is used. However, since the previous data does not exist immediately after the installation of the air conditioner, each obstacle position determination area by the obstacle detection unit is used. When the determination is the first time, the default value is used, and the limit value (maximum value D) described above is used as the default value.
  • the position of the obstacle is the elevation angle ⁇ from the indoor unit and distance information (distance number).
  • distance information distance number
  • the minimum / maximum parallax is set according to the distance from the indoor unit, and the presence / absence of an obstacle is determined. This will be described with reference to FIG. 27 and Tables 7 to 9.
  • two thresholds (0.4 m, 1.2 m) are set for the height from the floor, and the default minimum parallax and maximum parallax corresponding to the two thresholds are set for each pixel according to the distance from the indoor unit.
  • Table 7 far distance
  • Table 8 medium distance
  • Table 9 short distance
  • the position is set only when there is a parallax between the minimum parallax and the maximum parallax. It is assumed that there is an obstacle, and data is acquired eight times for each pixel. If the reliability is high, it is determined that there is an obstacle.
  • long distance long distance
  • medium distance long distance
  • short distance used here are defined as follows based on the distance from the indoor unit.
  • the obstacle detection accuracy is also affected by the installation height of the indoor unit (actually, the image sensor unit 24), and the obstacle detection accuracy is further improved by considering the installation height of the indoor unit.
  • the installation height of the indoor unit to be 2m above the floor, and setting the minimum and maximum parallax, if the indoor unit is installed at a position lower than 2m from the floor, While it may be detected as an obstacle, if the indoor unit is installed at a position higher than 2 m from the floor, it may be impossible to detect the obstacle at all.
  • “standard”, “lower”, “higher” indoor unit height switching means buttons, switches, etc. are provided on the remote controller (remote control device) or the indoor unit body for remotely controlling the air conditioner.
  • the indoor unit height switching means By switching the indoor unit height switching means according to the height at the time of installation, it is possible to prevent erroneous detection due to the installation height of the indoor unit.
  • FIG. 27 shows the case where the installation height of the indoor unit is 2 m from the floor, but when the installation height of the indoor unit is 1.7 m from the floor, the minimum and maximum parallax are shown in FIG. 28 and Tables 10-12.
  • the minimum / maximum parallax can be set as shown in FIG. 29 and Tables 13 to 15.
  • the minimum / maximum parallax when the installation height of the indoor unit is 2 m ⁇ 0.2 m, 1.7 m ⁇ 0.2 m, 2.4 m ⁇ 0.2 m from the floor is set in the indoor unit height switching means.
  • the indoor unit height switching means by making it correspond to “standard”, “lower”, and “higher” respectively, it is possible to eliminate false detection caused by the installation height of the indoor unit.
  • an elevation angle at which the minimum and maximum parallax are set at the same time means that obstacle detection is not performed.
  • FIG. 30 shows a flowchart for setting the minimum / maximum parallax in this way.
  • step S61 it is determined whether the installation height of the indoor unit set by the remote controller is “standard”. If “standard”, the minimum / maximum parallax shown in FIG. If not, the process proceeds to step S63.
  • step S63 it is determined whether the installation height of the indoor unit set by the remote controller is “lower”. If “lower”, the minimum / maximum parallax shown in FIG. 28 is selected in step S64. On the other hand, if it is not “lower”, the installation height of the indoor unit set by the remote controller is “higher”, so the minimum / maximum parallax shown in FIG. 29 is selected in step S65.
  • the airflow control it is important to judge the height of the obstacle, particularly for a short distance region. For example, during heating, if the obstacle is low in height, comfortable air conditioning can be performed by setting the upper and lower blades 12 slightly upward from the normal automatic wind direction control (described later) and sending the airflow over the obstacle. On the other hand, when there is a high obstacle, if the upper and lower blades 12 are set upward to avoid the obstacle, the airflow may not reach the floor or the resident's face may be warmed. Since the occupants may feel uncomfortable, it is more effective to swing the left and right blades 14 (described later) when avoiding a high-height obstacle. Thus, by determining the height of the obstacle present in the room, the width of the air flow control is widened, and a comfortable air-conditioned space can be realized.
  • three threshold values for example, 0.4 m, 0.7 m, and 1.2 m
  • obstacles with a height of 0.7 to 1.2 m from the floor are designated as “high Obstacles ”and obstacles with a height of 0.4 to 0.7m from the floor are defined as“ low obstacles ”.
  • the minimum and maximum parallax for detecting high obstacles It is also possible to perform two-step detection by setting minimum and maximum parallaxes for low obstacle detection.
  • one obstacle height division (0.4 to 1.2 m) is used, and the minimum and maximum parallaxes shown in FIGS. 27, 28, and 29 are used.
  • eight times of data is acquired for each pixel and the presence / absence of an obstacle is determined.
  • the minimum and maximum parallaxes shown in Table 16 are used, and eight times of data are obtained to determine the presence or absence of a high obstacle, and then the minimum and maximum parallaxes shown in Table 17 are used to obtain eight times of data. To determine whether there is a low obstacle.
  • the minimum and maximum parallax for detecting high obstacles and the minimum and maximum parallax for detecting low obstacles are set in two steps.
  • the range of airflow control is further expanded.
  • the height threshold may be one or two instead of three. Absent.
  • the minimum / maximum parallax for high obstacle detection and the minimum / maximum parallax for low obstacle detection are set so as not to overlap. According to the learning control of detection, if obstacle detection is performed by dividing a high obstacle and a low obstacle at one position, it may be determined that there is no obstacle even though there is an obstacle at that position. Therefore, the minimum parallax for detecting low obstacles may be matched with the minimum parallax for detecting high obstacles. In this case, the low obstacle is determined only as a low obstacle, and the high obstacle is determined as a high obstacle as well as a low obstacle.
  • the stereo method fails to calculate the parallax, so it is difficult to determine the position of the table.
  • a luminance difference (texture) is generated on the top surface, so that the table position can be easily determined by the stereo method.
  • obstacle detection is performed using not only the obstacle but also the interaction with the surrounding incidental objects in the vicinity of the obstacle.
  • the furniture that is actually placed in the room in fact, the daily necessities placed on the furniture rather than the furniture
  • the angle of the obstacle Since the interaction of surrounding accessories in the vicinity of the obstacle changes, it is possible to reduce detection errors as much as possible by repeatedly performing the obstacle detection.
  • the obstacle position is learned based on the scanning result of each time, the location of the obstacle is judged from the learning control result, and airflow control described later is performed. It is.
  • FIG. 34 is a flowchart showing the obstacle presence / absence determination, and this obstacle presence / absence determination is sequentially performed for all positions (obstacle position determination areas) shown in FIG.
  • the position A1 will be described as an example.
  • step S71 the detection operation (stereo method) is performed by the imaging sensor units 24 and 26 at the first pixel at the position A1, and the above-described obstacle is detected in step S72.
  • the presence or absence of an object is determined. If it is determined in step S72 that there is an obstacle, "1" is added to the first memory in step S73, while if it is determined that there is no obstacle, in step S74, the first memory is stored. Add “0”.
  • step S75 it is determined whether or not the detection for all the pixels at the position A1 is completed. If the detection for all the pixels is not completed, the detection operation is performed for the next pixel by the stereo method in step S76. Return to step S72.
  • step S77 the numerical value recorded in the first memory (the total number of pixels determined to have an obstacle) is divided by the number of pixels at position A1.
  • step S78 the quotient is compared with a predetermined threshold value (by dividing). If the quotient is larger than the threshold value, it is temporarily determined in step S79 that there is an obstacle at position A1, and in step S80, “5” is added to the second memory. On the other hand, if the quotient is less than the threshold value, it is temporarily determined in step S81 that there is no obstacle at position A1, and in step S82, “ ⁇ 1” is added to the second memory (“1”). Subtract).
  • the threshold value used here depends on the distance from the indoor unit, for example, It is set as follows.
  • step S83 it is determined whether or not the numerical value (total after addition) recorded in the second memory is greater than or equal to a determination reference value (for example, 5). While it is finally determined that there is an obstacle at position A1, if it is less than the determination reference value, it is finally determined at step S85 that there is no obstacle at position A1.
  • a determination reference value for example, 5
  • the first memory can be used as a memory for an obstacle detection operation at the next position by clearing the memory when the obstacle detection operation at a certain position is completed.
  • the second memory is an air conditioner. Since the added value at one position is accumulated each time the machine is operated (however, maximum value ⁇ total ⁇ minimum value), the same number of memories as the number of positions are prepared.
  • “5” is set as the determination reference value, and when it is finally determined that there is an obstacle in the first obstacle detection at a certain position, “5” is stored in the second memory. Is recorded. In this state, when it is finally determined that there are no obstacles in the next obstacle detection, the value obtained by adding “ ⁇ 1” to “5” is less than the criterion value, so there is no obstacle at that position. It will not exist.
  • this obstacle detection learning control determines the final presence / absence of an obstacle based on a plurality of cumulative addition values (or addition / subtraction cumulative values), and adds a value to be added when it is determined that there is an obstacle.
  • a characteristic is that the number is set sufficiently larger than the value to be subtracted when it is determined that there is no obstacle.
  • the maximum value and the minimum value are set to the numerical values recorded in the second memory, even if the position of the obstacle changes greatly due to moving or redesigning, the change can be followed as soon as possible. If there is no maximum value, the sum will gradually increase each time it is judged that there is an obstacle, the position of the obstacle will change due to moving etc., and there will be no obstacle in the area that is judged every time there is an obstacle However, it takes time to fall below the criterion value. Further, when the minimum value is not provided, the reverse phenomenon occurs.
  • FIG. 35 shows a modified example of the obstacle detection learning control shown in the flowchart of FIG. 34, and only the processing of steps S100, S102, and S103 is different from the flowchart of FIG. To do.
  • step S99 when it is temporarily determined in step S99 that there is an obstacle at position A1, "1" is added to the second memory in step S100. On the other hand, if it is temporarily determined in step S101 that there is no obstacle at position A1, "0" is added to the second memory in step S102.
  • step S103 the total value recorded in the second memory based on the past ten obstacle detections including the current obstacle detection is compared with a determination reference value (for example, 2), and the determination reference value is determined. If it is above, it is finally determined in step S104 that there is an obstacle at position A1, whereas if it is less than the criterion value, it is finally determined in step S105 that there is no obstacle in position A1. Determined.
  • a determination reference value for example, 2
  • the obstacle detection learning control described above is finally determined that there is an obstacle if it can be detected twice even if it cannot be detected eight times in the past ten obstacle detections at a certain position. It will be. Therefore, this learning control is characterized in that the number of obstacle detections (here, 2) that is finally determined to be an obstacle is set to a number sufficiently smaller than the past number of obstacle detections to be referred to. Yes, by setting in this way, it is easy to get the result that there is an obstacle.
  • a button for resetting data recorded in the second memory may be provided on the indoor unit main body or the remote control, and the data may be reset by pressing this button.
  • the position of obstacles and wall surfaces that greatly affect airflow control is unlikely to change, but changes in the indoor unit installation position due to moving, etc., and changes in the furniture position due to redesign of the room, etc. In such a case, it is not preferable to perform airflow control based on the data obtained so far. This is because, depending on the learning control, the control is eventually suitable for the room, but it takes time to reach the optimal control (particularly when the obstacle disappears in the region). Therefore, if the relative positional relationship between the indoor unit and the obstacle or wall surface is changed by providing a reset button, improper air conditioning based on past incorrect data is performed by resetting the previous data. Can be prevented, and by resuming the learning control from the beginning, the control suitable for the situation can be made earlier.
  • the areas A to G shown in FIG. 13 belong to the following blocks, respectively.
  • Block N Region A Block R: Regions B and E Block C: Regions C and F Block L: Regions D and G Regions A to G belong to the following fields, respectively.
  • Field 1 Area A
  • Field 2 Regions B and D
  • Field 3 Region C
  • Field 4 Regions E and G
  • Field 5 Region F Table 22 shows the target setting angles at the positions of the five left blades and the five right blades constituting the left and right blades 14, and the symbols attached to the numbers (angles) are as shown in FIG.
  • a case where the left or right blade is directed inward is defined as a plus (+, no symbol in Table 22) direction
  • a case where the left blade is directed outward is defined as a minus ( ⁇ ) direction.
  • heating B area refers to a heating area where obstacle avoidance control is performed
  • normal automatic wind direction control refers to wind direction control where obstacle avoidance control is not performed.
  • the determination of whether or not to perform the obstacle avoidance control is based on the temperature of the indoor heat exchanger 6.
  • the wind direction control is not applied to the occupant, and when the temperature is too high, the maximum air volume position is determined.
  • the wind direction control to the heating B area is performed.
  • “temperature is low”, “too high”, “wind direction control that does not apply wind to the occupant”, and “wind direction control at the maximum airflow position” have the following meanings.
  • -Low temperature The temperature of the indoor heat exchanger 6 is set to the skin temperature (33 to 34 ° C) as the optimum temperature, and a temperature that can be lower than this temperature (for example, 32 ° C).
  • -Too high temperature for example, 56 ° C or higher-Wind direction control that does not direct wind to the occupant: Wind direction control that causes the wind to flow along the ceiling by controlling the angle of the upper and lower blades 12 so as not to send wind to the living space -Wind direction control at the maximum airflow position: When the air conditioner bends the airflow with the upper and lower blades 12 and the left and right blades 14, resistance (loss) is always generated, so the maximum airflow position is the wind direction where the loss is close to zero. Control (in the case of the left and right blades 14, it is a position facing directly in front, and in the case of the upper and lower blades 12, it is a position facing downward 35 degrees from the horizontal)
  • Table 23 shows target setting angles in each field of the upper and lower blades 12 when performing obstacle avoidance control.
  • the upper blade angle ( ⁇ 1) and the lower blade angle ( ⁇ 2) are angles (elevation angles) measured upward from the vertical line.
  • the swinging motion is a swinging motion of the left and right blades 14, and basically swinging with a predetermined left-right angle width around one target position and having no fixed time at both ends of the swing. is there.
  • the position stop operation means that the target setting angle (an angle in Table 22) of a certain position is corrected as shown in Table 24 to be the left end and the right end, respectively.
  • the left end and the right end each have a wind direction fixing time (time for fixing the left and right blades 14). For example, when the wind direction fixing time elapses at the left end, it moves to the right end and the wind direction fixing time elapses at the right end. The wind direction at the right end is maintained, and after the fixed time of the wind direction has passed, it moves to the left end and repeats it.
  • the wind direction fixing time is set to 60 seconds, for example.
  • the set angles of the left and right blades 14 corresponding to the left end and the right end of each block are determined based on Table 25, for example.
  • the operation has a fixed wind direction at the left and right ends of each block.For example, when the fixed wind direction has elapsed at the left end, it moves to the right end and maintains the right wind direction until the fixed wind direction has elapsed at the right end. Then, after the elapse of the wind direction fixing time, it moves to the left end and repeats it.
  • the wind direction fixing time is set to 60 seconds, for example, similarly to the position stop operation. Since the left end and the right end of each block coincide with the left end and the right end of the person position determination area belonging to the block, the block stop operation can be said to be a stop operation of the person position determination area.
  • position stop operation and block stop operation are properly used according to the size of the obstacle.
  • the position stopping operation is mainly performed at the position where there is an obstacle.
  • the air is blown over a wide range by performing a block stop operation.
  • the swing operation, the position stop operation, and the block stop operation are collectively referred to as the swing operation of the left and right blades 14.
  • the human body detection means determines that the person is only in a single region.
  • the air flow control is performed to control the upper and lower blades 12 to avoid the obstacle from above. ing.
  • the obstacle detection means determines that there is an obstacle in the obstacle position determination area belonging to the person position determination area determined that the person is detected by the human body detection means, the person position determination is determined that there is a person.
  • the left and right blades 14 are swung within at least one obstacle position determination region belonging to the region, and the fixing time of the left and right blades 14 is not provided at both ends of the swing range.
  • the left and right blades 14 are swung within at least one obstacle position determining region belonging to the person position determining region or the human position determining region adjacent to the region, and fixed times of the left and right blades 14 are provided at both ends of the swing range.
  • One of the two airflow controls is selected.
  • both the left blade and the right blade have 10 degrees. It continues to swing (swing) without stopping in the center at an angle range of ⁇ 10 degrees.
  • the timing of swinging the left and right blades to the left and right is set to be the same, and the swinging motions of the left and right blades are linked.
  • the first airflow control is performed by swinging the target setting angles of the two positions with no obstacles at both ends to basically air-condition the positions without the obstacles.
  • the block N is operated in a block stop and the second airflow control is performed. This is because the block stop operation is more directional and can reach far away than the entire area, and there is a high possibility of avoiding obstacles. That is, even when obstacles are scattered in the area A, there is usually a gap between the obstacles, and the air can be blown through the gap between the obstacles.
  • the first airflow control is performed by swinging left and right. For example, when there is a person in the region D and there is an obstacle only at the position D2, the swing operation is performed to the left and right around the target setting angle of the position D1.
  • the block including the area where the person is present is operated to stop the block and the second air flow control is performed.
  • the block L is operated while being stopped.
  • the first airflow control is performed by performing a swing operation around the target setting angle in a position where there is no obstacle in the middle distance region. For example, if there is a person in the area E and there is an obstacle at the position B2 and there are no obstacles on both sides, but there are obstacles behind it, it is advantageous to send airflow from the position B1 where there is no obstacle. .
  • the first airflow control is performed by swinging around the target setting angle of the position where there is no obstacle . For example, if there is a person in the area F, there is an obstacle in position C2, there is an obstacle in position D1 of both sides of position C2, and there is no obstacle in C1, the obstacles from position C1 to position C2 where there is no obstacle Airflow can be sent to area F while avoiding objects.
  • the block including the area where the person is present is operated to stop the block and the second airflow control is performed.
  • the block C is operated in a block stop state. In this case, since there is an obstacle ahead of the person and there is no way to avoid the obstacle, the block stop operation is performed regardless of whether there is an obstacle in the block adjacent to the block C.
  • the first airflow control is performed by swinging around the target set angle of the other position where there is no obstacle. For example, if there is a person in the area F, there are no obstacles in the positions C1, C2, and F1, and there is an obstacle in the position F2, the front of the area F in which the person is present is open. Considering this, air conditioning is performed around the far-off position F1 without an obstacle.
  • the block including the area where the person is present is operated in a block stop to perform the second air flow control. For example, if there is a person in the area G, there are no obstacles in the positions D1 and D2, and there are obstacles in both the positions G1 and G2, the front of the area G in which the person is present is open. Since there is an obstacle and it is unclear where to aim, block L is put into block stop operation.
  • the upper and lower blades 12 and the left and right blades 14 are controlled based on the presence / absence determination of the person by the human body detection means and the presence / absence determination of the obstacle by the obstacle detection means.
  • the upper and lower blades 12 and the left and right blades 14 can be controlled based only on the presence / absence determination of the obstacle by the detection means.
  • This obstacle avoidance control is basically for avoiding the area determined as having an obstacle by the obstacle detection means and blowing air toward the area determined as having no obstacle.
  • An example will be described.
  • A. Upper and lower blade control (1) When there is an obstacle in area A (short distance) When warm air is sent out with the upper and lower blades 12 directed to the bottom to suppress warm air that becomes lighter and rises during heating, the obstacle will appear in area A. If there is, there is a possibility that warm air accumulates behind the obstacle (on the indoor unit side) or that the warm air hits the obstacle and does not reach the floor.
  • the set angle of the upper and lower blades 12 is corrected as shown in Table 26 with respect to the normal field wind direction control (Table 23), and the airflow with the upper and lower blades 12 set upward. Control and air conditioning over obstacles. To avoid the obstacles, if the entire airflow is raised too much, the warm air directly hits the resident's face, giving uncomfortable feeling. The upper blade 12a prevents the lift.
  • Air conditioning can be focused on areas that are likely to
  • the blocks including the areas C and D or the areas B and C are operated in a block stop.
  • the areas C and D or the areas B and C are block-stopped at a rate of once every plural times (for example, 5 times)
  • the left and right blades 14 are swung toward the area B or D.
  • it is effective in terms of air-conditioning of the entire room.
  • the position (obstacle position determination area) for determining the presence or absence of an obstacle may be subdivided as shown in FIG. 23 regardless of the capability rank of the air conditioner, but is set according to the capability rank. Since the room sizes are also different, the number of divided areas may be changed. For example, when the ability rank is 4.0 kw or more, the area is divided as shown in FIG. 23, and when the ability rank is 3.6 kw or less, the short-distance area is divided into three without providing the long-distance area. May be divided into six.
  • the distance measurement of the entire living space is performed using the stereo method for each pixel shown in Table 3, but the angle interval at the time of distance measurement is increased according to the distance from the indoor unit to the discrimination area. You can also.
  • each pixel corresponding to a short distance (elevation angle ⁇ : 5 to 65 degrees)
  • both the horizontal direction and the vertical direction are scanned in increments of 10 degrees
  • each pixel corresponding to a medium distance (elevation angle ⁇ : 50 degrees).
  • the horizontal direction and the vertical direction are scanned in units of 5 degrees so that the number of detection cells in each region is substantially equal (approximately Around 20).
  • the stereo method is scanned in the range of 5 to 80 degrees in the vertical direction, but the area near the indoor unit is an obstacle detection area for detecting the presence or absence of an obstacle. It does not matter if you do not.
  • the obstacle avoidance control may be performed in a range where the elevation angle ⁇ is 20 degrees or more.
  • the stereo method is used as the distance detection means, but a method using the light projecting unit 28 and the image sensor unit 24 may be used instead of the stereo method. This method will be described.
  • the main body 2 of the present embodiment includes an image sensor unit 24 and a light projecting unit.
  • the light projecting unit 28 includes a light source and a scanning unit (not shown), and the light source may use an LED or a laser. Further, the scanning unit can change the light projecting direction arbitrarily using a galvanometer mirror or the like.
  • FIG. 38 is a schematic diagram showing the relationship between the image sensor unit 24 and the light projecting unit 28. Originally, the projection direction is a two-degree-of-freedom and the imaging surface is a vertical and horizontal two-dimensional plane.
  • the light projecting unit 28 projects light in the light projecting direction ⁇ with respect to the optical axis direction of the imaging sensor unit 24.
  • the image sensor unit 24 performs a difference process between the frame image immediately before the light projecting unit 28 projects light and the frame image being projected, thereby reflecting the light P projected by the light projecting unit 28.
  • the u coordinate u1 on the image is acquired.
  • distance information in the air-conditioned space can be obtained by detecting the reflection point P of the light while changing the light projecting direction ⁇ of the light projecting unit 28.
  • i and j indicate addresses to be scanned by the light projecting unit 28.
  • the vertical angle and the horizontal angle are set to the right from the elevation angle ⁇ and the reference line on the front as viewed from the indoor unit.
  • Each measured angle ⁇ is shown. That is, as viewed from the indoor unit, each address is set in the range of 5 to 80 degrees in the vertical direction and 10 to 170 degrees in the horizontal direction, and the light projecting unit 28 measures each address and scans the living space. .
  • step S48 when it is determined that there is no person in the area (any one of areas A to G shown in FIG. 13) corresponding to the address [i, j] where the light projecting unit 28 performs light projection, If it is determined that there is a person while the process proceeds to step S49, the process proceeds to step S43. That is, since the person is not an obstacle, the pixel corresponding to the area determined to have a person uses the previous distance data without performing distance measurement (does not update the distance data) and determines that there is no person. It is set so that distance measurement is performed only on the pixels corresponding to the region thus used, and the newly measured distance data is used (distance data is updated).
  • step S42 the distance to the obstacle is estimated by acquiring the above-described light projecting process and reflection point from the image sensor unit 24.
  • the distance number determination process may be used to perform the process using the distance number.
  • human body detection means may be used as distance detection means. This comprises a human body distance detecting means using human body detecting means and an obstacle detecting means using human body detecting means. This process will be described.
  • FIG. 41 is a flowchart showing the flow of processing of the human body distance detecting means using the human body detecting means.
  • the same steps as those in FIG. 5 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • step S201 the human body distance detection means detects a pixel that is present at the top of the image among the pixels in which the difference is generated in each area where the human body detection means has divided the area, and sets the v coordinate as v1. get.
  • the human body distance detection means estimates the distance from the image sensor unit 24 to the person using v1, which is the v coordinate at the top of the image.
  • FIG. 42 is a schematic diagram for explaining this process.
  • FIG. 42A is a schematic diagram of a scene where two persons 121 and 122 exist in the vicinity of the camera and in the distance
  • FIG. 42B is a difference image of images captured by the image sensor unit in the scene of FIG. Is shown.
  • the areas 123 and 124 where the difference is generated correspond to the persons 121 and 122, respectively.
  • the height h1 of the person is known and the heights of all the persons in the air-conditioned space are substantially equal.
  • the imaging sensor unit 24 since the imaging sensor unit 24 is installed at a height of 2 m, as shown in FIG. 42A, the imaging sensor unit performs imaging while looking down from above the person. At this time, the closer the person is to the image sensor unit, the more the person is imaged on the top of the image as shown in FIG. That is, the v-coordinate v1 at the top of the image of the person and the distance from the image sensor unit to the person correspond one-to-one. From this, the human body distance detecting means using the human body detecting means can be performed by obtaining in advance the correspondence between the uppermost v coordinate v1 of the person and the distance from the image sensor unit 24 to the person.
  • Table 28 is an example in which the average height of a person is used as h1, and the correspondence between the v coordinate v1 of the person at the top of the image and the distance from the imaging sensor unit to the person is obtained in advance.
  • FIG. 43 is a flowchart showing the flow of processing of obstacle detection means using human body detection means.
  • step S203 the obstacle detection means estimates the height v2 of the person on the image using the distance information from the image sensor unit 24 to the person estimated by the human body distance detection means.
  • FIG. 44 is a schematic diagram for explaining this process, and is a schematic diagram showing a scene similar to FIG.
  • the height h1 of the person is known as described above, and the heights of all persons in the air-conditioned space are substantially equal.
  • the image sensor unit 24 since the image sensor unit 24 is installed at a height of 2 m, as shown in FIG. 41A, the image sensor unit captures an image while looking down from above the person. At this time, the closer the person is to the image sensor unit 24, the larger the size of the person on the image as shown in FIG.
  • the difference v2 between the v-coordinate at the top of the image and the v-coordinate at the bottom of the image has a one-to-one correspondence with the distance from the image sensor unit 24 to the person. From this, when the distance from the image sensor unit 24 to the person is known, the size on the image can be estimated. This can be done by obtaining in advance the correspondence between the difference v2 between the v-coordinate at the top of the image and the v-coordinate at the bottom of the image and the distance from the image sensor unit 24 to the person.
  • step S204 the obstacle detection means detects the pixel having the highest difference at the top of the image and the pixel having the lowest difference at the bottom of the image in each region of the difference image.
  • the difference v3 is calculated.
  • step S205 the person's height v2 on the image estimated using the distance information from the image sensor unit 24 to the person is compared with the person's height v3 obtained from the actual difference image, thereby capturing an image. It is estimated whether there is an obstacle between the sensor unit 24 and the person.
  • 45 and 46 are schematic diagrams for explaining this processing.
  • FIG. 45 shows a scene similar to FIG. 42, and is a schematic diagram showing a scene where no obstacle exists between the image sensor unit 24 and a person.
  • FIG. 46 is a schematic diagram showing a scene where an obstacle exists. In FIG.
  • step S205 when it is determined in step S205 that v3 is sufficiently smaller than v2, the process proceeds to step S206, and it is determined that there is an obstacle between the image sensor unit 24 and the person.
  • the distance between the imaging sensor unit 24 and the obstacle is assumed to be equal to the distance from the imaging sensor unit to the person obtained from the uppermost v coordinate v1.
  • the distance detection means is realized by using the detection result of the human body detection means.
  • the air conditioner according to the present invention can improve comfort or air conditioning efficiency by performing airflow control according to the height of an obstacle, various air conditioners including general home air conditioners Useful as.
  • 2 indoor unit body 2a front opening, 2b top opening, 4 movable front panel, 6 heat exchanger, 8 indoor fan, 10 air outlets, 12 top and bottom blades, 14 left and right blades, 16 Filter, 18, 20 Front panel arm, 24, 26 Image sensor unit, 28 Projection unit.

Abstract

 室内機に、吹出口から吹き出される空気の向きを変更する風向変更羽根と、障害物の有無を検知する障害物検知手段を備えた撮像装置とを設け、該障害物検知手段の検知結果に基づいて前記風向変更羽根を制御して空調運転を行なう空気調和機であって、障害物を床面からの高さに応じて少なくとも二つ以上に区分し、その高さに応じて前記風向変更羽根を制御する。

Description

空気調和機
 本発明は、室内機に障害物の有無を検知する障害物検知手段を設け、障害物検知手段の検知結果に基づいて風向変更羽根を制御するようにした空気調和機に関するものである。
 従来の空気調和機は、室内機に人位置検出手段と障害物位置検出手段を設け、人位置検出手段及び障害物位置検出手段の双方の検知信号に基づいて風向変更手段を制御して空調効率を向上させている。
 この空気調和機にあっては、暖房運転が開始すると、人位置検出手段により室内に人がいるかどうかをまず判定し、人がいない場合には、障害物位置検出手段により障害物があるかどうかを判定し、障害物がない場合には、空調風が室内全体に広がるように風向変更手段を制御している。
 また、人はいないが、回避できる障害物が検知された場合には、障害物がない方向に風向変更手段を制御する一方、回避できない障害物が検知された場合には、障害物に直接空調風が当たらないようにするとともに、空調風が室内全体に広がるように風向変更手段を制御している(例えば、特許文献1参照)。
実開平3-72249号公報
 空調空間に存在する障害物には高さの高いものや低いものがあり、特に室内機に近い領域においては、高さの低い障害物に対しては、障害物の上から気流を送ることにより快適空調を行なうことができるのに対し、高さの高い障害物に対しては、障害物を回避した気流制御を行なうことにより快適性が向上する。
 しかしながら、特許文献1に記載の空気調和機の場合、障害物の高さに応じた気流制御については考慮していないため、快適空調あるいは空調効率の点でまだまだ改善の余地があった。
 本発明は、従来技術の有するこのような問題点に鑑みてなされたものであり、障害物の高さに応じて気流制御を行なうことにより快適性あるいは空調効率を向上することができる空気調和機を提供することを目的としている。
 上記目的を達成するため、本発明は、室内機に、吹出口から吹き出される空気の向きを変更する風向変更羽根と、撮像装置を利用して、障害物の有無を検知する障害物検知手段とを設け、障害物検知手段の検知結果に基づいて風向変更羽根を制御して空調運転を行なう空気調和機であって、床面からの高さに少なくとも三つの閾値を設け、障害物をその高さに応じて少なくとも二つ以上に区分し、障害物の高さに応じて風向変更羽根を制御するようにしている。
 本発明によれば、障害物の高さに応じて風向変更羽根を制御するようにしたので、気流制御の幅が広がり、快適性あるいは空調効率を向上させることができる。
図1は本発明に係る空気調和機の室内機の正面図 図2は図1の室内機の縦断面図 図3は可動前面パネルが前面開口部を開放するとともに、上下羽根が吹出口を開放した状態の図1の室内機の縦断面図 図4は上下羽根を構成する下羽根を下向きに設定した状態の図1の室内機の縦断面図 図5は本実施形態における人位置推定の処理の流れを示したフローチャート 図6は本実施形態における人位置推定における背景差分処理を説明するための模式図 図7は背景差分処理において背景画像を作成する処理を説明するための模式図 図8は背景差分処理において背景画像を作成する処理を説明するための模式図 図9は背景差分処理において背景画像を作成する処理を説明するための模式図 図10は本実施形態における人位置推定における領域分割処理を説明するための模式図 図11は本実施形態で利用する2つの座標系を説明するための模式図 図12は撮像センサユニットから人物の重心位置までの距離を示す概略図 図13は人体検知手段を構成する撮像センサユニットで検知される人位置判別領域を示す概略図 図14は人体検知手段を構成する撮像センサユニットで検知される人位置判別領域において人物が存在する場合の模式図 図15は図13に示される各領域に領域特性を設定するためのフローチャート 図16は図13に示される各領域における人の在否を最終的に判定するフローチャート 図17は図1の室内機が設置された住居の概略平面図 図18は図17の住居における各センサユニットの長期累積結果を示すグラフ 図19は図1の室内機が設置された別の住居の概略平面図 図20は図19の住居における各センサユニットの長期累積結果を示すグラフ 図21はフレーム画像から人らしい領域を抽出する処理を利用した人位置推定の処理の流れを示したフローチャート 図22はフレーム画像から顔らしい領域を抽出する処理を利用した人位置推定の処理の流れを示したフローチャート 図23は障害物検知手段で検知される障害物位置判別領域を示す概略図 図24はステレオ法による障害物検出を説明するための模式図 図25は障害物までの距離測定の処理の流れを示したフローチャート 図26は撮像センサユニットから位置Pまでの距離を示す概略図 図27は障害物の有無を検知するための最小・最大視差を室内機からの距離に応じて設定した場合の室内機設置空間の概略立面図 図28は室内機の設置高さが低いときの最小・最大視差を室内機からの距離に応じて設定した場合の室内機設置空間の概略立面図 図29は室内機の設置高さが高いときの最小・最大視差を室内機からの距離に応じて設定した場合の室内機設置空間の概略立面図 図30は近距離領域に高障害物検知用最小・最大視差と低障害物検知用最小・最大視差を設定した場合の室内機設置空間の別の概略立面図 図31は近距離領域に高障害物検知用最小・最大視差と低障害物検知用最小・最大視差を設定した場合の室内機設置空間のさらに別の概略立面図 図32は室内機の設置高さが低いときの近距離領域に高障害物検知用最小・最大視差と低障害物検知用最小・最大視差を設定した場合の室内機設置空間の概略立面図 図33は室内機の設置高さが高いときの近距離領域に高障害物検知用最小・最大視差と低障害物検知用最小・最大視差を設定した場合の室内機設置空間の別の概略立面図 図34は障害物検知の学習制御を示すフローチャート 図35は障害物検知の学習制御の変形例を示すフローチャート 図36は左右羽根を構成する左羽根と右羽根の各ポジションにおける風向の定義を示す概略図 図37は本発明に係る別の空気調和機の室内機の正面図 図38は撮像センサユニットと投光部の関係を示した模式図 図39は投光部と撮像センサユニットを利用した、障害物までの距離測定の処理の流れを示したフローチャート 図40は本発明に係る別の空気調和機の室内機の正面図 図41は人体検知手段を利用した人体距離検出手段の処理の流れを示したフローチャート 図42は最も画像上部のv座標であるv1を利用して、撮像センサユニットから人物までの距離を推定する処理を説明するための模式図 図43は人体検知手段を利用した障害物検出手段の処理の流れを示したフローチャート 図44は人体距離検出手段が推定した撮像センサユニットから人物までの距離情報を利用して、画像上での人物の高さv2を推定する処理を説明するための模式図 図45は撮像センサユニットと人物の間に障害物が存在するかどうかを推定する処理を説明するための模式図 図46は撮像センサユニットと人物の間に障害物が存在するかどうかを推定する処理を説明するための模式図
 第1の発明は、室内機に、吹出口から吹き出される空気の向きを変更する風向変更羽根と、撮像装置を利用して、障害物の有無を検知する障害物検知手段とを設け、障害物検知手段の検知結果に基づいて風向変更羽根を制御して空調運転を行なう空気調和機であって、障害物を床面からの高さに応じて少なくとも二つ以上に区分し、その高さに応じて前記風向変更羽根を制御するようにしている。
 この構成により、気流制御の幅が広がり、快適性あるいは空調効率を向上させることができる。
 第2の発明は、障害物の高さ区分数を室内機からの距離により異なるようにしたものであり、気流制御に特に影響のある領域の区分数を多くし、影響の少ない領域の区分数を少なくすることにより、使用メモリを低減することができる。
 第3の発明は、障害物の高さ区分数を室内機に近い領域ほど多くしたものであり、気流制御の影響を受けやすい室内機に近い領域の快適空調を達成することができる。
 第4の発明は、室内機設置空間に、室内機から見た上下方向の角度及び左右方向の角度で決定される撮像装置の画素を設定し、各画素において障害物の高さ区分数だけ障害物検知を行なうことにより、障害物の走査に要する時間を極力抑制することができ、障害物検知手段の高寿命化を図ることができる。
 第5の発明は、床面からの高さに対して少なくとも三つの閾値を設けて障害物の高さを区分することにより、気流制御の幅がさらに広がり、快適性あるいは空調効率を向上させることができる。
 以下、本発明の実施の形態について、図面を参照しながら説明する。
<空気調和機の全体構成>
 一般家庭で使用される空気調和機は、通常冷媒配管で互いに接続された室外機と室内機とで構成されており、図1乃至図4は、本発明に係る空気調和機の室内機を示している。
 室内機は、本体2と、本体2の前面開口部2aを開閉自在の可動前面パネル(以下、単に「前面パネル」という)4を有しており、空気調和機停止時は、前面パネル4は本体2に密着して前面開口部2aを閉じているのに対し、空気調和機運転時は、前面パネル4は本体2から離反する方向に移動して前面開口部2aを開放する。なお、図1及び図2は前面パネル4が前面開口部2aを閉じた状態を示しており、図3及び図4は前面パネル4が前面開口部2aを開放した状態を示している。
 図1乃至図4に示されるように、本体2の内部には、前面開口部2a及び上面開口部2bから取り入れられた室内空気を熱交換する熱交換器6と、熱交換器6で熱交換された空気を搬送するための室内ファン8と、室内ファン8により搬送された空気を室内に吹き出す吹出口10を開閉するとともに空気の吹き出し方向を上下に変更する上下風向変更羽根(以下、単に「上下羽根」という)12と、空気の吹き出し方向を左右に変更する左右風向変更羽根(以下、単に「左右羽根」という)14とを備えており、前面開口部2a及び上面開口部2bと熱交換器6との間には、前面開口部2a及び上面開口部2bから取り入れられた室内空気に含まれる塵埃を除去するためのフィルタ16が設けられている。
 また、前面パネル4上部は、その両端部に設けられた2本のアーム18,20を介して本体2上部に連結されており、アーム18に連結された駆動モータ(図示せず)を駆動制御することで、空気調和機運転時、前面パネル4は空気調和機停止時の位置(前面開口部2aの閉塞位置)から前方斜め上方に向かって移動する。
 さらに、上下羽根12は、上羽根12aと下羽根12bとで構成されており、それぞれ本体2下部に揺動自在に取り付けられている。上羽根12a及び下羽根12bは、別々の駆動源(例えば、ステッピングモータ)に連結されており、室内機に内蔵された制御装置(例えばマイコン)によりそれぞれ独立して角度制御される。また、図3及び図4から明らかなように、下羽根12bの変更可能な角度範囲は、上羽根12aの変更可能な角度範囲より大きく設定されている。
 なお、上羽根12a及び下羽根12bの駆動方法については後述する。また、上下羽根12は3枚以上の上下羽根で構成することも可能で、この場合、少なくとも2枚(特に、最も上方に位置する羽根と最も下方に位置する羽根)は独立して角度制御できるのが好ましい。
 また、左右羽根14は、室内機の中心から左右に5枚ずつ配置された合計10枚の羽根で構成されており、それぞれ本体2の下部に揺動自在に取り付けられている。また、左右の5枚を一つの単位として別々の駆動源(例えば、ステッピングモータ)に連結されており、室内機に内蔵された制御装置により左右5枚の羽根がそれぞれ独立して角度制御される。なお、左右羽根14の駆動方法についても後述する。
<人体検知手段の構成>
 図1に示されるように、前面パネル4の上部には、撮像センサユニット24が撮像装置として取り付けられており、撮像センサユニット24は、図3及び図4に示されるように、センサホルダ(図示せず)に保持されている。
 撮像センサユニット24は、回路基板と、回路基板に取り付けられたレンズと、レンズの内部に実装された撮像センサとで構成されている。また、人体検知手段は、例えば後述する差分処理に基づいて回路基板により人の在否が判定される。すなわち、回路基板は人の在否判定を行なう在否判定手段として作用する。
<人体検知手段による人位置推定>
 撮像センサユニット24による人位置推定を行なうために、公知の技術である差分法を利用する。これは、人物が存在しない画像である背景画像と、撮像センサユニット24が撮像した画像の差分処理を行ない、差分が生じている領域には、人物が存在していると推定するものである。
 図5は、本実施形態における人位置推定の処理の流れを示したフローチャートである。ステップS101において、背景差分処理を利用することで、フレーム画像内で差分が生じている画素を検出する。背景差分処理とは、特定の条件下で撮影した背景画像と、背景画像と撮像センサユニット24の視野や視点、焦点距離などの撮像条件が等しい状況で撮像した撮像画像を比較することで、背景画像には存在していないが、撮像画像には存在する物体を検出する手法である。人物の検出を行なうためには、背景画像として人物が存在しない画像を作成する。
 図6は、背景差分処理を説明するための模式図である。図6(a)は、背景画像を示している。ここで、視野は空気調和機の空調空間とほぼ等しくなるように設定されている。この図において、101は空調空間内に存在する窓を、102は扉を示している。図6(b)は、撮像センサユニットによって撮像されたフレーム画像を示している。ここで、撮像センサユニット24の視野や視点、焦点距離などは図6(a)の背景画像と等しい。103は、空調空間内に存在する人物を示している。背景差分処理では、図6(a)と図6(b)の差分画像を作成することにより、人物を検出する。図6(c)は差分画像を示しており、白い画素は差分が存在しない画素、黒い画素は差分が生じている画素を示している。背景画像には存在しないが、撮像されたフレーム画像には存在する人物103の領域が、差分の生じている領域104として、検出されていることがわかる。つまり、差分画像から差分が生じている領域を抽出することで、人物領域を検出することが可能である。
 また、前述の背景画像は、フレーム間差分処理を利用することで、作成することが可能である。図7~図9は、この処理を説明するための模式図である。図7(a)~(c)は、人物103が窓101の前を右から左に移動しているシーンにおいて、撮像センサユニット24によって撮像された連続した3フレームの画像を示した模式図である。図7(b)は図7(a)の次のフレームの画像を、図7(c)は図7(b)のさらに次のフレームの画像を示している。また、図8(a)~(c)は、図7の画像を利用して、フレーム間差分処理を行なった、フレーム間差分画像を示している。白い画素は差分が存在しない画素、黒い画素105は差分が生じている画素を示している。ここで、視野内で移動している物体は人物のみであるとすると、フレーム間差分画像において、差分が生じない領域には、人物が存在していないと考えられる。そこで、フレーム間差分が生じない領域においては、背景画像を現在のフレームの画像と置き換える。この処理をすることで、背景画像を自動的に作成することができる。図9(a)~(c)は、それぞれ図7(a)~(c)の各フレームにおける背景画像の更新を模式的に示した図である。斜線で示した領域106は、背景画像を更新した領域、黒領域107はまだ背景画像が作成されていない領域、白領域108は背景画像が更新されなかった領域を示している。つまり、図9の黒領域107と白領域108の合計領域が、図8の黒色領域と等しくなる。図に示したとおり、人物が動いている場合、黒領域107が徐々に小さくなり、自動的に背景画像が作成されていることがわかる。
 次に、ステップS102において、求まった差分領域を領域分割することにより、複数の人物が存在している場合には、複数の差分領域として分割する。これは、公知の画像クラスタリング手法を利用すればよく、例えば、「差分が生じている画素と、その近傍に存在する差分が生じている画素は、同一の領域である」というルールに従って、差分画像を領域分割していけばよい。図10は、この領域分割処理を実行した模式図である。図10(a)は差分処理により計算された差分画像を示し、111および112の黒色画素が、差分の生じている画素である。図10(b)は、差分画像として図10(a)が得られたとき、前記「差分が生じている画素と、その近傍に存在する差分が生じている画素は、同一の領域である」というルールに従って領域分割を行なった結果を示している。ここで、横縞領域113と縦縞領域114は、別の領域であると判断されている。このとき、画像処理で広く利用されているモルフォロジー処理などのノイズ除去処理を行なってもかまわない。
 次に、ステップS103において、求まった各領域の重心位置を計算することにより、検出された人物の位置を検出する。画像の重心位置から人物の位置を検出するためには、透視投影変換を利用すればよい。
 透視投影変換を説明するために、2つの座標系を説明する。図11は、2つの座標系を説明するための模式図である。まず、画像座標系を考える。これは、撮像された画像における2次元の座標系であり、画像の左上の画素を原点、右方向にu、下方向にvとする。次にカメラを基準とした3次元の座標系であるカメラ座標系を考える。これは、撮像センサユニットの焦点位置を原点、撮像センサユニット24の光軸方向をZc,カメラ上向きをYc,カメラ左方向をXcとする。このとき、透視投影変換により、以下の関係が成り立つ。
Figure JPOXMLDOC01-appb-M000001
 ここで、fは焦点距離[mm]、(u0,v0)は画像座標上での画像中心[Pixel]、(dpx,dpy)は撮像素子1画素の大きさ[mm/Pixel]を示している。ここで、Xc,Yc,Zcは未知数であることに着目すると、数1は、画像上での座標(u,v)が既知の場合、その座標に対応する実際の3次元位置は、カメラ座標系の原点を通るある直線上に存在することがわかる。
 図12(a)、(b)に示したように、画像上の人物の重心位置を(ug,vg)、そのカメラ座標系での3次元位置を(Xgc,Ygc,Zgc)とする。ここで、図12(a)は空調空間を横から見た模式図、図12(b)は上から見た模式図を示している。また、撮像センサユニットの設置された高さをH、Xc方向が水平方向に等しいとし、光軸Zcは垂直方向からθの角度を持って設置されているとする。また、撮像センサユニット24の向いている方向を、垂直方向の角度(仰角、垂直線から上方向に測定した角度)α、水平方向の角度(室内機から見て正面の基準線から右向きに測定した角度)βとする。さらに人物の重心の高さをhとすると、空調空間内の3次元位置である、撮像センサユニット24から重心位置までの距離L、および向きWは、次式で計算できる。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 ここで、撮像センサユニットは、H=約2mの高さに通常設置され、さらに人物の重心の高さhが約80cmであることを考慮すると、数3、数5は、撮像センサユニット24の設置された高さH、および人物の重心の高さhが規定されている場合、画面上の重心位置(ug,vg)より、空調空間内における人物の重心位置(L,W)を一意に求められることを示している。図13(a),(b)は、画像上の重心位置がA~Gの各領域に存在した場合、空調空間内のいずれの領域に人物が存在するかを示している。また、図14(a),(b)は、人物が存在する場合の模式図を示したものである。図14(a)では、人物の重心位置が領域AおよびFに存在するため、図13(b)の領域AおよびFに人物が存在すると判断する。一方、図14(b)では、人物の重心位置が領域Dに存在するため、図13(b)の領域Dに人物が存在すると判断する。
 図15は、撮像センサユニット24を使用して、領域A~Gの各々に後述する領域特性を設定するためのフローチャートで、図16は、撮像センサユニットを使用して、領域A~Gのどの領域に人がいるか否かを判定するフローチャートであり、これらのフローチャートを参照しながら人の位置判定方法について以下説明する。
 ステップS1において、所定の周期T1(例えば、撮像センサユニット24のフレームレートが5fpsであれば、200ミリ秒)で各領域における人の在否が前述の方法でまず判定される。
 この判定結果に基づいて各領域A~Gを、人が良くいる第1の領域(良くいる場所)と、人のいる時間が短い第2の領域(人が単に通過する領域、滞在時間の短い領域等の通過領域)と、人のいる時間が非常に短い第3の領域(壁、窓等人が殆ど行かない非生活領域)とに判別する。以下、第1の領域、第2の領域、第3の領域をそれぞれ、生活区分I、生活区分II、生活区分IIIといい、生活区分I、生活区分II、生活区分IIIはそれぞれ、領域特性Iの領域、領域特性IIの領域、領域特性IIIの領域ということもできる。また、生活区分I(領域特性I)、生活区分II(領域特性II)を併せて生活領域(人が生活する領域)とし、これに対し、生活区分III(領域特性III)を非生活領域(人が生活しない領域)とし、人の在否の頻度により生活の領域を大きく分類してもよい。
 この判別は、図15のフローチャートにおけるステップS3以降で行われ、この判別方法について図17及び図18を参照しながら説明する。
 図17は、一つの和室とLD(居間兼食事室)と台所とからなる1LDKのLDに本発明に係る空気調和機の室内機を設置した場合を示しており、図17における楕円で示される領域は被験者が申告した良くいる場所を示している。
 上述したように、周期T1毎に各領域A~Gにおける人の在否が判定されるが、周期T1の反応結果(判定)として1(反応有り)あるいは0(反応無し)を出力し、これを複数回繰り返した後、ステップS2において、全てのセンサ出力をクリアする。
 ステップS3において、所定の空調機の累積運転時間が経過したかどうかを判定する。ステップS3において所定時間が経過していないと判定されると、ステップS1に戻る一方、所定時間が経過したと判定されると、各領域A~Gにおける当該所定時間に累積した反応結果を二つの閾値と比較することにより各領域A~Gをそれぞれ生活区分I~IIIのいずれかに判別する。
 長期累積結果を示す図18を参照してさらに詳述すると、第1の閾値及び第1の閾値より小さい第2の閾値を設定して、ステップS4において、各領域A~Gの長期累積結果が第1の閾値より多いかどうかを判定し、多いと判定された領域はステップS5において生活区分Iと判別する。また、ステップS4において、各領域A~Gの長期累積結果が第1の閾値より少ないと判定されると、ステップS6において、各領域A~Gの長期累積結果が第2の閾値より多いかどうかを判定し、多いと判定された領域は、ステップS7において生活区分IIと判別する一方、少ないと判定された領域は、ステップS8において生活区分IIIと判別する。
 図18の例では、領域C,D,Gが生活区分Iとして判別され、領域B,Fが生活区分IIとして判別され、領域A,Eが生活区分IIIとして判別される。
 また、図19は別の1LDKのLDに本発明に係る空気調和機の室内機を設置した場合を示しており、図20はこの場合の長期累積結果を元に各領域A~Gを判別した結果を示している。図19の例では、領域B,C,Eが生活区分Iとして判別され、領域A,Fが生活区分IIとして判別され、領域D,Gが生活区分IIIとして判別される。
 なお、上述した領域特性(生活区分)の判別は所定時間毎に繰り返されるが、判別すべき室内に配置されたソファー、食卓等を移動することがない限り、判別結果が変わることは殆どない。
 次に、図16のフローチャートを参照しながら、各領域A~Gにおける人の在否の最終判定について説明する。
 ステップS21~S22は、上述した図15のフローチャートにおけるステップS1~S2と同じなので、その説明は省略する。ステップS23において、所定数M(例えば、45回)の周期T1の反応結果が得られたかどうかが判定され、周期T1は所定数Mに達していないと判定されると、ステップS21に戻る一方、周期T1が所定数Mに達したと判定されると、ステップS24において、周期T1×Mにおける反応結果の合計を累積反応期間回数として、1回分の累積反応期間回数を算出する。この累積反応期間回数の算出を複数回繰り返し、ステップS25において、所定回数分(例えば、N=4)の累積反応期間回数の算出結果が得られたかどうかが判定され、所定回数に達していないと判定されると、ステップS21に戻る一方、所定回数に達したと判定されると、ステップS26において、既に判別した領域特性と所定回数分の累積反応期間回数を元に各領域A~Gにおける人の在否を推定する。
 なお、ステップS27において累積反応期間回数の算出回数(N)から1を減算してステップS21に戻ることで、所定回数分の累積反応期間回数の算出が繰り返し行われることになる。
 表1は最新の1回分(時間T1×M)の反応結果の履歴を示しており、表1中、例えばΣA0は領域Aにおける1回分の累積反応期間回数を意味している。
Figure JPOXMLDOC01-appb-T000001
 ここで、ΣA0の直前の1回分の累積反応期間回数をΣA1、さらにその前の1回分の累積反応期間回数をΣA2・・・とし、N=4の場合、過去4回分の履歴(ΣA4、ΣA3、ΣA2、ΣA1)のうち、生活区分Iについては、1回以上の累積反応期間回数が1回でもあれば、人がいると判定する。また、生活区分IIについては、過去4回の履歴のうち、1回以上の累積反応期間回数が2回以上あれば、人がいると判定するとともに、生活区分IIIについては、過去4回の履歴のうち、2回以上の累積反応期間回数が3回以上あれば、人がいると判定する。
 次に、上述した人の在否判定から時間T1×M後には、同様に過去の4回分の履歴と生活区分と累積反応期間回数から人の在否の推定が行われる。
 すなわち、本発明に係る空気調和機の室内機においては、所定周期毎の領域判定結果を長期累積した領域特性と、所定周期毎の領域判定結果をN回分累積し、求めた各領域の累積反応期間回数の過去の履歴から人の所在地を推定することで、確率の高い人の位置推定結果を得るようにしている。
 表2は、このようにして人の在否を判定し、T1=0.2秒、M=45回に設定した場合の在推定に要する時間、不在推定に要する時間を示している。
Figure JPOXMLDOC01-appb-T000002
 このようにして、本発明に係る空気調和機の室内機により空調すべき領域を撮像センサユニット24により複数の領域A~Gに区分した後、各領域A~Gの領域特性(生活区分I~III)を決定し、さらに各領域A~Gの領域特性に応じて在推定に要する時間、不在推定に要する時間を変更するようにしている。
 すなわち、空調設定を変更した後、風が届くまでには1分程度要することから、短時間(例えば、数秒)で空調設定を変更しても快適性を損なうのみならず、人がすぐいなくなるような場所に対しては、省エネの観点からあまり空調を行なわないほうが好ましい。そこで、各領域A~Gにおける人の在否をまず検知し、特に人がいる領域の空調設定を最適化している。
 詳述すると、生活区分IIと判別された領域の在否推定に要する時間を標準として、生活区分Iと判別された領域では、生活区分IIと判別された領域より短い時間間隔で人の存在が推定されるのに対し、その領域から人がいなくなった場合には、生活区分IIと判別された領域より長い時間間隔で人の不存在を推定することにより、在推定に要する時間を短く、不在推定に要する時間は長く設定されることになる。逆に、生活区分IIIと判別された領域では、生活区分IIと判別された領域より長い時間間隔で人の存在が推定されるのに対し、その領域から人がいなくなった場合には、生活区分IIと判別された領域より短い時間間隔で人の不存在を推定することにより、在推定に要する時間を長く、不在推定に要する時間は短く設定されることになる。さらに、上述したように長期累積結果によりそれぞれの領域の生活区分は変わり、それに応じて、在推定に要する時間や不在推定に要する時間も可変設定されることになる。
 以上の説明では、撮像センサユニットによる人位置推定として、差分法を利用したが、もちろん、他の手法を利用してもかまわない。例えば、人物の全身の画像データを利用して、フレーム画像から人らしい領域を抽出するようにしてもかまわない。このような手法としては、例えば、HOG(Histograms of Oriented Gradients)特徴量などを利用する手法が広く知られている(N. Dalal and B. Triggs, “Histograms of Oriented Gradients for Human Detection”, In Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Vol.1, pp.886-893, 2005.)。HOG特徴量は、局所領域内におけるエッジ方向ごとのエッジ強度に着目した特徴量であり、この特徴量をSVM(Support Vector Machine)などにより学習・識別を行なうことにより、フレーム画像から人物領域を検出するようにしてもかまわない。
 図21は、フレーム画像から人らしい領域を抽出する処理を利用した人位置推定の処理の流れを示したフローチャートである。この図において、図5と同じステップに関しては、同一の符号を付しており、ここではその詳細な説明を省略する。
 ステップS104において、前述のHOG特徴量を利用することで、フレーム画像内において、人らしい領域を人領域として抽出する。
 ステップS103において、求まった人領域の重心位置を計算することにより、検出された人物の位置を検出する。画像の重心位置から人物の位置を検出するためには、前述の通り、数3、数5を利用すればよい。
 また、人物の全身の画像データを利用するのではなく、フレーム画像から顔らしい領域を抽出するようにしてもかまわない。このような手法としては、例えば、Haar-Like特徴量などを利用する手法が広く知られている(P. Viola and M. Jones, “Robust real-time face detection”, International Journal of Computer Vision, Vol.57, no.2, pp.137-154, 2004.)。Haar-Like特徴量は、局所領域間における輝度差に着目した特徴量であり、この特徴量をSVM(Support Vector Machine)などにより学習・識別を行なうことにより、フレーム画像から人物領域を検出するようにしてもかまわない。
 図22は、フレーム画像から顔らしい領域を抽出する処理を利用した人位置推定の処理の流れを示したフローチャートである。この図において、図5と同じステップに関しては、同一の符号を付しており、ここではその詳細な説明を省略する。
 ステップS105において、前述のHaar-Like特徴量を利用することで、フレーム画像内において、顔らしい領域を顔領域として抽出する。
 ステップS103において、求まった顔領域の重心位置を計算することにより、検出された人物の位置を検出する。画像の重心位置から人物の位置を検出するためには、前述の通り、透視投影変換を利用すればよい。このとき、人物の全身領域を利用して、その重心位置から人物の位置を検出する場合、人物の重心の高さとして、h=約80cmとしたが、顔領域を利用する場合、顔重心までの高さとして、h=約160cmとして数3、数5を利用することにより、人物の位置を検出する。
<障害物検知手段の構成>
 前述の撮像センサユニット24を利用して、障害物検出を行なう、この障害物検知手段について説明する。なお、本明細書で使用する「障害物」という用語は、室内機の吹出口10から吹き出され居住者に快適空間を提供するための空気の流れを妨げる物全般を指しており、例えばテーブルやソファー等の家具、テレビ、オーディオ等の居住者以外の物を総称したものである。
 本実施の形態においては、障害物検出手段により居住空間の床面を図12に示した通り、垂直方向の角度αと水平方向の角度βに基づき、図23に示されるように細分化し、これらの領域の各々を障害物位置判別領域あるいは「ポジション」と定義し、どのポジションに障害物が存在しているかを判別するようにしている。なお、図23に示される全ポジションは、図13(b)に示される人位置判別領域の全領域と略一致しており、図13(b)の領域境界を図23のポジション境界に略一致させ、領域及びポジションを次のように対応させることで、後述する空調制御を容易に行なうことができ、記憶させるメモリを極力少なくしている。
 領域A:ポジションA1+A2+A3
 領域B:ポジションB1+B2
 領域C:ポジションC1+C2
 領域D:ポジションD1+D2
 領域E:ポジションE1+E2
 領域F:ポジションF1+F2
 領域G:ポジションG1+G2
 なお、図23の領域分割は、ポジションの領域数を人位置判別領域の領域数より多く設定しており、人位置判別領域の各々に少なくとも二つのポジションが属し、これら少なくとも二つの障害物位置判別領域を室内機から見て左右に配置しているが、各人位置判別領域に少なくとも一つのポジションが属するように領域分割して、空調制御を行なうこともできる。
 また、図23の領域分割は、複数の人位置判別領域の各々が、室内機までの距離に応じて区分され、近い領域の人位置判別領域に属するポジションの領域数を遠い領域の人位置判別領域に属するポジションの領域数より多く設定しているが、室内機からの距離にかかわらず、各人位置判別領域に属するポジション数を同数にしてもよい。
<障害物検知手段の検知動作及びデータ処理>
 上述したように、本発明に係る空気調和機は、人体検知手段により領域A~Gにおける人の在否を検知するとともに、障害物検知手段によりポジションA1~G2における障害物の有無を検知し、人体検知手段の検知信号(検知結果)と障害物検知手段の検知信号(検知結果)に基づいて、風向変更手段である上下羽根12及び左右羽根14を駆動制御することにより、快適空間を提供するようにしている。
 人体検知手段は、前述の通り、例えば人物が動くことを利用し、空調空間内で動きがある物体を検知することにより人の在否を検知することができるのに対し、障害物検知手段は、撮像センサユニット24により障害物の距離を検知することから、人と障害物を判別することができない。
 人を障害物として誤認すると、人がいる領域を空調できなかったり、人に空調風(気流)を直接当ててしまったりすることもあり、結果として非効率な空調制御あるいは人に不快感を与える空調制御となるおそれがある。
 そこで、障害物検知手段について、以下に説明するデータ処理を行って障害物のみを検知するようにしている。
 まず、撮像センサユニットを利用した障害物検知手段について説明する。撮像センサユニットを利用して障害物を検出するために、ステレオ法を利用する。ステレオ法は、複数の撮像センサユニット24及び26を利用し、その視差を利用して被写体までの距離を推定する手法である。図24は、ステレオ法による障害物検出を説明するための模式図である。図において、撮像センサユニット24及び26を利用して、障害物である点Pまでの距離を計測している。また、fは焦点距離、Bは二つの撮像センサユニット24及び26の焦点間の距離、u1は撮像センサユニット24の画像上での障害物のu座標、また、u1の撮像センサユニット26の画像上での対応点のu座標をu2、Xは撮像センサユニットから点Pまでの距離を示している。また、2つの撮像センサユニット24及び26の画像中心位置は等しいとする。このとき、撮像センサユニットから点Pまでの距離Xは、次式より求められる。
Figure JPOXMLDOC01-appb-M000006
 この式から、撮像センサユニットから障害物の点Pまでの距離Xは、撮像センサユニット24,26間の視差|u1-u2|に依存することがわかる。
 また、対応点の探索は、テンプレートマッチング法を利用したブロックマッチング法などを利用すればよい。以上のように、撮像センサユニットを利用することで、空調空間内の距離測定(障害物の位置検知)を行なう。
 数3、数5、数6より、障害物の位置は、画素位置と視差によって推定されることがわかる。表3におけるi及びjは、計測すべき画素位置を示しており、垂直方向の角度及び水平方向の角度は、上述した仰角α及び室内機から見て正面の基準線から右向きに測定した角度βをそれぞれ示している。すなわち、室内機から見て、垂直方向に5度~80度、水平方向に10度~170度の範囲で各画素を設定し、撮像センサユニットは各画素の視差を計測する。
Figure JPOXMLDOC01-appb-T000003
 すなわち、空気調和機は、画素[14,15]から画素[142,105]までの各画素で視差を測定することで距離測定(障害物の位置検知)を行なう。
 また、空気調和機の運転開始時の障害物検知手段の検知範囲を、仰角10度以上に制限するようにしてもかまわない。これは、空気調和機の運転開始時には人がいる可能性が高く、人を検知しない可能性が高い領域のみ、すなわち壁がある領域を距離測定することで、計測データを有効利用できるからである(人は障害物ではないので、後述するように、人がいる領域のデータは使用しない)。
 次に、障害物までの距離測定について、図25のフローチャートを参照しながら説明する。
 まずステップS41において、現在の画素に対応する領域(図13に示される領域A~Gのいずれか)に人がいないと判定された場合には、ステップS42に移行する一方、人がいると判定された場合には、ステップS43に移行する。すなわち、人は障害物ではないので、人がいると判定された領域に対応する画素では、距離測定を行なうことなく以前の距離データを使用し(距離データを更新しない)、人がいないと判定された領域に対応する画素においてのみ距離測定を行い、新たに測定した距離データを使用する(距離データを更新する)ように設定する。
 すなわち、各障害物位置判別領域において障害物の有無判定を行なうに際し、各障害物位置判別領域に対応する人位置判別領域における人の在否判定結果に応じて、各障害物位置判別領域における障害物検知手段の判定結果を更新するか否かを決定することで、障害物の有無判定を効率的に行っている。より具体的には、人体検知手段により人がいないと判定された人位置判別領域に属する障害物位置判別領域においては、障害物検知手段による前回の判定結果を新たな判定結果で更新する一方、人体検知手段により人がいると判定された人位置判別領域に属する障害物位置判別領域においては、障害物検知手段による前回の判定結果を新たな判定結果で更新しないようにしている。
 ステップS42において、前述のブロックマッチング法を利用することで、各画素の視差を計算し、ステップS44へ移行する。
 ステップS44においては、同じ画素で8回のデータを取得し、取得したデータに基づく距離測定が完了したかどうかの判定が行われ、距離測定が完了していないと判定されると、ステップS41に戻る。逆に、ステップS44において、距離測定が完了したと判定されると、ステップS45に移行する。
 ステップS45において、その信頼性を評価することで、距離推定の精度を向上させる。すなわち、信頼性があると判断した場合、ステップS46において距離番号確定処理を行なう一方、信頼性がないと判断した場合には、ステップS47において近傍の距離番号をその画素の距離データとして処理を行なう。
 なお、これらの処理は撮像センサ24及び26で行われることから、撮像センサユニット24及び26は障害物位置検知手段として作用する。
 次にステップS46における距離番号確定処理を説明するが、用語「距離番号」についてまず説明する。
 「距離番号」は、撮像センサユニットから空調空間のある位置Pまでのおおよその距離を意味しており、図26に示されるように、撮像センサユニットは床面から2m上方に設置され、撮像センサユニットから位置Pまでの距離を「距離番号相当の距離」X[m]とすると、位置Pは次の式で表される。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 また、空気の流れを妨げるテーブルやソファー等の障害物は、床面から0.4~1.2mの高さにあるものと想定して、障害物の位置を室内機からの仰角αと距離番号(距離情報)に基づいて決定することができる。
 数6に示したように、距離番号相当の距離Xは撮像センサユニット間の視差に依存する。さらに、距離番号は2~12までの整数値とし、各距離番号に相当する距離を表4のように設定している。
Figure JPOXMLDOC01-appb-T000004
 なお、表4は、各距離番号と数2によって各画素のv座標値によって決定される仰角(α)に相当する位置Pの位置を示しており、黒色を付した部分は、hがマイナスの値となり(h<0)、床に食い込む位置を示している。また、表4の設定は、能力ランク2.2kwの空気調和機に適用されるものであり、この空気調和機は専ら6畳の部屋(対角距離=4.50m)に設置されるものとして、距離番号=9を制限値(最大値D)とし設定している。すなわち、6畳の部屋では、距離番号≧10に相当する位置は、対角距離>4.50mで部屋の壁を越えた位置(部屋の外側の位置)となり、全く意味を持たない距離番号であり、黒色で示している。
 因みに、表5は、能力ランク6.3kwの空気調和機に適用されるものであり、この空気調和機は専ら20畳の部屋(対角距離=8.49m)に設置されるものとして、距離番号=12を制限値(最大値D)として設定している。
Figure JPOXMLDOC01-appb-T000005
 表6は、空気調和機の能力ランクと各画素の仰角に応じて設定された距離番号の制限値を示している。
Figure JPOXMLDOC01-appb-T000006
 次に、ステップS45における信頼性評価処理と、ステップS46における距離番号確定処理について説明する。
 上述したように、距離番号には、空気調和機の能力ランクと各画素の仰角に応じて制限値が設定されており、距離番号推定結果がN>最大値Dの場合でも、複数の測定結果において、すべての結果が距離番号=Nでなければ、距離番号=Dに設定される。
 各画素で8回分の距離番号を決定し、大きい方から順に2つの距離番号と小さい方から順に2つの距離番号を除いて、残り4つの距離番号の平均値を取り、距離番号を確定する。ブロックマッチング法によるステレオ法を用いる場合、輝度変化のない障害物を検出する場合、視差計算は安定せず、測定する毎に大きく異なる視差結果(距離番号)が検出されてしまう。そこで、ステップS45において、残り4つの距離番号の値を比較し、そのばらつきが閾値以上である場合、ステップS47において、その距離番号の値は信頼性がないとしてその画素での距離推定をあきらめ、近傍画素において推定されている距離番号を利用する。なお、平均値は小数点以下を切り上げて量子化した整数値とし、このようにして確定された距離番号に相当する位置は、表4あるいは表5に記載のとおりである。
 なお、本実施の形態では、各画素で8つの距離番号を決定し、大小それぞれ2つの距離番号を除いて、残り4つの距離番号の平均値を取り、距離番号を確定するようにしたが、各画素で決定する距離番号は8つに限られるものではなく、平均値を取る距離番号も4つに限られるものではない。
 すなわち、各障害物位置判別領域において障害物の有無判定を行なうに際し、各障害物位置判別領域に対応する人位置判別領域における人の在否判定結果に応じて、各障害物位置判別領域における障害物検知手段の判定結果を更新するか否かを決定することで、障害物の有無判定を効率的に行っている。より具体的には、人体検知手段により人がいないと判定された人位置判別領域に属する障害物位置判別領域においては、障害物検知手段による前回の判定結果を新たな判定結果で更新する一方、人体検知手段により人がいると判定された人位置判別領域に属する障害物位置判別領域においては、障害物検知手段による前回の判定結果を新たな判定結果で更新しないようにしている。
 なお、図25のフローチャートにおけるステップS43において、以前の距離データを使用するようにしたが、空気調和機の据え付け直後は以前のデータは存在しないので、障害物検知手段による各障害物位置判別領域における判定が初回の場合には、デフォルト値を使用することとし、デフォルト値としては、上述した制限値(最大値D)が使用される。
 また、図25のフローチャートにおいては、障害物は床面から0.4~1.2mの高さにあるものと想定して、障害物の位置を室内機からの仰角αと距離情報(距離番号)に基づいて決定するようにしたが、各画素位置で障害物の有無のみを検知する場合、距離情報は必ずしも必要ではない。
 そこで、図25のフローチャートのステップS44,S46における距離測定処理及び距離番号確定処理に代えて、室内機からの距離に応じて最小・最大視差を設定し、障害物の有無を判定する場合について、図27及び表7~9を参照しながら説明する。
Figure JPOXMLDOC01-appb-T000007
Figure JPOXMLDOC01-appb-T000008
Figure JPOXMLDOC01-appb-T000009
 すなわち、床面からの高さに二つの閾値(0.4m、1.2m)を設定し、室内機からの距離に応じて各画素に二つの閾値に相当するデフォルトの最小視差と最大視差を図27及び表7(遠距離)、表8(中距離)、表9(近距離)に示されるように二つ設定し、最小視差と最大視差間に視差が存在した場合にのみ、その位置に障害物があるものとし、各画素で8回のデータを取得し、その信頼性が高い場合に障害物ありと判定する。
 なお、ここで使用した用語「遠距離」「中距離」「近距離」は、室内機からの距離に基づいて次のように定義している。
 近距離(L<2m):領域A
 中距離(L<4m):領域B,C,D
 遠距離(L<7.5m):領域E,F,G
 加えて、障害物検知精度には室内機(実際には、撮像センサユニット24)の設置高さも影響し、室内機の設置高さを考慮することで、障害物検知精度はさらに向上する。すなわち、室内機の設置高さを床面から2mの高さに想定して最小・最大視差を設定すると、室内機が床面から2mより低い位置に設置された場合、床面の溝等を障害物として検知することがあるのに対し、室内機が床面から2mより高い位置に設置された場合、障害物を全く検知できないことも考えられる。
 そこで、空気調和機を遠隔操作するリモコン(遠隔操作装置)あるいは室内機本体に、「標準」、「低め」、「高め」の室内機高さ切換手段(ボタン、スイッチ等)を設け、室内機の設置時にその高さに応じて室内機高さ切換手段を切り換えることで室内機の設置高さに起因する誤検知を防止することができる。
 図27は室内機の設置高さが床面から2mの場合を示しているが、室内機の設置高さが床面から1.7mの場合、最小・最大視差を図28及び表10~12のように設定し、室内機の設置高さが床面から2.4mの場合、最小・最大視差を図29及び表13~15のように設定することができる。
Figure JPOXMLDOC01-appb-T000010
Figure JPOXMLDOC01-appb-T000011
Figure JPOXMLDOC01-appb-T000012
Figure JPOXMLDOC01-appb-T000013
Figure JPOXMLDOC01-appb-T000014
Figure JPOXMLDOC01-appb-T000015
 したがって、室内機の設置高さが床面から2m±0.2m、1.7m±0.2m、2.4m±0.2mの場合の最小・最大視差を室内機高さ切換手段に設定された「標準」、「低め」、「高め」にそれぞれ対応させることで、室内機の設置高さに起因する誤検知を解消することができる。
 なお、表10~15において、最小・最大視差が同じ時間に設定されている仰角は、障害物検知を行なわないことを意味している。
 図30は、最小・最大視差をこのように設定するためのフローチャートを示している。
 ステップS61において、リモコンで設定された室内機の設置高さが「標準」かどうかを判定し、「標準」の場合には、ステップS62において図27の最小・最大視差を選択する一方、「標準」でない場合には、ステップS63に移行する。
 また、ステップS63においては、リモコンで設定された室内機の設置高さが「低め」かどうかを判定し、「低め」の場合には、ステップS64において、図28の最小・最大視差を選択する一方、「低め」でない場合には、リモコンで設定された室内機の設置高さは「高め」になるので、ステップS65において、図29の最小・最大視差を選択する。
 ここで、障害物の高さに注目すると、気流制御において、特に近距離領域に対しては障害物の高さを判断することが重要になってくる。例えば暖房時において、高さの低い障害物であれば、上下羽根12を通常自動風向制御(後述)より多少上向き設定して障害物の上から気流を送ることにより快適空調を行なうことができるのに対し、高さの高い障害物がある場合、その障害物を回避するために上下羽根12を上向き設定すると、気流が床面まで届かなかったり、あるいは居住者の顔に暖気が当たることがあり、居住者に不快感を与える可能性があることから、高さの高い障害物を回避する場合においては左右羽根14をスイング動作(後述)させる方が効果的となる。このように、室内に存在する障害物の高さを判断することで、気流制御の幅が広がり、快適な空調空間を実現することができる。
 そこで、床面からの高さに三つの閾値(例えば、0.4m、0.7m、1.2m)を設け、床面からの高さが0.7~1.2mの障害物を「高障害物」、床面からの高さが0.4~0.7mの障害物を「低障害物」と定義し、近距離領域に対しては、高障害物検知用の最小・最大視差と低障害物検知用の最小・最大視差を設定して2段階の検知を行なうこともできる。
 具体的には、遠距離領域及び中距離領域については障害物の高さ区分を一つ(0.4~1.2m)とし、図27、図28、図29の最小・最大視差を使用して、各画素で8回のデータを取得し、障害物の有無判定を行なうのに対し、近距離領域については障害物の高さ区分を二つとし、近距離領域の各画素では、図31あるいは表16に示される最小・最大視差を使用し、8回のデータを取得して高障害物の有無判定を行ない、その後さらに表17に示される最小・最大視差を使用し、8回のデータを取得して低障害物の有無判定を行なう。
Figure JPOXMLDOC01-appb-T000016
Figure JPOXMLDOC01-appb-T000017
 なお、遠距離領域及び中距離領域についても障害物の高さ区分を二つとし、高障害物検知用の最小・最大視差と低障害物検知用の最小・最大視差を設定して2段階の障害物検知を行なうと、さらに気流制御の幅が広がる。ここで、「高障害物」の高さ限界と「低障害物」の低さ限界を特に必要としない場合であれば、高さの閾値を三つとせず一つあるいは二つにしてもかまわない。
 また、床面からの高さに四つ以上の閾値を設定し、障害物の高さを三つ以上に区分することもできるが、室内機に近い領域ほど障害物の高さ区分数を多くするのが好ましい。
 なお、室内機の設置高さが「低め」の場合には、図32及び表18、表19の最小・最大視差を使用する。
Figure JPOXMLDOC01-appb-T000018
Figure JPOXMLDOC01-appb-T000019
 また、室内機の設置高さが「高め」の場合には、図33及び表20、表21の最小・最大視差を使用する。
Figure JPOXMLDOC01-appb-T000020
Figure JPOXMLDOC01-appb-T000021
 なお、図31乃至図33あるいは表16乃至表21においては、高障害物検知用の最小・最大視差と低障害物検知用の最小・最大視差が重ならないように設定したが、後述する障害物検知の学習制御によれば、一つのポジションで高障害物と低障害物を分けて障害物検知を行なうと、そのポジションに障害物があるにもかかわらず、障害物なしと判定される可能性があることから、低障害物検知用最小視差を高障害物検知用最小視差に一致するようにしてもよい。この場合、低障害物は低障害物としてのみ判定され、高障害物は高障害物として判定されるとともに低障害物としても判定される。
 また、図27乃至図33に示されるように、計測する画素に二つの最小・最大視差を設定して床面から0.4~1.2mの高さにある障害物を検知する場合、中距離領域で計測する仰角は遠距離あるいは近距離で計測する仰角と重なっており、中距離領域に該当する仰角では、各画素で最小・最大視差を変更して2回のデータ取得が行われる。
<障害物検知の学習制御>
 前述のように、ステレオ法は輝度変化のない障害物を検出する場合など、被写体によっては、障害物検知に失敗する可能性が高くなる。
 一例として、輝度変化がなく、平坦な上面を有する食卓等のテーブルを考えると、テーブル上に何もない場合、ステレオ法では視差計算に失敗してしまうため、テーブルの位置決定は難しい。しかし、テーブル上に生活用品(食器、リモコン、本、新聞、ティッシュ箱等)が存在すると、上面に輝度差(テクスチャ)が生じるため、ステレオ法によるテーブルの位置決定は容易になる。
 そこで、この学習制御においては、障害物検知を、障害物だけでなく障害物の近傍にある周囲の付帯物との相互作用も利用して行なうようにしている。しかしながら、実際に部屋内に置かれている家具等(実際には、家具というよりもむしろ家具上に置かれている生活用品)は日々その場所が変わる可能性が高く、障害物の角度や、障害物近傍の周囲付帯物の相互作用は変化することから、障害物検知を繰り返し行なうことにより、検知ミスを極力低減することが可能となる。この学習制御は、図34に示されるフローチャートのように、毎回の走査結果を元に障害物位置を学習し、その学習制御結果から障害物のある場所を判断し、後述する気流制御を行なうものである。
 図34は、障害物有無判定を示すフローチャートを示しており、この障害物有無判定は、図23に示される全てのポジション(障害物位置判別領域)に対し順次行われる。ここでは、ポジションA1を例に取り説明する。
 撮像センサユニット24,26により障害物検知動作を開始すると、まずステップS71において、ポジションA1の最初の画素で撮像センサユニット24,26により検知動作(ステレオ法)を行ない、ステップS72において、上述した障害物の有無判定を行なう。ステップS72において、障害物があると判定されると、ステップS73において、第1のメモリに「1」を加算する一方、障害物がないと判定されると、ステップS74において、第1のメモリに「0」を加算する。
 ステップS75において、ポジションA1のすべての画素における検知が終了したかどうかを判定し、すべての画素における検知が終了していない場合には、ステップS76において、次の画素でステレオ法により検知動作を行ない、ステップS72に戻る。
 一方、すべての画素における検知が終了した場合には、ステップS77において、第1のメモリに記録された数値(障害物があると判定された画素の合計)をポジションA1の画素数で除して(割算を行って)、次のステップS78において、その商を所定の閾値と比較する。商が閾値より大きい場合には、ステップS79において、ポジションA1には障害物があると一時的に判定され、ステップS80において、第2のメモリに「5」を加算する。一方、商が閾値未満の場合には、ステップS81において、ポジションA1には障害物がないと一時的に判定され、ステップS82において、第2のメモリに「-1」を加算する(「1」を減算する)。
 なお、撮像センサユニット24,26により障害物検知は、撮像センサユニット24,26から障害物までの距離が遠くなるほど難しいことから、ここで使用する閾値は、室内機からの距離に応じて、例えば次のように設定される。
 近距離:0.4
 中距離:0.3
 遠距離:0.2
 また、この障害物検知動作は、空気調和機を運転するたびに行われるので、第2のメモリには、「5」あるいは「-1」が繰り返し加算される。そこで、第2のメモリに記録される数値は、最大値を「10」に、最小値を「0」に設定している。
 次に、ステップS83において、第2のメモリに記録された数値(加算後の合計)が判定基準値(例えば、5)以上かどうかを判定し、判定基準値以上であれば、ステップS84において、ポジションA1には障害物があると最終的に判定される一方、判定基準値未満であれば、ステップS85において、ポジションA1には障害物がないと最終的に判定される。
 なお、第1のメモリは、あるポジションの障害物検知動作が終了すると、そのメモリをクリアすることにより、次のポジションにおける障害物検知動作のメモリとして使用できるが、第2のメモリは、空気調和機を運転するたびに一つのポジションでの加算値を累積することから(ただし、最大値≧合計≧最小値)、ポジション数と同数のメモリが用意されている。
 上述した障害物検知の学習制御において、判定基準値として「5」を設定し、あるポジションにおける初回の障害物検知で障害物ありと最終的に判定されると、第2のメモリには「5」が記録される。この状態で、次回の障害物検知で障害物なしと最終的に判定されると、「5」に「-1」を加算した値が判定基準値未満となるので、そのポジションには障害物は存在しないことになる。
 しかしながら、次回の障害物検知でも障害物ありと最終的に判定されると、「5」に「5」を加算した値「10」が第2のメモリに記録され、合計値は判定基準値以上なので、そのポジションには障害物は存在することになり、次々回以降5回の障害物検知で障害物なしと判定されても、「10」に「-1×5」を加算した値は「5」なので、そのポジションには依然として障害物が存在することになる。
 つまり、この障害物検知の学習制御は、複数回の加算累計値(あるいは加減算累計値)に基づいて障害物の最終有無判定を行なうに際し、障害物ありと判定されたときに加算する値を、障害物なしと判定されたときに減算する値よりも十分に大きな数字に設定したことに特徴があり、このように設定することで、障害物があるという結果が出やすいようにしている。
 また、第2のメモリに記録される数値に最大値及び最小値を設定することで、引越しや模様替え等により障害物の位置が大きく変化しても、できるだけ早くその変化に追随することができる。最大値を設けない場合、障害物ありと毎回判定されると、その和が次第に大きくなり、引越し等により障害物の位置が変わり、障害物ありと毎回判定された領域に障害物がなくなった場合でも、判定基準値を下回るのに時間がかかってしまう。また、最小値値を設けなかった場合には、その逆の現象が発生することになる。
 図35は、図34のフローチャートで示される障害物検知の学習制御の変形例を示しており、ステップS100,S102,S103の処理のみ図34のフローチャートと相違しているので、これらのステップについて説明する。
 この学習制御では、ステップS99において、ポジションA1には障害物があると一時的に判定されると、ステップS100において、第2のメモリに「1」を加算する。一方、ステップS101において、ポジションA1には障害物がないと一時的に判定されると、ステップS102において、第2のメモリに「0」を加算する。
 次に、ステップS103において、現在の障害物検知を含む過去10回の障害物検知に基づいて第2のメモリに記録された合計値を判定基準値(例えば、2)と比較し、判定基準値以上であれば、ステップS104において、ポジションA1には障害物があると最終的に判定される一方、判定基準値未満であれば、ステップS105において、ポジションA1には障害物がないと最終的に判定される。
 すなわち、上述した障害物検知の学習制御は、あるポジションにおける過去10回の障害物検知で8回障害物を検知できなくても、2回検知できれば、障害物があると最終的に判定されることになる。したがって、この学習制御は、障害物があると最終的に判定する障害物検知回数(ここでは、2)を、参照する過去の障害物検知回数よりも十分に小さな数字に設定したことに特徴があり、このように設定することで、障害物があるという結果が出やすいようにしている。
 なお、室内機本体あるいはリモコンに、第2のメモリに記録されたデータをリセットするボタンを設け、このボタンを押すことにより、前記データをリセットするようにしてもよい。
 基本的には、気流制御に大きな影響を及ぼす障害物や壁面の位置が変わることは少ないが、引越し等に伴う室内機の設置位置の変更や、部屋内の模様替えによる家具位置の変更等が生じた場合、それまでに得られたデータを元に気流制御を行なうことは好ましくない。これは、学習制御により、いずれはその部屋に適した制御となるが、最適制御となるまでには時間がかかるからである(特に、その領域において障害物がなくなった場合に顕著である)。したがって、リセットボタンを設け、室内機と障害物あるいは壁面の相対的な位置関係が変わった場合には、それまでのデータをリセットすることにより、過去の間違ったデータを元にした不適切な空調を防止できるとともに、学習制御を最初から再開することにより、より早くその状況に合った制御とすることができる。
<障害物回避制御>
 上記障害物の有無判定に基づき、風向変更手段としての上下羽根12及び左右羽根14は、暖房時次のように制御される。
 以下の説明においては、用語「ブロック」、「フィールド」を使用するが、これらの用語をまず説明する。
 図13に示される領域A~Gは次のブロックにそれぞれ属している。
 ブロックN:領域A
 ブロックR:領域B,E
 ブロックC:領域C,F
 ブロックL:領域D,G
 また、領域A~Gは次のフィールドにそれぞれ属している。
 フィールド1:領域A
 フィールド2:領域B,D
 フィールド3:領域C
 フィールド4:領域E,G
 フィールド5:領域F
 表22は、左右羽根14を構成する5枚の左羽根と5枚の右羽根の各ポジションにおける目標設定角度を示しており、数字(角度)に付した記号は、図36に示されるように、左羽根あるいは右羽根が内側に向く場合をプラス(+、表22では無記号)の方向、外側に向く場合をマイナス(-)の方向と定義している。
Figure JPOXMLDOC01-appb-T000022
 また、表22における「暖房B領域」とは、障害物回避制御を行なう暖房領域のことであり、「通常自動風向制御」とは、障害物回避制御を行なわない風向制御のことである。ここで、障害物回避制御を行なうかどうかの判定は、室内熱交換器6の温度を基準としており、温度が低い場合は居住者に風を当てない風向制御、高すぎる場合は最大風量位置の風向制御、適度な温度の場合は暖房B領域への風向制御を行なう。また、ここでいう「温度が低い」、「高すぎる」、「居住者に風を当てない風向制御」、「最大風量位置の風向制御」とは、次のとおりの意味である。
 ・低い温度:室内熱交換器6の温度は皮膚温度(33~34℃)を最適温度として設定しており、この温度以下になりうる温度(例えば、32℃)
 ・高すぎる温度:例えば、56℃以上
 ・居住者に風を当てない風向制御:居住空間に風を送らないように、上下羽根12を角度制御して、風が天井に沿うように流れる風向制御
 ・最大風量位置の風向制御:空気調和機は、上下羽根12及び左右羽根14により気流を曲げると必ず抵抗(損失)が発生することから、最大風量位置とは損失が限りなく0に近くなる風向制御(左右羽根14の場合、まっすぐ正面を向いた位置であり、上下羽根12の場合、水平から35度下を向いた位置)
 表23は、障害物回避制御を行なう場合の上下羽根12の各フィールドにおける目標設定角度を示している。なお、表23における上羽根の角度(γ1)及び下羽根の角度(γ2)は垂直線から上方向に測定した角度(仰角)である。
Figure JPOXMLDOC01-appb-T000023
 次に、障害物の位置に応じた障害物回避制御について具体的に説明するが、障害物回避制御において使用される用語「スイング動作」「ポジション停留稼動」「ブロック停留稼動」についてまず説明する。
 スイング動作とは、左右羽根14の揺動動作のことで、基本的には目標の一つのポジションを中心に所定の左右角度幅で揺動し、スイングの両端で固定時間がない動作のことである。
 また、ポジション停留稼動とは、あるポジションの目標設定角度(表22の角度)に対し、表24の補正を行ない、それぞれ、左端及び右端とする。動作としては、左端と右端でそれぞれ風向固定時間(左右羽根14を固定する時間)を持ち、例えば、左端で風向固定時間が経過した場合、右端に移動し、右端で風向固定時間が経過するまで、右端の風向を維持し、風向固定時間の経過後、左端に移動し、それを繰り返すものである。風向固定時間は、例えば60秒に設定される。
Figure JPOXMLDOC01-appb-T000024
 すなわち、あるポジションに障害物がある場合に、そのポジションの目標設定角度をそのまま使用すると、温風が常に障害物に当たるが、表24の補正を行なうことで、障害物の横から温風を人がいる位置に到達させることができる。
 さらにブロック停留稼動とは、各ブロックの左端と右端に対応する左右羽根14の設定角度を、例えば表25に基づいて決定する。動作としては、各ブロックの左端と右端でそれぞれ風向固定時間を持ち、例えば、左端で風向固定時間が経過した場合、右端に移動し、右端で風向固定時間が経過するまで、右端の風向を維持し、風向固定時間の経過後、左端に移動し、それを繰り返すものである。風向固定時間は、ポジション停留稼動と同様に、例えば60秒に設定される。なお、各ブロックの左端と右端は、そのブロックに属する人位置判別領域の左端と右端に一致しているので、ブロック停留稼動は、人位置判別領域の停留稼動と言うこともできる。
Figure JPOXMLDOC01-appb-T000025
 なお、ポジション停留稼動とブロック停留稼動は、障害物の大きさに応じて使い分けている。前方の障害物が小さい場合、障害物のあるポジションを中心にポジション停留稼動を行なうことで障害物を避けて送風するのに対し、前方の障害物が大きく、例えば人がいる領域の前方全体に障害物がある場合、ブロック停留稼動を行なうことで広い範囲にわたって送風するようにしている。
 本実施の形態においては、スイング動作とポジション停留稼動とブロック停留稼動を総称して、左右羽根14の揺動動作と称している。
 以下、上下羽根12あるいは左右羽根14の制御例を具体的に説明するが、人体検知手段により人が単一の領域にのみいると判定された場合、人体検知手段により人がいると判定された人位置判別領域の前方に位置する障害物位置判別領域に障害物があると障害物検知手段により判定された場合、上下羽根12を制御して障害物を上方から回避する気流制御を行なうようにしている。また、人体検知手段により人がいると判定された人位置判別領域に属する障害物位置判別領域に障害物があると障害物検知手段により判定された場合、人がいると判定された人位置判別領域に属する少なくとも一つの障害物位置判別領域内で左右羽根14を揺動させ、揺動範囲の両端で左右羽根14の固定時間を設けない第1の気流制御と、人がいると判定された人位置判別領域あるいは当該領域に隣接する人位置判別領域に属する少なくとも一つの障害物位置判別領域内で左右羽根14を揺動させ、揺動範囲の両端で左右羽根14の固定時間を設けた第2の気流制御の一つを選択するようにしている。
 また、以下の説明では、上下羽根12の制御と左右羽根14の制御を分けているが、人及び障害物の位置に応じて、上下羽根12の制御と左右羽根14の制御は適宜組み合わせて行われる。
A.上下羽根制御
 (1)領域B~Gのいずれかに人がいて、人がいる領域の前方のポジションA1~A3に障害物がある場合
 上下羽根12の設定角度を通常のフィールド風向制御(表23)に対し表26のように補正し、上下羽根12を上向き設定した気流制御を行なう。
Figure JPOXMLDOC01-appb-T000026
 (2)領域B~Gのいずれかに人がいて、人がいる領域の前方の領域Aに障害物がない場合(上記(1)以外)
 通常自動風向制御を行なう。
B.左右羽根制御
 B1.領域A(近距離)に人がいる場合
 (1)領域Aにおいて障害物のないポジションが一つの場合
  障害物のないポジションの目標設定角度を中心として左右にスイング動作させ第1の気流制御を行なう。例えば、ポジションA1,A3に障害物があり、ポジションA2に障害物がない場合、ポジションA2の目標設定角度を中心として左右にスイング動作させ、基本的には障害物のないポジションA2を空調するが、ポジションA1,A3に人がいないとは限らないので、スイング動作を加えることで、ポジションA1,A3に多少でも気流が振り分けられるようにする。
 さらに具体的に説明すると、表22及び表24に基づいて、ポジションA2の目標設定角度及び補正角度(スイング動作時の揺動角)は決定されるので、左羽根及び右羽根は共に10度を中心に、それぞれ±10度の角度範囲で止まることなく揺動(スイング)し続ける。ただし、左羽根と右羽根を左右に振るタイミングは同一に設定されており、左羽根と右羽根の揺動動作は連動している。
 (2)領域Aにおいて障害物のないポジションが二つで、隣接している場合(A1とA2あるいはA2とA3)
  障害物のない二つのポジションの目標設定角度を両端としてスイング動作させ第1の気流制御を行なうことで、基本的に障害物のないポジションを空調する。
 (3)領域Aにおいて障害物のないポジションが二つで、離れている場合(A1とA3)
  障害物のない二つのポジションの目標設定角度を両端としてブロック停留稼動させ第2の気流制御を行なう。
 (4)領域Aにおいてすべてのポジションに障害物がある場合
  どこを狙っていいのか不明なので、ブロックNをブロック停留稼動させ第2の気流制御を行なう。領域全体を狙うよりもブロック停留稼動の方が指向性のある風向となって遠くに届きやすく、障害物を回避できる可能性が高いからである。すなわち、領域Aに障害物が点在している場合でも、障害物と障害物との間には通常隙間があり、この障害物間の隙間を通して送風することができる。
 (5)領域Aにおいてすべてのポジションに障害物がない場合
  領域Aの通常自動風向制御を行なう。
 B2.領域B,C,D(中距離)のいずれかに人がいる場合
 (1)人がいる領域に属する二つのポジションの一方にのみ障害物がある場合
  障害物のないポジションの目標設定角度を中心として左右にスイング動作させ第1の気流制御を行なう。例えば、領域Dに人がいて、ポジションD2にのみ障害物がある場合、ポジションD1の目標設定角度を中心として左右にスイング動作させる。
 (2)人がいる領域に属する二つのポジションの両方に障害物がある場合
  人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Dに人がいて、ポジションD1,D2の両方に障害物がある場合、ブロックLをブロック停留稼動させる。
 (3)人がいる領域に障害物がない場合
  人がいる領域の通常自動風向制御を行なう。
 B3.領域E,F,G(遠距離)のいずれかに人がいる場合
 (1)人がいる領域の前方の中距離領域に属する二つのポジションの一方にのみ障害物がある場合(例:領域Eに人がいて、ポジションB2に障害物があり、ポジションB1に障害物がない)
  (1.1)障害物があるポジションの両隣に障害物がない場合(例:ポジションB1,C1に障害物がない)
   (1.1.1)障害物があるポジションの後方に障害物がない場合(例:ポジションE2に障害物がない)
    障害物があるポジションを中心としてポジション停留稼動させ第2の気流制御を行なう。例えば、領域Eに人がいて、ポジションB2に障害物があり、その両側にも後方にも障害物がない場合、ポジションB2にある障害物を横から避けて領域Eに気流を送り込むことができる。
   (1.1.2)障害物があるポジションの後方に障害物がある場合(例:ポジションE2に障害物がある)
    中距離領域で障害物がないポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Eに人がいて、ポジションB2に障害物があり、その両側には障害物がないが、その後方に障害物がある場合、障害物がないポジションB1から気流を送り込むほうが有利である。
  (1.2)障害物があるポジションの両隣のうち一方に障害物があり、他方に障害物がない場合
   障害物がないポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Fに人がいて、ポジションC2に障害物があり、ポジションC2の両隣のうちポジションD1に障害物があり、C1に障害物がない場合、障害物がないポジションC1からポジションC2の障害物を避けて気流を領域Fに送ることができる。
 (2)人がいる領域の前方の中距離領域に属する二つのポジションの両方に障害物がある場合
  人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Fに人がいて、ポジションC1,C2の両方に障害物がある場合、ブロックCをブロック停留稼動させる。この場合、人の前方に障害物があり、障害物を避けようがないので、ブロックCに隣接するブロックに障害物があるかどうかに関係なく、ブロック停留稼動を行なう。
 (3)人がいる領域の前方の中距離領域に属する二つのポジションの両方に障害物がない場合(例:領域Fに人がいて、ポジションC1,C2に障害物がない)
  (3.1)人がいる領域に属する二つのポジションの一方のポジションにのみ障害物がある場合
   障害物がない他方のポジションの目標設定角度を中心としてスイング動作させ第1の気流制御を行なう。例えば、領域Fに人がいて、ポジションC1,C2,F1に障害物がなく、ポジションF2に障害物がある場合、人がいる領域Fの前方は開放されているので、遠距離の障害物を考慮して障害物のない遠距離のポジションF1を中心に空調する。
  (3.2)人がいる領域に属する二つのポジションの両方に障害物がある場合
   人がいる領域を含むブロックをブロック停留稼動させ第2の気流制御を行なう。例えば、領域Gに人がいて、ポジションD1,D2に障害物がなく、ポジションG1,G2の両方に障害物がある場合、人がいる領域Gの前方は開放されているが、この領域全体に障害物があり、どこを狙っていいのか不明なので、ブロックLをブロック停留稼動させる。
  (3.3)人がいる領域に属する二つのポジションの両方に障害物がない場合
    人がいる領域の通常自動風向制御を行なう。
 なお、この障害物回避制御は、人体検知手段による人の在否判定と障害物検知手段による障害物の有無判定に基づいて、上下羽根12及び左右羽根14を制御するようにしたが、障害物検知手段による障害物の有無判定のみに基づいて上下羽根12及び左右羽根14を制御することもできる。
<障害物の有無判定のみに基づく障害物回避制御>
 この障害物回避制御は、基本的には障害物検知手段により障害物ありと判定された領域を回避し、障害物なしと判定された領域に向けて送風するためのものであり、以下その具体例を説明する。
A.上下羽根制御
 (1)領域A(近距離)に障害物がある場合
  暖房時には軽くなって浮き上がる暖気を抑えるために上下羽根12を最下方向に向けて温風を送り出すと、領域Aに障害物がある場合、障害物の裏(室内機側)に暖気がたまったり、暖気が障害物に当たって床面まで届かないことが考えられる。
 そこで、室内機直下もしくはその近傍に障害物を検知した場合、上下羽根12の設定角度を通常のフィールド風向制御(表23)に対し表26のように補正し、上下羽根12を上向き設定した気流制御を行ない、障害物の上から空調を行なう。障害物を回避しようと気流全体を上に上げすぎてしまうと、暖気が居住者の顔に直接当たってしまい、不快感を与えるため、下羽根12bで暖気を持ち上げて障害物を回避しつつ、上羽根12aで浮き上がりを防ぐようにしている。
B.左右羽根制御
 (1)領域B,C,D(中距離)のいずれかに障害物がある場合
  障害物がない方向を重点的に空調する。例えば、領域C(部屋中央)に障害物を検知した場合には、障害物のない両側の領域B,Dを含むブロックを交互にブロック停留稼動させることで、障害物のない(=人の存在する可能性の高い)領域を重点的に空調できる。
 また、領域BあるいはD(部屋の隅)に障害物を検知した場合には、領域C及びDあるいは領域B及びCを含むブロックをブロック停留稼動させる。この場合、複数回(例えば、5回)に1回の割合で、領域C及びDあるいは領域B及びCをブロック停留稼動した後、領域BあるいはDに向けて左右羽根14をスイングさせるようにすると、人の存在する可能性がより高い領域を中心に空調することができるばかりでなく、部屋全体の空調の点で効果がある。
 また、障害物の有無を判別するポジション(障害物位置判別領域)は、空気調和機の能力ランクに関係なく図23に示されるように細分化してもよいが、能力ランクに応じて設置される部屋のサイズも異なるため、分割領域数を変えるようにしてもよい。例えば、能力ランクが4.0kw以上のものでは、図23に示されるように分割し、3.6kw以下のものでは、遠距離領域を設けることなく、近距離領域を3分割し、中距離領域を6分割するようにしてもよい。
 さらに、図23に示されるように、放射状に部屋を認識し、室内機から等間隔で近/中/遠距離と分割した場合、室内機から離れるほどその面積は大きくなる。そこで、室内機から離れるほど判別領域数を多くすることにより、各領域の大きさを略均一にすることができ、気流制御が行ないやすくなる。
 また、居住空間全体の距離測定は、表3に示される各画素に対してステレオ法を利用して行なわれるが、室内機から判別領域までの距離に応じて距離測定時の角度間隔を大きくすることもできる。
 ここで、各画素に対応する検知小領域を「セル」という用語で表現すると、各領域における検知セル数の数が増加するほど検知精度は向上するが、距離測定時間が長くなることから、検知精度と距離測定時間の兼ね合いを考慮するのが好ましい。そこで、例えば、近距離に対応する各画素(仰角α:5度~65度)では水平方向及び垂直方向をともに10度刻みに走査するとともに、中距離に対応する各画素(仰角α:50度~80度)及び遠距離に対応する各画素(仰角α:75度~80度)では水平方向及び垂直方向をともに5度刻みに走査することにより、各領域における検知セル数を略等しく(概ね20個前後)することができる。
 なお、表3においては、ステレオ法を垂直方向に5度~80度の範囲で走査するようにしたが、障害物の有無を検知するための領域として、室内機近傍の領域は障害物の検知を行なわないようにしてもかまわない。この場合、例えば、障害物回避制御は、仰角αが20度以上の範囲で行なうようにすればよい。
 なお、本実施の形態においては、距離検知手段としてのステレオ法を採用したが、ステレオ法に代えて、投光部28と撮像センサユニット24を利用した手法を採用することもできる。この手法について説明する。
 図37に示されるように、本実施形態の本体2には、撮像センサユニット24および投光部28を有する。投光部28は、光源と走査部からなり(図示せず)、光源は、LEDやレーザーを利用すればよい。また、走査部はガルバノミラーなどを利用し、投光方向を任意に変化させることができる。図38は、撮像センサユニット24と投光部28の関係を示した模式図である。本来、投光方向は2自由度、撮像面は縦横の2次元平面であるが、説明を簡略化するために、投影方向1自由度、撮像面は横方向のみの直線として考える。ここで、投光部28は、撮像センサユニット24の光軸方向に対して、投光方向ρで光を投光する。撮像センサユニット24は、投光部28が投光する直前のフレーム画像と投光中のフレーム画像の差分処理を行なうことにより、投光部28が投光した光を反射している点Pの画像上でのu座標u1を取得する。撮像センサユニット24から点Pまでの距離をXとすると、以下の関係が成り立つ。
Figure JPOXMLDOC01-appb-M000009
 よって、
Figure JPOXMLDOC01-appb-M000010
 つまり、投光部28の投光方向ρを変化させながら、その光の反射点Pを検出することにより、空調空間内の距離情報を得ることができる。
 表27におけるi及びjは、投光部28が走査すべきアドレスを示しており、垂直方向の角度及び水平方向の角度は、上述した仰角α及び室内機から見て正面の基準線から右向きに測定した角度βをそれぞれ示している。すなわち、室内機から見て、垂直方向に5度~80度、水平方向に10度~170度の範囲で各アドレスを設定し、投光部28は各アドレスを計測し、居住空間を走査する。
Figure JPOXMLDOC01-appb-T000027
 次に、障害物までの距離測定について、図39のフローチャートを参照しながら説明する。なお、図39のフローチャートは図25のフローチャートと極めて類似しているので、異なるステップのみ以下説明する。
 まずステップS48において、投光部28が投光を行なうアドレス[i,j]に対応する領域(図13に示される領域A~Gのいずれか)に人がいないと判定された場合には、ステップS49に移行する一方、人がいると判定された場合には、ステップS43に移行する。すなわち、人は障害物ではないので、人がいると判定された領域に対応する画素では、距離測定を行なうことなく以前の距離データを使用し(距離データを更新しない)、人がいないと判定された領域に対応する画素においてのみ距離測定を行ない、新たに測定した距離データを使用する(距離データを更新する)ように設定する。
 ステップS42において、前述の投光処理と反射点を撮像センサユニット24から取得することにより、障害物までの距離を推定する。もちろん、前述のように、距離番号確定処理を利用して、距離番号を利用した処理を行なえばよい。
 また、距離検知手段として人体検知手段を利用してもかまわない。これは、人体検知手段を利用した人体距離検出手段と、人体検知手段を利用した障害物検出手段からなる。この処理について説明する。
 図40に示されるように、本実施形態の本体2には、単一の撮像センサユニット24を有する。また、図41は、人体検知手段を利用した人体距離検出手段の処理の流れを示したフローチャートである。この図において、図5と同じステップに関しては、同一の符号を付しており、ここではその詳細な説明を省略する。
 ステップS201において、人体距離検出手段は、前記人体検知手段が領域分割を行なった各領域において、差分が生じている画素のうち、最も画像上部に存在する画素を検出し、そのv座標をv1として取得する。
 さらに、ステップS202において、人体距離検出手段は、最も画像上部のv座標であるv1を利用して、撮像センサユニット24から人物までの距離を推定する。図42は、この処理を説明するための模式図である。図42(a)はカメラ近傍と遠方に二人の人物121,122が存在するシーンの模式図、図42(b)は撮像センサユニットが図42(a)のシーンにおいて撮像した画像の差分画像を示している。また、差分が生じている領域123,124は、それぞれ、人物121,122に対応する。ここで、人物の身長h1が既知であり、空調空間内のすべての人物の身長はほぼ等しいとする。前述のように、撮像センサユニット24は2mの高さに設置されているため、図42(a)に示すように、撮像センサユニットは、人物の上部から見下ろして撮像を行なう。このとき、人物が撮像センサユニットに近ければ近いほど、図42(b)に示すように、人物は画像上の上部に撮像される。すなわち、人物の最も画像上部のv座標v1と撮像センサユニットから人物までの距離は1対1に対応する。このことから、人物の最も上部のv座標v1と撮像センサユニット24から人物までの距離の対応を事前に求めておくことにより、人体検知手段を利用した人体距離検出手段を行なうことができる。表28は、人物の平均身長をh1として利用し、人物の最も画像上部のv座標v1と撮像センサユニットから人物までの距離の対応を事前に求めた例である。ここでは、撮像センサユニットとして、VGAの解像度を有する撮像センサユニットを利用した。この表より、例えば、v1=70であった場合、撮像センサユニット24から人物までの距離は、およそ2mであると推測される。
Figure JPOXMLDOC01-appb-T000028
 次に、人体検知手段を利用した障害物検出手段について説明する。
 図43は、人体検知手段を利用した障害物検出手段の処理の流れを示したフローチャートである。
 ステップS203において、障害物検出手段は、前記人体距離検出手段が推定した撮像センサユニット24から人物までの距離情報を利用して、画像上での人物の高さv2を推定する。図44は、この処理を説明するための模式図であり、図42と同様のシーンを示した模式図である。ここで、前述のように人物の身長h1が既知であり、空調空間内のすべての人物の身長はほぼ等しいとする。前述のように、撮像センサユニット24は2mの高さに設置されているため、図41(a)に示すように、撮像センサユニットは、人物の上部から見下ろして撮像を行なう。このとき、人物が撮像センサユニット24に近ければ近いほど、図41(b)に示すように、人物の画像上での大きさは大きくなる。すなわち、人物の最も画像上部のv座標と最も画像下部のv座標との差v2は、撮像センサユニット24から人物までの距離に対して、1対1に対応する。このことから、撮像センサユニット24から人物までの距離がわかっている場合に、その画像上での大きさを推定することができる。これは、人物の最も画像上部のv座標と最も画像下部のv座標との差v2と撮像センサユニット24から人物までの距離の対応を事前に求めておけばよい。表29は、人物の最も画像上部のv座標v1、人物の最も画像上部のv座標と最も画像下部のv座標との差v2と撮像センサユニット24から人物までの距離の対応を事前に求めた例である。ここでは、撮像センサユニットとして、VGAの解像度を有する撮像センサユニットを利用した。この表より、例えば、撮像センサユニット24から人物までの距離が2mであった場合、人物の最も画像上部のv座標と最も画像下部のv座標との差v2=85であると推測される。
Figure JPOXMLDOC01-appb-T000029
 ステップS204において、障害物検出手段は、差分画像の各領域において、最も画像上部に存在する差分が生じている画素と最も画像下部に存在する差分が生じている画素を検出し、そのv座標の差v3を計算する。
 ステップS205において、撮像センサユニット24から人物までの距離情報を利用して推定した画像上での人物の高さv2と、実際の差分画像から求めた人物の高さv3を比較することで、撮像センサユニット24と人物の間に障害物が存在するかどうかを推定する。図45、図46は、この処理を説明するための模式図である。図45は、図42と同様のシーンを示しており、撮像センサユニット24と人物の間に障害物が存在しないシーンを示した模式図である。一方、図46は障害物が存在するシーンを示した模式図である。図45において、撮像センサユニットと人物の間に障害物が存在しない場合、撮像センサユニット24から人物までの距離情報を利用して推定した画像上での人物の高さv2と、実際の差分画像から求めた人物123の高さv3はほぼ等しくなる。一方、図46において、撮像センサユニット24と人物の間に障害物が存在する場合、人物の一部が遮蔽されてしまい、遮蔽された領域は差分が存在しなくなる。ここで、空調空間内の遮蔽物は、ほとんどのものが床に置かれていることに着目すると、人物の下部領域が遮蔽されると考えられる。このことは、人物領域の最も画像上部のv座標であるv1を利用して人物までの距離を求めた場合、もし、撮像センサユニット24と人物の間に障害物が存在したとしても、距離は正確に求まることを示している。一方、もし、撮像センサユニット24と人物の間に障害物が存在する場合、実際の差分画像から求めた人物125の高さv3は、撮像センサユニット24と人物までの距離情報を利用して推定した画像上での人物の高さv2に比べ、小さくなると推測される。そのため、ステップS205において、v3がv2に比べ十分に小さいと判断された場合、ステップS206に移行し、撮像センサユニット24と人物の間に障害物があると判断する。この際、撮像センサユニット24と障害物との距離は、最も上部のv座標v1から求めた撮像センサユニットから人物までの距離に等しいとする。
 以上のように、人体検知手段による検知結果を利用して、距離検知手段を実現する。
 本発明に係る空気調和機は、障害物の高さに応じて気流制御を行なうことにより快適性あるいは空調効率を向上することができるので、一般家庭用の空気調和機を含む様々な空気調和機として有用である。
2 室内機本体、 2a 前面開口部、 2b 上面開口部、
4 可動前面パネル、 6 熱交換器、 8 室内ファン、
10 吹出口、 12 上下羽根、 14 左右羽根、
16 フィルタ、 18,20 前面パネル用アーム、
24,26 撮像センサユニット、 28 投光部。

Claims (5)

  1. 室内機に、吹出口から吹き出される空気の向きを変更する風向変更羽根と、障害物の有無を検知する障害物検知手段を備えた撮像装置とを設け、該障害物検知手段の検知結果に基づいて前記風向変更羽根を制御して空調運転を行なう空気調和機であって、
     障害物を床面からの高さに応じて少なくとも二つ以上に区分し、その高さに応じて前記風向変更羽根を制御することを特徴とする空気調和機。
  2. 障害物の高さ区分数が室内機からの距離により異なることを特徴とする請求項1に記載の空気調和機。
  3. 障害物の高さ区分数が室内機に近い領域ほど多いことを特徴とする請求項2に記載の空気調和機。
  4. 室内機設置空間に、室内機から見た上下方向の角度及び左右方向の角度で決定される画素を設定し、各画素において障害物の高さ区分数だけ障害物検知を行なうようにしたことを特徴とする請求項1乃至3のいずれか1項に記載の空気調和機。
  5. 床面からの高さに対して少なくとも三つの閾値を設けて障害物の高さを区分することを特徴とする請求項1乃至4のいずれか1項に記載の空気調和機。
PCT/JP2010/005946 2009-10-07 2010-10-05 空気調和機 WO2011043054A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009233311A JP2011080683A (ja) 2009-10-07 2009-10-07 空気調和機
JP2009-233311 2009-10-07

Publications (1)

Publication Number Publication Date
WO2011043054A1 true WO2011043054A1 (ja) 2011-04-14

Family

ID=43856538

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005946 WO2011043054A1 (ja) 2009-10-07 2010-10-05 空気調和機

Country Status (2)

Country Link
JP (1) JP2011080683A (ja)
WO (1) WO2011043054A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107560113A (zh) * 2017-08-18 2018-01-09 青岛海尔空调器有限总公司 一种智能空调器控制方法及空调器
CN108644970A (zh) * 2018-03-28 2018-10-12 奥克斯空调股份有限公司 空调出风自动控制的方法
CN113251565A (zh) * 2021-06-04 2021-08-13 珠海格力电器股份有限公司 空调出风控制方法、装置、存储介质、处理器及空调

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8955659B2 (en) 2011-03-31 2015-02-17 Honda Motor Co., Ltd. Internal combustion engine and supplying oil path structure for hydraulic clutch in internal combustion engine
JP5800760B2 (ja) * 2012-06-01 2015-10-28 三菱電機株式会社 空気調和機
JP5673696B2 (ja) * 2013-01-24 2015-02-18 三菱電機株式会社 空気調和装置
CN110762817B (zh) * 2019-10-31 2020-08-07 万秋花 临床检验科室可移动式出风口高度调节平台及方法
CN116379537B (zh) * 2023-05-26 2023-08-18 广州市冰峰制冷工程有限公司 智能化全新风机组控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH062922A (ja) * 1992-06-19 1994-01-11 Matsushita Electric Ind Co Ltd 空気調和システム
JP2008261567A (ja) * 2007-04-12 2008-10-30 Mitsubishi Electric Corp 空気調和機
JP2010276231A (ja) * 2009-05-27 2010-12-09 Panasonic Corp 空気調和機

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3805165B2 (ja) * 2000-04-26 2006-08-02 三菱電機株式会社 人体検知装置及び空気調和装置
JP4640286B2 (ja) * 2006-07-26 2011-03-02 パナソニック電工株式会社 制御システム
JP2010190432A (ja) * 2007-06-12 2010-09-02 Mitsubishi Electric Corp 空間認識装置及び空気調和機

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH062922A (ja) * 1992-06-19 1994-01-11 Matsushita Electric Ind Co Ltd 空気調和システム
JP2008261567A (ja) * 2007-04-12 2008-10-30 Mitsubishi Electric Corp 空気調和機
JP2010276231A (ja) * 2009-05-27 2010-12-09 Panasonic Corp 空気調和機

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107560113A (zh) * 2017-08-18 2018-01-09 青岛海尔空调器有限总公司 一种智能空调器控制方法及空调器
CN107560113B (zh) * 2017-08-18 2019-12-31 青岛海尔空调器有限总公司 一种智能空调器控制方法及空调器
CN108644970A (zh) * 2018-03-28 2018-10-12 奥克斯空调股份有限公司 空调出风自动控制的方法
CN108644970B (zh) * 2018-03-28 2021-01-26 奥克斯空调股份有限公司 空调出风自动控制的方法
CN113251565A (zh) * 2021-06-04 2021-08-13 珠海格力电器股份有限公司 空调出风控制方法、装置、存储介质、处理器及空调

Also Published As

Publication number Publication date
JP2011080683A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
WO2011043054A1 (ja) 空気調和機
JP5454065B2 (ja) 空気調和機
JP5402488B2 (ja) 空気調和機
JP2011080621A (ja) 空気調和機
JP5402487B2 (ja) 空気調和機
JP5405901B2 (ja) 空気調和機
JP5426235B2 (ja) 空気調和機
JP2012042074A (ja) 空気調和機
JP5336931B2 (ja) 空気調和機
JP2013024534A (ja) 状況認識装置
JP5267408B2 (ja) 空気調和機
JP5487867B2 (ja) 空気調和機
JP5488297B2 (ja) 空気調和機
JP2011080685A (ja) 空気調和機
JP5487869B2 (ja) 空気調和機
JP5254881B2 (ja) 空気調和機
JP5267395B2 (ja) 空気調和機
JP5388726B2 (ja) 空気調和機
JP2010276232A (ja) 空気調和機
JP2011075130A (ja) 空気調和機
JP5405925B2 (ja) 空気調和機
JP5426917B2 (ja) 空気調和機
JP2011017459A (ja) 空気調和機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10821731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10821731

Country of ref document: EP

Kind code of ref document: A1