WO2019087537A1 - 空調制御装置 - Google Patents

空調制御装置 Download PDF

Info

Publication number
WO2019087537A1
WO2019087537A1 PCT/JP2018/031091 JP2018031091W WO2019087537A1 WO 2019087537 A1 WO2019087537 A1 WO 2019087537A1 JP 2018031091 W JP2018031091 W JP 2018031091W WO 2019087537 A1 WO2019087537 A1 WO 2019087537A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
thermal sensation
air conditioning
estimation
unit
Prior art date
Application number
PCT/JP2018/031091
Other languages
English (en)
French (fr)
Inventor
慧太 北川
拓也 上総
陽一 半田
Original Assignee
ダイキン工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイキン工業株式会社 filed Critical ダイキン工業株式会社
Priority to EP18874105.2A priority Critical patent/EP3680568B1/en
Priority to CN201880068368.8A priority patent/CN111247375B/zh
Priority to US16/754,264 priority patent/US11480359B2/en
Publication of WO2019087537A1 publication Critical patent/WO2019087537A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • F24F11/64Electronic processing using pre-stored data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • F24F11/65Electronic processing for selecting an operating mode
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/80Control systems characterised by their outputs; Constructional details thereof for controlling the temperature of the supplied air
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/74Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling air flow rate or air velocity
    • F24F11/77Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling air flow rate or air velocity by controlling the speed of ventilators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/79Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling the direction of the supplied air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/10Temperature
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • F24F2120/14Activity of occupants
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/20Feedback from users
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Definitions

  • the present invention relates to an air conditioning control device.
  • Patent Document 1 there is known a technique of extracting a user's motion from an image of a camera that captures an operator (hereinafter referred to as a user), and using the extracted motion to obtain an evaluation value of the degree of concentration.
  • a user the mode (cooling etc.) of the apparatus (air conditioning apparatus etc.) which affects an environment is designated according to the evaluation value of concentration degree.
  • a user who is in the room to be air conditioned by the air conditioner freely operates the remote controller installed in the room according to the sense of the individual to raise and lower the set temperature in the room. In order to change the set temperature in the room, the user has to move to the position of the remote controller, which is not easy to use.
  • An object of the present invention is to bring a room closer to an environment in which the comfort for the user is improved without the user operating the remote controller or the like to give an instruction to the air conditioner.
  • the first aspect of the present disclosure is based on an image capturing unit (26) that captures a user (U1, U2, U3) and an image of the user (U1, U2, U3) captured by the image capturing unit (26).
  • the thermal sensation based on the estimation result of the estimation unit (66) that estimates the thermal sensation indicating the degree to which the user (U1, U2, U3) feels heat or cold, and the estimation result of the estimation unit (66)
  • Control unit (14) for controlling the first air conditioning operation of the air conditioner (10) for air conditioning the room in which the user (U1, U2, U3) is present, such that
  • the image represents the motion of the user (U1, U2, U3) representing the user's (U1, U2, U3) sense of cold and heat, and / or the user's (U1, U2, U3) sense of cold and heat.
  • the state of the user (U1, U2, U3) is shown, and the estimation unit (66) determines from the image the operation of the user (U1, U2, U3) and / or the user (U1, U2, U3). Extract the state of)
  • the air conditioning control device is characterized in that the thermal sensation is estimated.
  • the thermal sensation of the user is estimated based on the image in which the user's motion and / or state representing the user's feeling of cold and hot is projected
  • the thermal sensation of the user as the estimation result is within the target range.
  • the first air conditioning operation of the air conditioner is controlled based on the estimation result.
  • the air conditioning apparatus is suitable for setting the thermal sensation within the target range according to the thermal sensation estimated by the user, without the user operating the remote controller or the like to give an instruction to the air conditioner. To improve the comfort of the user in the room.
  • a 2nd aspect is a 1st aspect
  • the said air conditioning apparatus (10) has a detection part (13) which detects indoor environment information regarding the said indoor environment
  • the said estimation part (66) is further It is an air conditioning control device characterized by estimating the above-mentioned thermal sensation based on the above-mentioned indoor environment information.
  • the estimation unit (66) calculates the amount of clothes of the user (U1, U2, U3) from the image, and calculates the amount of clothes calculated.
  • the present invention is an air conditioning control device characterized in that the thermal sensation is estimated based on it.
  • the estimation unit (66) calculates the gender and / or the age of the user (U1, U2, U3) from the image. And the thermal sensation is further estimated based on the calculated sex and / or age of the user (U1, U2, U3).
  • a surface temperature measuring unit (128) for measuring a surface temperature of the user in the room further including: 66) is an air conditioning control device characterized in that the thermal sensation is further estimated based on the measurement result of the surface temperature measurement unit (128).
  • the air conditioner (10) is installed on a ceiling of the room, and the imaging unit (26) is An air conditioning control device provided in an air conditioner (10).
  • the imaging unit (26) can image the user in the room in a state where the possibility of being blocked by the obstacle is low.
  • the estimation unit (66) determines the plurality of the users (U1, U2).
  • U3) An air conditioning control device characterized by estimating the above-mentioned thermal sensation of each.
  • the operation of the user (U1, U2, U3) and / or the user (U1, U2, U3) for each of the plurality of users (U1, U2, U3) A storage unit (62) for storing user sense information (63) in which the state of the user and the thermal sensation of the user in the operation and / or the state are associated with each other; 66) extracts the operation of each of the users (U1, U2, U3) and / or the state of each of the users (U1, U2, U3) from the image, and extracts the extraction result and the user sense information (63) It is an air conditioning control device characterized by estimating the above-mentioned thermal sensation of a plurality of above-mentioned users (U1, U2, U3) using it.
  • the ninth aspect relates to any one of the first to eighth aspects, wherein the user (U1, U2, U2, U2, U3) of the thermal sensation information representing the thermal sensation of the user (U1, U2, U3)
  • a receiving unit (30) capable of receiving an input by U3), the image captured by the imaging unit (26), and / or the thermal sensation information received by the receiving unit (30);
  • a model updating unit (68) for learning an estimation model (67) used for estimation of a thermal sensation.
  • the estimation accuracy of the thermal sensation of the user is improved by performing the estimation operation of the thermal sensation using the estimation model after learning.
  • the imaging unit (26) after the first air conditioning operation based on the estimation result of the estimation unit (66) is performed.
  • a model for grasping the actual thermal sensation of the user (U1, U2, U3) from the image captured by the user, and learning the estimation model (67) used for the estimation of the thermal sensation based on the grasping result An air conditioning control device further comprising an updating unit (68).
  • the estimation accuracy of the thermal sensation of the user is further improved.
  • An eleventh aspect is according to the tenth aspect, wherein the model updating unit (68) is configured such that the imaging unit (26) performs the first air conditioning operation based on the estimation result of the estimation unit (66). A change in behavior and state in which the thermal sensation of the user (U1, U2, U3) was determined from the captured image as compared with the image captured by the imaging unit (26) before the first air conditioning operation.
  • the air conditioning control device is characterized in that the estimated model (67) is learned based on
  • the estimation accuracy of the thermal sensation of the user is further improved.
  • the control unit (14) performs the first air conditioning operation based on the estimation result of the estimation unit (66).
  • the content of the control of the first air conditioning operation is learned so that the thermal sensation of the user (U1, U2, U3) falls within the target range based on the thermal sensation information received by (30) It is an air conditioning control device characterized by the above.
  • the first air conditioning operation to be performed next time is likely to make the thermal sensation of the user (U1, U2, U3) more comfortable.
  • control unit (14) performs the first air conditioning operation based on the estimation result of the estimation unit (66).
  • the contents of the control of the first air conditioning operation such that the thermal sensation of the user (U1, U2, U3) falls within the target range based on the image captured by the imaging unit (26) later It is an air conditioning control device characterized by learning.
  • the first air conditioning operation to be performed next time is likely to make the thermal sensation of the user (U1, U2, U3) more comfortable.
  • the contents of the control of the first air conditioning operation include the rotational speed of the indoor fan (12) included in the air conditioner (10), the air An air conditioning control device characterized in that it includes adjusting at least one of a position of a flap (16) for adjusting a wind direction blown out from a conditioning device (10) and a set temperature of the air conditioning device (10). is there.
  • the first air conditioning operation to be performed next time is likely to make the thermal sensation of the user (U1, U2, U3) more comfortable.
  • the comfort of the user in the room is improved.
  • FIG. 1 is an external view of an air conditioning system provided with an air conditioning control device.
  • FIG. 2 is a block diagram schematically showing a configuration of an air conditioning system provided with the air conditioning control device.
  • FIG. 3 is a conceptual view of user sense information.
  • FIG. 4 is a conceptual diagram showing inputs and outputs of an estimation model at the time of thermal sensation estimation according to the first embodiment.
  • FIG. 5 is a diagram showing an example of the relationship between the amount of clothing and the thermal sensation, the age and the thermal sensation, and the sex and the thermal sensation.
  • FIG. 6 is a conceptual diagram showing inputs and outputs of the estimated model at the time of updating the estimated model.
  • FIG. 1 is an external view of an air conditioning system provided with an air conditioning control device.
  • FIG. 2 is a block diagram schematically showing a configuration of an air conditioning system provided with the air conditioning control device.
  • FIG. 3 is a conceptual view of user sense information.
  • FIG. 4 is a conceptual diagram showing inputs and outputs of an estimation model
  • FIG. 7 is a diagram showing the estimation operation of the thermal sensation of the user and the flow of the air conditioning operation accompanying the thermal sensation of the estimated user.
  • FIG. 8 is a conceptual diagram showing inputs and outputs of an estimation model at the time of thermal sensation estimation according to the second embodiment.
  • FIG. 9 is a conceptual diagram showing inputs and outputs of the estimated model at the time of updating the estimated model according to the second embodiment.
  • FIG. 1 is an external view of an air conditioning system (100) provided with an air conditioning control device (50) according to the present embodiment.
  • an air-conditioning control apparatus (50) is a part of component of an air conditioning apparatus (10), a remote controller (30) (equivalent to a receiving part), and an arithmetic unit (60) And.
  • the air conditioner (10) is provided in the room (r1) to be air-conditioned, and performs air conditioning on the room (r1).
  • the remote controller (30) sets the target temperature and the target humidity of the air conditioner (10), the operation mode of the air conditioner (10), and turns on and off the user (U1, U2, U3) It is used when operating the remote controller (30) to directly instruct the air conditioner (10).
  • the air conditioning control device (50) controls the air conditioning operation of the air conditioner (10).
  • the air conditioning control device (50) uses the image captured by the user (U1, U2, U3) in the room (r1) to heat the user (U1, U2, U3).
  • the user (U1, U2) is estimated by estimating the thermal sensation indicating the degree of feeling cold, and controlling the air conditioning operation (corresponding to the first air conditioning operation) of the air conditioner (10) based on the estimated thermal sensation.
  • U3 provide an environment in line with the thermal sensation.
  • the air conditioner (10) is a ceiling-mounted air conditioner, and the main body (11) is installed by being embedded in the ceiling of the room (r1).
  • the lower surface (21) of the main body (11) is exposed to the room (r1), and the lower surface (21) receives an air suction port (23) into the main body (11) and the main body (11)
  • An air outlet (24) to the room (r1) is formed.
  • a camera (26) (corresponding to an imaging unit) is provided on the lower surface (21) of the main body (11).
  • the camera (26) has a lens (not shown) facing the lower side of the air conditioner (10), and images users (U1, U2, U3) present in the room (r1).
  • the image may be a moving image obtained by capturing the user (U1, U2, U3), or may be a continuously captured still image of the user (U1, U2, U3). The case of a moving image is illustrated.
  • the action and state (including the expression) of the user (U1, U2, U3) representing the cold and hot feeling of each user (U1, U2, U3) are shown.
  • the user (U1, U2, U3) feels hot, he naturally fangs, wears the sleeves of his clothes, and sweats to relieve the heat.
  • the camera (26) captures these motions and the like of the users (U1, U2, U3) as an image representing the sense of heat and cold of each user (U1, U2, U3).
  • a heat exchanger (not shown) that causes the air sucked into the main body (11) from the suction port (23) to exchange heat with the refrigerant
  • an indoor environment information sensor (13) (corresponding to a detection unit) and a control unit (14) are included.
  • the indoor environment information sensor (13) is a sensor that detects indoor environment information related to the indoor (r1) environment, and is a suction sensor provided in the vicinity of the suction port (23).
  • the indoor environment information includes the temperature, humidity, and the like of the air in the room (r1) sucked from the suction port (23).
  • the control unit (14) is configured by a microcomputer including a CPU and a memory.
  • the control unit (14) is electrically connected to the indoor fan (12), the motor (16a) of the flap (16), the indoor environment information sensor (13), and the camera (26).
  • the control unit (14) is also communicably connected to the remote controller (30) and the arithmetic unit (60).
  • the control unit (14) controls the air conditioning operation of the air conditioner (10) by drive control of the indoor fan (12) and the motor (16a) of the flap (16) based on the detection result of the indoor environment information sensor (13). Control.
  • control unit (14) is a user (U1, U2, U3) based on the estimation result of the thermal sensation of the user (U1, U2, U3) estimated by the computing device (60).
  • the air conditioning operation (first air conditioning operation) of the air conditioner (10) in the room (r1) is controlled such that the thermal sensation of the air conditioner falls within the target range. The details of the air conditioning operation based on the thermal sensation estimation result will be described later.
  • the remote controller (30) is attached to the wall of the room (r1). Although not shown, the remote controller (30) has a display for displaying various screens and a plurality of operation buttons for receiving an operation of the user (U1, U2, U3). When the user (U1, U2, U3) operates the operation button, various screens corresponding to the operation of the user (U1, U2, U3) are displayed on the display. On the display, the set temperature in the room (r1), the set humidity, and the like are displayed as a normal screen.
  • the remote controller (30) can receive the input by the user (U1, U2, U3) of the thermal sensation information representing the actual cooling sensation of the user (U1, U2, U3). ing. From the input thermal sensation information, whether the estimation result of the thermal sensation of the user (U1, U2, U3) matches the actual thermal sensation of the user (U1, U2, U3), The computing device (60) can determine. In view of the fact that the air conditioning operation of the air conditioner (10) is performed based on the estimation result of the thermal sensation of the user (U1, U2, U3), the above input is the thermal cooling of the user (U1, U2, U3) Although it is preferable to be performed while the air conditioning apparatus (10) is performing the air conditioning operation according to the estimation result of the feeling, it is not necessarily limited to this.
  • the above input is for correcting the contents of air conditioning control of the air conditioner (10) executed according to the estimation result of the thermal sensation of the user (U1, U2, U3) (for example, indoor fan (12 In order to adjust the rotational speed of the lens according to the actual thermal sensation).
  • the indoor environment information sensor (13), the control unit (14), the camera (26), and the remote controller (30) have been described above, and thus the arithmetic device (60) will be described below.
  • the arithmetic unit (60) mainly performs the estimation operation of the thermal sensation of the user (U1, U2, U3), and is a computer including a storage unit (62) and a CPU (65).
  • the computing device (60) can be a cloud server, a local server, or the like.
  • the computing device (60) is communicably connected to the air conditioner (10) and the remote controller (30) in a wired or wireless manner. Thereby, the arithmetic unit (60) may obtain the detection result of the indoor environment information sensor (13) such as the temperature of the room (r1) and the image captured by the camera (26) from the air conditioner (10).
  • the remote controller (30) receives an input of thermal sensation information representing an actual thermal sensation from the user (U1, U2, U3), it can be acquired.
  • the computing device (60) can output the thermal sensation estimated by itself to the control unit (14) of the air conditioner (10).
  • the computing device (60) is a device different from the air conditioner (10)
  • the computing device (60) is a CPU as in the control unit (14).
  • a memory and may be incorporated in the air conditioner (10).
  • the storage unit (62) is configured of a non-volatile storage device such as a flash memory and a hard disk.
  • the storage unit (62) mainly stores user sense information (63).
  • the user sense information (63) includes the actions and states (including expressions) of the users (U1, U2, U3), the actions, and the actions of the individual users (U1, U2, U3).
  • the thermal sensation of the user (U1, U2, U3) when taking the state is information associated with it.
  • the behavior or expression performed naturally when feeling hot or feeling cold may differ depending on the user (U1, U2, U3). That is, it is considered that there is a habit in each of the users (U1, U2, U3) in the behavior or expression for the sensation of cold and hot. Therefore, it is user sense information (63) that defines the habit as a reference which indicates the sense of the user's (U1, U2, U3) feeling of cold and hot.
  • the CPU (65) reads out and executes various programs stored in the storage unit (62) and other memories other than the storage unit (62), thereby providing an estimation unit (66) and a model updating unit (68). Function.
  • the estimation unit (66) estimates the thermal sensation of the user (U1, U2, U3) using the image of the user (U1, U2, U3) captured by the camera (26) as an essential parameter.
  • Such an estimation unit (66) has an estimation model (67).
  • the estimation model (67) is a dedicated model for obtaining the thermal sensation of the user (U1, U2, U3) from the captured image by calculation using a method such as deep learning, and is constructed in advance as a neural network ing.
  • the estimation model (67) of the present embodiment mainly includes an image processing neural network (67a) that performs image processing on data of an image captured by a camera (26), as indicated by a broken line in FIG. It is a so-called neural network of a two-layer structure of a thermal sensation estimation neural network (67b) for estimating the thermal sensation of the user (U1, U2, U3) from the result.
  • the estimation unit (66) first inputs the data of the image captured by the camera (26) to the image processing neural network (67a).
  • image processing neural network (67a) in addition to simultaneous processing of image data (here, moving image data), edge detection, contrast processing, etc. are used to make it possible for users (U1, U2, U3) to fan, etc. Extraction of movement, extraction of the state of the user (U1, U2, U3) such as sweating, calculation of the amount of clothes (or the degree of exposure of bare skin) of the user (U1, U2, U3), user (U1, U2, U3, Calculation of the gender of U3) and calculation of the age of the user (U1, U2, U3) are performed.
  • the specific operation of the user (U1, U2, U3) representing the thermal sensation, the state, the amount of clothes, the amount of clothes representing the heat release degree of the user (U1, U2, U3) Alternatively, the degree of exposure of the bare skin, gender and age that are factors that affect the thermal sensation are calculated.
  • FIG. 5A conceptually shows an example of the relationship between the change in the amount of clothing (or the degree of exposure of bare skin) and the thermal sensation.
  • the amount of clothes is smaller (the degree of exposure of the bare skin is larger)
  • the user U1, U2, U3) feels "hot”
  • the user U1, U2, The amount of heat radiation from the surface of U3) increases.
  • the more the amount of clothes is (the less the degree of exposure of bare skin is)
  • the user (U1, U2, U3) feels “cold”
  • the user (U1, U2, U3) is released from the surface
  • the amount of heat is reduced. Therefore, the calculated amount of clothes (or the degree of exposure of bare skin) is one of the indices that represent the thermal sensation.
  • FIG. 5B conceptually illustrates an example of the relationship between age and temperature and the thermal sensation
  • FIG. 5C conceptually illustrates an example of relationship between gender and the thermal sensation.
  • the calculation result output from the image processing neural network (67a) is input to the thermal sensation estimation neural network (67b) together with the extraction result.
  • FIG. 3 is drawn from the extraction results which are specific operations and states of the user (U1, U2, U3) representing the thermal sensation.
  • the thermal sensation of each user (U1, U2, U3) is determined based on the user sense information (63).
  • the input calculation result that is, the amount of clothes (the degree of exposure of bare skin), gender and age are taken into consideration in the calculation of the thermal sensation of each user (U1, U2, U3).
  • information regarding the detection result of the indoor environment information sensor (13) is input to the thermal sensation estimation neural network (67b).
  • information on the detection result of the indoor environment information sensor (13) in addition to the temperature itself of the room (r1), an arithmetic neural network using the humidity of the room (r1) among the detection results of the indoor environment information sensor (13) The heat radiation amount of each user (U1, U2, U3) calculated
  • the thermal sensation estimation neural network (67b) the information on the detection result of the indoor environment information sensor (13) is also taken into consideration in the calculation of the thermal sensation of each user (U1, U2, U3).
  • the estimation unit (66) transmits the thermal sensations of the users (U1, U2, U3) thus obtained to the control unit (14) of the air conditioner (10) as the thermal sensation estimation result. .
  • the estimation unit (66) obtains an average value of the thermal sensations of each user (U1, U2, U3) or a weighted average value weighted for each individual, and the average value or the weighted average value is You may transmit to the control part (14) of an air conditioning apparatus (10) as an estimated value of a feeling.
  • the model updating unit (68) represents the data of the image captured by the camera (26) and the actual thermal sensation of the user (U1, U2, U3) accepted by the remote controller (30).
  • the estimated model (67) is learned based on the thermal sensation information.
  • the model updating unit (68) updates the estimated model (67) using the image newly captured by the camera (26) so as to improve the estimation accuracy of the thermal sensation.
  • the motion and state of the user (U1, U2 and U3) representing the thermal sensation as described above, the presence or absence of the operation of rolling the sleeve of the clothes worn and the degree thereof, sweating
  • the presence or absence and its degree, whether or not to touch the body, the amount of movement of the body (degree), etc. are included.
  • the air conditioning operation that is, the first air conditioning operation
  • the model update unit (68) updates the estimation model (67).
  • the specific example which can be judged that the thermal sensation is heading in the comfortable direction for each of the above operations and states is as follows.
  • the sleeves were wrapped before the air conditioning operation, but after the air conditioning operation, the sleeves became loose, or the amount by which the sleeves were rolled was reduced.
  • the amount of sweating was large before the air conditioning operation but decreased after the air conditioning operation.
  • III Before the air conditioning operation, the operation for touching the body was performed, but after the air conditioning operation, the operation for touching the body was not performed.
  • IV Although the amount of body movement was small before the air conditioning operation, the body became well after the air conditioning operation.
  • the thermal sensation information input by the user (U1, U2, U3) via the remote controller (30) shows the feeling of actual cold or hot of the user (U1, U2, U3). Therefore, the model updating unit (68) updates the estimated model (67) also using the thermal sensation information received by the remote controller (30).
  • the estimation model (67) (specifically, the thermal sensation estimation neural network (67b)) is updated to a model capable of calculating an estimation result closer to the actual thermal sensation. .
  • the model updating unit (68) compares the operation and state of the user (U1, U2, U3) in the previously captured image with the operation and state of the user (U1, U2, U3) in the newly captured image. As a result, if there is a desired change and / or if the thermal sensation information received by the remote controller (30) falls within the desired range of thermal sensation information, the update operation of the estimation model (67) is It is not necessary to judge that it is unnecessary and to perform the update operation of the estimated model (67).
  • the update operation of the estimation model (67) is performed when there is no desired change in the operation and state of the user (U1, U2, U3) between the image captured last time and the image captured newly and / or
  • the process is performed when the thermal sensation information received by the remote controller (30) is out of the range of the desired thermal sensation information. This is to alleviate the high load caused by the CPU (65) performing unnecessary processing.
  • the thermal sensation estimation neural network (67b) is to be updated, but the image processing neural network (67a) and the operation neural network (67c) are further added. It may be an update target.
  • information related to the detection result of the indoor environment information sensor (13) may also be used, but may not be used.
  • FIG. 7 is a diagram showing the estimation operation of the thermal sensation of the user (U1, U2, U3) and the flow of the air conditioning operation associated with the estimated thermal sensation.
  • the camera (26) captures an image of the user (U1, U2, U3) (St11).
  • the image captured by the camera (26) is transmitted to the computing device (60).
  • the estimation unit (66) extracts the motion and state of the user (U1, U2, U3) using the image processing neural network (67a) in the estimation model (67), the amount of clothes, the sex And calculate the age (St12).
  • the estimation unit (66) inputs the extraction and calculation result in step St12 to the thermal sensation estimation neural network (67b) in the estimation model (67), and senses the thermal sensation of each user (U1, U2, U3). It estimates (St13).
  • the estimation result of the thermal sensation is transmitted to the control unit (14) of the air conditioner (10).
  • the control unit (14) of the air conditioner (10) compares the degree of "heat” in the estimated thermal sensation with a threshold value for heat. If the degree of "heat” exceeds the heat threshold (Yes in St14), the control unit (14) lowers the target temperature in the room (r1) (St15). How much the target temperature is lowered can be determined, for example, by the difference between the degree of “heat” and the threshold for heat.
  • the air conditioning apparatus (10) increases the volume of air that sends cold air into the room (r1) or supplies cooler air into the room (r1). Soon, the temperature in the room (r1) falls to reach the target temperature.
  • step St16 the control unit (14) of the air conditioner (10) compares the degree of “cold” in the estimated thermal sensation with the threshold value for cold. If the degree of “cold” exceeds the cold threshold (Yes in St16), the control unit (14) raises the target temperature of the room (r1) (St17). How much the target temperature is raised can be determined, for example, by the difference between the degree of “cold” and the threshold for cold.
  • the air conditioning apparatus (10) increases the volume of air that sends warm air into the room (r1) or supplies warmer air into the room (r1). Eventually, the temperature in the room (r1) rises to reach the target temperature.
  • the estimation unit (66) of the computing device (60) The thermal sensation of the user (U1, U2, U3) is estimated based on the above, so that the control part (14) of the air conditioner (10) makes the thermal sensation of the user (U1, U2, U3) fall within the target range
  • the air conditioning operation (first air conditioning operation) is controlled based on the estimation result.
  • the air conditioner (10) can be operated without the user (U1, U2, U3) operating the remote controller (30) or the like to instruct the air conditioner (10) to raise or lower the target temperature.
  • the air conditioning operation suitable for automatically setting the thermal sensation estimation operation and the thermal sensation of the user (U1, U2, U3) within the target range is performed. Therefore, the convenience of the users (U1, U2, U3) is improved, and the comfort of the users (U1, U2, U3) in the room (r1) is automatically improved.
  • an indoor environment information sensor (13) that is the actual temperature of the room (r1), etc. The detection result of is used. Therefore, the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is improved, and the air conditioner (10) can provide a more comfortable environment for the user (U1, U2, U3).
  • the estimation unit (66) calculates the amount of clothes (the degree of exposure of the bare skin) of the user (U1, U2, U3) from the image, and estimates the thermal sensation by further using the calculation result. Thereby, the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is improved, and the air conditioner (10) can provide a more comfortable environment for the user (U1, U2, U3).
  • the estimation unit (66) calculates the age and gender of the user (U1, U2, U3) from the image, and further uses the calculation result to estimate the thermal sensation. Thereby, the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is improved, and the air conditioner (10) can provide a more comfortable environment for the user (U1, U2, U3).
  • the camera (26) is provided in the air conditioning apparatus (10) installed in the ceiling. Therefore, the camera (26) can capture an image of the user (U1, U2, U3) in the room (r1) in a state where the possibility of being blocked by an obstacle is reduced.
  • the estimation unit (66) measures the thermal sensation of each of the plurality of users (U1, U2, U3) in the room (r1). Thereby, the air conditioning apparatus (10) can perform the air conditioning operation in accordance with the thermal sensation of each user (U1, U2, U3).
  • the estimation unit (66) actually captured user sense information (63) representing an action and a state to be taken when each user (U1, U2, U3) feels “hot” or “cold”. It is used to match the user's (U1, U2, U3) motion and state in the image. Thereby, the estimation accuracy of the thermal sensation of each user (U1, U2, U3) is improved, and the air conditioner (10) can provide a more comfortable environment for the users (U1, U2, U3). it can.
  • the estimated model (67) is learned based on the image of the user (U1, U2, U3) and the thermal sensation information of the user (U1, U2, U3) accepted by the remote controller (30). Therefore, the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is improved by the estimation unit (66) performing the thermal sensation estimation operation using the estimated model (67) after learning.
  • the estimated model (67) is an actual thermal sensation of the user (U1, U2, U3) from the image captured by the camera (26) after the air conditioning operation based on the estimation result of the estimation unit (66) is performed. Is learned and learned based on the grasped result. More specifically, the estimated model (67) is a camera (26) from the captured image of the camera (26) after the air conditioning operation (first air conditioning operation) is performed based on the estimation result of the estimation unit (66). Is learned based on the change in behavior and state in which the thermal sensation of the user (U1, U2, U3) has been determined in comparison with the image captured before the air conditioning operation (first air conditioning operation).
  • the change in the behavior and the state in which the thermal sensation of the user (U1, U2, U3) has been determined is that the frequency of the behavior and the state decreases or the behavior and the state do not appear.
  • the estimation model (67) is made to match the estimation result of the estimation model (67) as much as possible.
  • Accuracy is further improved.
  • the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is further improved by performing the estimation operation of the thermal sensation of the user (U1, U2, U3) using the estimation model (67) after learning Do.
  • the air conditioning control device (50) further includes a thermographic sensor (128) (corresponding to a surface temperature measurement unit), and the estimation unit (66) includes users (U1, U2, U3).
  • the detection result of the thermography sensor (128) is further used for the estimation operation of the thermal sensation of.
  • FIG. 8 is a diagram corresponding to FIG. 4 of the first embodiment, and is a conceptual diagram showing the input and output of the estimation model (67) at the time of estimation of the thermal sensation according to this embodiment.
  • the estimation model (67) in the estimation unit (66) is the same as the first embodiment described above in that the thermal sensation of the user (U1, U2, U3) is taken from the data of the captured image. It is constructed in advance as a dedicated neural network to be obtained by calculation.
  • the estimation model (67) is mainly a so-called two-layer neural network of an image processing neural network (67a) and a thermal sensation estimation neural network (67b).
  • the input and output of the image processing neural network (67a) are the same as in the first embodiment.
  • thermographic sensor (128) In the thermal sensation estimation neural network (67b), in addition to the extraction result and calculation result of the image processing neural network (67a) and the information on the detection result of the indoor environment information sensor (13), the detection result of the thermographic sensor (128) is It is input.
  • thermographic sensor (128) measures the surface temperature of each user (U1, U2, U3) in the room (r1).
  • the mounting position of the thermographic sensor (128) in the room (r1) is not particularly limited, and may be incorporated in, for example, the remote controller (30) or on the lower surface (21) of the air conditioner (10). It may be attached.
  • the detection result of the thermography sensor (128) is a separate calculation neural network as in the case where the detection result of the indoor environment information sensor (13) is calculated and processed by the calculation neural network (67c). After the predetermined calculation is performed in (67d), the thermal sensation estimation neural network (67b) may be input.
  • the thermal sensations of the individual users are obtained based on the extraction result and the calculation result of the image processing neural network (67a). Desired.
  • the user sense information (63) is used as a reference.
  • the detection result of the thermography sensor (128) is taken into consideration in the calculation of the thermal sensation of the individual users (U1, U2, U3) as well as the information related to the detection result of the indoor environment information sensor (13).
  • thermography sensor (128) is, as shown in FIG. 9, also in the updating operation of the estimation model (67), the extraction result and the calculation result of the image processing neural network (67a), the indoor environment information sensor (13) It may be used in addition to the information on the detection result.
  • the configuration of the air conditioning system (100) using the air conditioning control device (50), the user sense information (63), and the details of the air conditioning operation using the estimation result other than that described using FIGS. 8 and 9 Is the same as that of the first embodiment, and thus the description thereof is omitted.
  • the actual surface temperature of the user (U1, U2, U3) is further used to estimate the thermal sensation of the user (U1, U2, U3). Therefore, the estimation accuracy of the thermal sensation of the user (U1, U2, U3) is further improved, and the air conditioner (10) can provide a more comfortable environment for the user (U1, U2, U3).
  • the calorific value of the user (U1, U2, U3) is calculated from the movement of the user (U1, U2, U3) extracted from the image, and the result is a thermal sensation It may be used to estimate
  • the estimation unit (66) further detects the detection results of the heart rate of each user (U1, U2, U3) as the thermal sensation of each user (U1, U2, U3). It may be used for estimation. Thus, the thermal sensation of each user (U1, U2, U3) can be grasped more finely.
  • the heart rate of each user (U1, U2, U3) may be calculated from the image captured by the camera (26) as information representing the state of each user (U1, U2, U3), or the camera (26) May be detected by a sensor that detects a different heart rate.
  • the heart rate of each user (U1, U2, U3) may be used in learning of the estimation model (67).
  • a sensor other than the suction sensor may be provided as the indoor environment information sensor (13).
  • Information on the room detected by the indoor environment information sensor (13) is not limited to the temperature and humidity of the room (r1), but includes various information on the environment of the room (r1). Further, the detection result of the indoor environment information sensor (13) may be only the temperature of the room (r1).
  • the thermal sensation information of the user (U1, U2, U3) input via the remote controller (30) may be used for fine adjustment and learning of control of the air conditioning operation (corresponding to the first air conditioning operation) .
  • the image newly captured by the camera (26) is not only the update of the estimation model (67) but also the fine adjustment and learning of the control of the air conditioning operation (corresponding to the first air conditioning operation) It may be used.
  • the control unit (14) controls the position of the flap (16) so that the conditioned air is supplied to the user (U1, U2, U3), and the target value of the set temperature of the room (r1) is, for example, 2 degrees. It is lowered to supply cold conditioned air by the users (U1, U2, U3).
  • the control unit (14) is the user whose wind direction is the user (U1, U2, U3). Fix the position of the flap (16) in the state of facing to.
  • the control unit (14) swings the conditioned air and the user (U1, U2) , U3) the flaps (16) may be swung to be supplied to each.
  • the camera (26) newly picks up an image.
  • the estimation unit (66) reestimates the thermal sensation of the user (U1, U2, U3) to which the conditioned air is supplied.
  • the control unit 14 Since it can be judged that the thermal sensation that the user (U1, U2, U3) felt hot has changed comfortably, the control of the air conditioning operation so far is in accordance with the user (U1, U2, U3) Learn.
  • the control unit (14) sets the target value of the set temperature of the room (r1) With two further reductions, the rotational speed of the indoor fan (12) is increased more than before. As a result, colder conditioned air is supplied to the users (U1, U2, U3) with the air volume rising.
  • the control unit (14) When there are still multiple users (U1, U2, U3) whose degree of "heat” exceeds the heat threshold, the control unit (14) performs the swing operation of the flap (16).
  • the position of the flap (16) may be controlled to change the way of the swing motion to a different one. For example, according to the position of each user (U1, U2, U3), the control unit (14) changes the time interval for swinging the flap (16) vertically or horizontally, or the flap (16) in the middle of the swing Temporarily stop
  • control unit (14) when the user (U1, U2, U3) whose degree of “heat” exceeds the heat threshold decreases, the control unit (14) still feels hot (U1, U2,.
  • the position of the flap (16) may be controlled to adjust the wind direction in the vertical direction and the horizontal direction so that the conditioned air is supplied only to U3).
  • control unit (14) When the number of users (U1, U2, U3) who felt that it is hot changes from one person to another, the control unit (14) is only for the users (U1, U2, U3) who still feel "hot” In order to supply conditioned air, control may be performed to change the flap (16) from the swing state to the position fixed state.
  • the camera (26) picks up an image anew, and the estimation unit (66) estimates again the thermal sensation of the user (U1, U2, U3) from the image.
  • the control unit (14) determines that the user (U1, U2, U3) It can be judged that the thermal sensation that I felt was hot changed comfortably.
  • a control part (14) learns the control content of a series of air conditioning operation
  • Each target value such as the set temperature of the room (r1) and the rotational speed of the indoor fan (12) is set to a final value in the air conditioning control performed this time in order to be useful for the (first air conditioning operation). That is, in the air conditioning operation from the next time (the first air conditioning operation), the air conditioning operation (the first air conditioning operation) at the set temperature or the like after the learning is automatically started. Therefore, the air conditioning operation (first air conditioning operation) to be performed next time is easier to make the thermal sensations of the users (U1, U2, U3) more comfortable.
  • control unit (14) swings the flap (16) in the above-described air conditioning operation (first air conditioning operation)
  • the control unit (14) swings when a plurality of users (U1, U2, U3) feel comfortable. It is preferable to learn how.
  • the input (thermal sensation information) from the remote controller (30) by the users (U1, U2, U3) described in the first and second embodiments may be further used.
  • the control unit (14) determines whether the current air conditioning control has contents effective for improving the comfort of the thermal sensation, using the thermal sensation information input after the air conditioning control.
  • the contents of the air conditioning control may be updated by learning.
  • a control model used for the control may be constructed, and the control model may be learned.
  • the image shows the operation and state of the user (U1, U2, U3) representing the user's (U1, U2, U3) feeling of cold and hot
  • what is shown in the image may be at least one of the operations and states of the user (U1, U2, U3).
  • the extraction result of the image processing neural network (67a) is at least one of the operation and the state of the user (U1, U2, U3).
  • the detection result of the indoor environment information sensor (13) may not be used to estimate the thermal sensation.
  • the calculation result of the clothes amount of the user (U1, U2, U3) may not be used to estimate the thermal sensation.
  • the calculation result of the gender and the age of the user may not be used to estimate the thermal sensation.
  • any one of the gender and age of the user may be used to estimate the thermal sensation.
  • the air conditioner (10) is not limited to the type installed on the ceiling of the room (r1), and may be a wall-mounted type, a floor-mounted type, or the like.
  • the camera (26) may be located at a position where the user (U1, U2, U3) in the room (r1) can be imaged, and may not be provided in the air conditioner (10).
  • the camera (26) may be a web camera possessed by the personal computer of the user (U1, U2, U3).
  • the air conditioning control device (50) according to the first embodiment and the second embodiment can be applied even when the number of users in the room (r1) is one.
  • the air conditioning control device (50) may have an arbitrary number of thermal sensation estimation target persons instead of all members.
  • the estimation unit (66) may not use the user sense information (63) when estimating the thermal sensation.
  • the update operation of the estimation model (67) may not be performed.
  • the parameters to be used may be the same or different between the estimation time of the thermal sensation and the update operation of the estimation model (67).
  • the parameter at the time of estimation of the thermal sensation is at least one of an image, temperature and humidity in the room, temperature and humidity of air blown out from the outlet (24), air volume, air direction, and air conditioning capacity.
  • the parameter at the time of update operation of the estimation model (67) may be at least one of an image, room temperature and humidity, wind speed, and radiation temperature.
  • the thermal sensation is estimated using the estimation model (67) constructed by the neural network.
  • the thermal sensation estimation operation is performed as described above. This may be done, for example, by executing a program without using the estimation model (67).
  • the reception unit for receiving the input of the thermal sensation information is “remote controller (30)”
  • the reception unit may be configured by a device other than the remote controller, such as a smartphone, a tablet, or a personal computer.
  • the means for inputting the thermal sensation information may be voice input or the like.
  • the present invention is useful for an air conditioning control device that estimates the thermal sensation of the user and controls the air conditioning operation based on the estimation result.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Air Conditioning Control Device (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)

Abstract

推定部(66)は、カメラ(26)が撮像したユーザ(U1,U2,U3)の画像に基づいて、ユーザ(U1,U2,U3)が暑さ又は寒さを感じる度合いを示す温冷感を推定する。制御部(14)は、推定部(66)の推定結果に基づいて、温冷感が目標範囲内となるように、ユーザ(U1,U2,U3)が居る室内を空調対象とする空気調和装置(10)の空調動作を制御する。画像には、ユーザ(U1,U2,U3)の寒暑の感覚を表す該ユーザ(U1,U2,U3)の動作及び/または状態が写し出されており、推定部(66)は、画像からユーザ(U1,U2,U3)の動作及び/または状態を抽出して温冷感を推定する。

Description

空調制御装置
 本発明は、空調制御装置に関するものである。
 特許文献1に示すように、作業者(以下ユーザ)を撮像するカメラの映像からユーザの動きを抽出し、抽出した動きを用いて集中度の評価値を求める技術が知られている。特許文献1では、集中度の評価値に応じて、環境に影響を与える機器(空気調和装置等)のモード(冷房等)が指定される。
特開2016-35365号公報
 空気調和装置の空調対象である室内に居るユーザは、個人の感覚に従って室内に設置されたリモートコントローラを自由に操作し、室内の設定温度を上下させる。室内の設定温度を変更させるにあたり、ユーザは、リモートコントローラの位置まで移動しなければならず、ユーザの使い勝手が良いとは言い難い。
 本発明の目的は、ユーザがリモートコントローラ等を操作して空気調和装置に指示を与えずとも、室内を、ユーザにとって快適性が向上した環境に近づけることである。
 本開示の第1の態様は、ユーザ(U1,U2,U3)を撮像する撮像部(26)と、上記撮像部(26)が撮像した上記ユーザ(U1,U2,U3)の画像に基づいて、上記ユーザ(U1,U2,U3)が暑さ又は寒さを感じる度合いを示す温冷感を推定する推定部(66)と、上記推定部(66)の推定結果に基づいて、上記温冷感が目標範囲内となるように、上記ユーザ(U1,U2,U3)が居る室内を空調対象とする空気調和装置(10)の第1空調動作を制御する制御部(14)とを備え、上記画像には、上記ユーザ(U1,U2,U3)の寒暑の感覚を表す該ユーザ(U1,U2,U3)の動作、及び/または、上記ユーザ(U1,U2,U3)の寒暑の感覚を表す該ユーザ(U1,U2,U3)の状態が写し出されており、上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の動作及び/または上記ユーザ(U1,U2,U3)の状態を抽出して上記温冷感を推定することを特徴とする空調制御装置である。
 ここでは、ユーザの寒暑の感覚を表すユーザの動作及び/または状態が写し出された画像に基づいてユーザの温冷感が推定されると、推定結果であるユーザの温冷感が目標範囲内となるように、推定結果に基づいて空気調和装置の第1空調動作が制御される。これにより、ユーザがリモートコントローラ等を操作して空気調和装置に指示を与えずとも、空気調和装置はユーザの推定した温冷感に従って該温冷感を目標範囲内とするのに適した空調動作を行うため、室内に居るユーザの快適性は向上する。
 第2の態様は、第1の態様において、上記空気調和装置(10)は、上記室内の環境に関する室内環境情報を検知する検知部(13)を有し、上記推定部(66)は、更に上記室内環境情報に基づいて、上記温冷感を推定することを特徴とする空調制御装置である。
 これにより、ユーザの温冷感の推定精度は向上する。
 第3の態様は、第1の態様または第2の態様において、上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の着衣量を算出し、算出した上記着衣量に更に基づいて上記温冷感を推定することを特徴とする空調制御装置である。
 これにより、ユーザの温冷感の推定精度は向上する。
 第4の態様は、第1の態様から第3の態様のいずれか1つにおいて、上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の性別及び/または年齢を算出し、算出した上記ユーザ(U1,U2,U3)の性別及び/または年齢に更に基づいて上記温冷感を推定することを特徴とする空調制御装置である。
 これにより、ユーザの温冷感の推定精度は向上する。
 第5の態様は、第1の態様から第4の態様のいずれか1つにおいて、上記室内に居る上記ユーザの表面温度を測定する表面温度測定部(128)、を更に備え、上記推定部(66)は、更に上記表面温度測定部(128)の測定結果に基づいて、上記温冷感を推定することを特徴とする空調制御装置である。
 これにより、ユーザの温冷感の推定精度は向上する。
 第6の態様は、第1の態様から第5の態様のいずれか1つにおいて、上記空気調和装置(10)は、上記室内の天井に設置されており、上記撮像部(26)は、上記空気調和装置(10)に設けられていることを特徴とする空調制御装置である。
 これにより、撮像部(26)は、障害物により遮られる可能性が低い状態で、室内に居るユーザを撮像することができる。
 第7の態様は、第1の態様から第6の態様のいずれか1つにおいて、上記室内に複数の上記ユーザが存在する場合、上記推定部(66)は、複数の上記ユーザ(U1,U2,U3)それぞれの上記温冷感を推定することを特徴とする空調制御装置である。
 第8の態様は、第7の態様において、複数の上記ユーザ(U1,U2,U3)それぞれについての、上記ユーザ(U1,U2,U3)の動作及び/または上記ユーザ(U1,U2,U3)の状態と、該動作及び/または該状態時の上記ユーザの上記温冷感とが対応づけられたユーザ感覚情報(63)、を記憶する記憶部(62)、を更に備え、上記推定部(66)は、各上記ユーザ(U1,U2,U3)の動作及び/または各上記ユーザ(U1,U2,U3)の状態を上記画像から抽出し、抽出結果と上記ユーザ感覚情報(63)とを用いて、複数の上記ユーザ(U1,U2,U3)それぞれの上記温冷感を推定することを特徴とする空調制御装置である。
 これにより、個々のユーザの温冷感の推定精度は向上する。
 第9の態様は、第1の態様から第8の態様のいずれか1つにおいて、上記ユーザ(U1,U2,U3)の上記温冷感を表す温冷感情報の該ユーザ(U1,U2,U3)による入力を受け付けることが可能な受け付け部(30)と、上記撮像部(26)が撮像した上記画像及び/または上記受け付け部(30)が受け付けた上記温冷感情報に基づいて、上記温冷感の推定に用いられる推定モデル(67)を学習させるモデル更新部(68)と、を更に備えることを特徴とする空調制御装置である。
 これにより、学習後の推定モデルを用いて温冷感の推定動作が行われることにより、ユーザの温冷感の推定精度は向上する。
 第10の態様は、第1の態様から第8の態様のいずれか1つにおいて、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した上記画像から上記ユーザ(U1,U2,U3)の実際の上記温冷感を把握し、その把握結果に基づいて、上記温冷感の推定に用いる推定モデル(67)を学習させるモデル更新部(68)と、を更に備えることを特徴とする空調制御装置である。
 これにより、推定モデルの推定結果が実際となるべく合致するように、推定モデルの精度は更に向上する。学習後の推定モデルを用いてユーザの温冷感の推定動作が行われることにより、ユーザの温冷感の推定精度はより向上する。
 第11の態様は、第10の態様において、上記モデル更新部(68)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した画像から、上記撮像部(26)が上記第1空調動作前に撮像した画像と比較して上記ユーザ(U1,U2,U3)の上記温冷感を判断していた行動および状態の変化に基づいて、上記推定モデル(67)を学習させる、ことを特徴とする空調制御装置である。
 これにより、推定モデルの推定結果が実際となるべく合致するように、推定モデルの精度は更に向上する。学習後の推定モデルを用いてユーザの温冷感の推定動作が行われることにより、ユーザの温冷感の推定精度はより向上する。
 第12の態様は、第11の態様において、上記ユーザ(U1,U2,U3)の上記温冷感を判断していた行動および状態の変化とは、上記行動及び上記状態の頻度が減少するか、または、上記行動及び上記状態が現れなくなることであることを特徴とする空調制御装置である。
 これにより、推定モデルの推定結果が実際と合致しているか否かが、より正確に判断される。
 第13の態様は、第10の態様から第12態様のいずれか1つにおいて、上記ユーザ(U1,U2,U3)の上記温冷感を表す温冷感情報の該ユーザ(U1,U2,U3)による入力を受け付けることが可能な受け付け部(30)を更に備え、上記制御部(14)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後に上記受け付け部(30)が受け付けた上記温冷感情報に基づいて、上記ユーザ(U1,U2,U3)の上記温冷感が上記目標範囲内となるように上記第1空調動作の制御の内容を学習することを特徴とする空調制御装置である。
 これにより、次回行われる第1空調動作は、ユーザ(U1,U2,U3)の温冷感をより快適にさせ易いものとなる。
 第14の態様は、第10の態様から第13の態様のいずれか1つにおいて、上記制御部(14)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した上記画像に基づいて、上記ユーザ(U1,U2,U3)の上記温冷感が上記目標範囲内となるように上記第1空調動作の制御の内容を学習することを特徴とする空調制御装置である。
 これにより、次回行われる第1空調動作は、ユーザ(U1,U2,U3)の温冷感をより快適にさせ易いものとなる。
 第15の態様は、第13の態様または第14の態様において、上記第1空調動作の制御の内容には、上記空気調和装置(10)に含まれる室内ファン(12)の回転速度、上記空気調和装置(10)から吹き出される風向を調節するフラップ(16)の位置、上記空気調和装置(10)の設定温度の少なくとも1つを調整することが含まれることを特徴とする空調制御装置である。
 これにより、次回行われる第1空調動作は、ユーザ(U1,U2,U3)の温冷感をより快適にさせ易いものとなる。
 本開示の態様によれば、室内に居るユーザの快適性は向上する。
図1は、空調制御装置を備えた空調システムの外観図である。 図2は、空調制御装置を備えた空調システムの構成を模式的に示すブロック図である。 図3は、ユーザ感覚情報の概念図である。 図4は、第1実施形態に係る温冷感推定時の推定モデルの入力及び出力を表す概念図である。 図5は、着衣量と温冷感、年齢と温冷感、性別と温冷感の各関係の一例を示す図である。 図6は、推定モデル更新時の推定モデルの入力及び出力を表す概念図である。 図7は、ユーザの温冷感の推定動作及び推定したユーザの温冷感に伴う空調動作の流れを示す図である。 図8は、第2実施形態に係る温冷感推定時の推定モデルの入力及び出力を表す概念図である。 図9は、第2実施形態に係る推定モデル更新時の推定モデルの入力及び出力を表す概念図である。
 以下、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。
 ≪第1実施形態≫
 <概要>
 図1は、本実施形態に係る空調制御装置(50)を備えた空調システム(100)の外観図である。図1及び図2に示すように、空調制御装置(50)は、空気調和装置(10)の構成要素の一部と、リモートコントローラ(30)(受け付け部に相当)と、演算装置(60)とを有する。
 図1に示すように、空気調和装置(10)は、空調対象である室内(r1)に設けられ、室内(r1)に対し空調を行う。リモートコントローラ(30)は、空気調和装置(10)の目標温度及び目標湿度の設定の他、空気調和装置(10)の運転モード、運転のオン及びオフを、ユーザ(U1,U2,U3)がリモートコントローラ(30)を操作して直接的に空気調和装置(10)に指示を与える際に、用いられる。
 空調制御装置(50)は、空気調和装置(10)の空調動作を制御する。特に、本実施形態に係る空調制御装置(50)は、室内(r1)に居るユーザ(U1,U2,U3)が写し出された画像を用いて、当該ユーザ(U1,U2,U3)が暑さ又は寒さを感じる度合いを示す温冷感を推定し、推定した温冷感に基づいて空気調和装置(10)の空調動作(第1空調動作に相当)を制御することにより、ユーザ(U1,U2,U3)の温冷感に即した環境を提供する。
 <空気調和装置の構成>
 空気調和装置(10)は、天井設置タイプの空調機であって、本体部(11)が室内(r1)の天井に埋め込まれて設置されている。本体部(11)の下面(21)は室内(r1)に露出しており、下面(21)には本体部(11)内への空気の吸い込み口(23)と、本体部(11)から室内(r1)への空気の吹き出し口(24)とが形成されている。
 本体部(11)の下面(21)には、カメラ(26)(撮像部に相当)が設けられている。
 カメラ(26)は、レンズ(図示せず)が空気調和装置(10)の下方を向いており、室内(r1)に居るユーザ(U1,U2,U3)を撮像する。画像は、ユーザ(U1,U2,U3)を撮像した動画像であってもよいし、ユーザ(U1,U2,U3)の静止画像を連続して撮像したものであってもよいが、ここでは動画である場合を例示する。カメラ(26)が撮像した画像には、各ユーザ(U1,U2,U3)の寒暑の感覚を表すユーザ(U1,U2,U3)の動作や状態(表情を含む)が写し出されている。ユーザ(U1,U2,U3)は、暑いと感じている場合、暑さを和らげるために、自然と扇いだり、着ている衣服の袖をまくったり、汗をかいたりする。逆に、ユーザ(U1,U2,U3)は、寒いと感じている場合、体をさすったり、動く量が減少したりする。カメラ(26)は、ユーザ(U1,U2,U3)のこれらの動作等を、各ユーザ(U1,U2,U3)の寒暑の感覚を表す画像として撮像する。
 空気調和装置(10)の本体部(11)の内部には、吸い込み口(23)から本体部(11)内部に吸い込まれた空気を冷媒と熱交換させる熱交換器(図示せず)、及び、冷媒と熱交換した後の空気を吹き出し口(24)を介して室内(r1)に供給する室内ファン(12)、吹き出し口(24)に設けられた風向調節用のフラップ(16)、フラップ(16)の回転軸に接続されフラップ(16)の向きを動かす際の駆動源となるモータ(16a)等が含まれている(図2参照)。
 更に、本体部(11)の内部には、室内環境情報センサ(13)(検知部に相当)、及び制御部(14)が含まれている。
 室内環境情報センサ(13)は、室内(r1)の環境に関する室内環境情報を検知するセンサであって、吸い込み口(23)付近に設けられた吸い込みセンサである。室内環境情報としては、吸い込み口(23)から吸い込まれた室内(r1)の空気の温度、湿度等が挙げられる。
 制御部(14)は、CPU及びメモリからなるマイクロコンピュータで構成されている。制御部(14)は、室内ファン(12)、フラップ(16)のモータ(16a)、室内環境情報センサ(13)、カメラ(26)と電気的に接続されている。また、制御部(14)は、リモートコントローラ(30)及び演算装置(60)とも、通信可能に接続されている。
 制御部(14)は、室内環境情報センサ(13)の検知結果に基づく室内ファン(12)及びフラップ(16)のモータ(16a)等の駆動制御により、空気調和装置(10)の空調動作を制御する。
 特に、本実施形態に係る制御部(14)は、演算装置(60)によって推定されたユーザ(U1,U2,U3)の温冷感の推定結果に基づいて、ユーザ(U1,U2,U3)の温冷感が目標範囲内となるように、室内(r1)の空気調和装置(10)の空調動作(第1空調動作)を制御する。温冷感の推定結果に基づく空調動作の詳細については後述する。
 <リモートコントローラ>
 リモートコントローラ(30)は、室内(r1)の壁面に取り付けられている。リモートコントローラ(30)は、図示してはいないが、各種画面を表示するディスプレイと、ユーザ(U1,U2,U3)の操作を受け付ける複数の操作ボタンとを有する。ユーザ(U1,U2,U3)が操作ボタンを操作することにより、ディスプレイには、ユーザ(U1,U2,U3)の操作に応じた各種画面が表示される。ディスプレイには、室内(r1)の設定温度、設定湿度等が通常画面として表示される。
 本実施形態に係るリモートコントローラ(30)は、ユーザ(U1,U2,U3)の実際の冷温感を表す温冷感情報の、ユーザ(U1,U2,U3)による入力を受け付けることが可能となっている。入力された温冷感情報から、ユーザ(U1,U2,U3)の温冷感の推定結果がユーザ(U1,U2,U3)の実際の温冷感に合致したものであるか否かを、演算装置(60)は判定することができる。ユーザ(U1,U2,U3)の温冷感の推定結果に基づいて空気調和装置(10)の空調動作が行われることに鑑みると、上記入力は、ユーザ(U1,U2,U3)の温冷感の推定結果に伴って空気調和装置(10)が空調動作を行っている間になされることが好ましいが、必ずしもこれに限定されることはない。また、上記入力は、ユーザ(U1,U2,U3)の温冷感の推定結果に応じて実行される空気調和装置(10)の空調制御の内容を補正するために(例えば、室内ファン(12)の回転速度を実際の温冷感に応じて調整するために)、用いられても良い。
 <空調制御装置の構成>
 空調制御装置(50)は、図2に示すように、空気調和装置(10)の構成要素の一部である室内環境情報センサ(13)、制御部(14)及びカメラ(26)に加えて、受け付け部に相当するリモートコントローラ(30)と、演算装置(60)とを有する。
 室内環境情報センサ(13)、制御部(14)、カメラ(26)、及びリモートコントローラ(30)は、上記にて説明したため、以下では演算装置(60)について説明する。
  <演算装置>
 演算装置(60)は、ユーザ(U1,U2,U3)の温冷感の推定動作を主に行うものであって、記憶部(62)及びCPU(65)を備えたコンピュータである。演算装置(60)は、クラウドサーバ、ローカルサーバ等であることができる。
 演算装置(60)は、空気調和装置(10)及びリモートコントローラ(30)と有線または無線で通信可能に接続されている。これにより、演算装置(60)は、室内(r1)の温度等である室内環境情報センサ(13)の検知結果及びカメラ(26)の撮像した画像を空気調和装置(10)から取得することができ、リモートコントローラ(30)がユーザ(U1,U2,U3)から実際の温冷感を表す温冷感情報の入力を受け付けた場合、これを取得することができる。また、演算装置(60)は、自身が推定した温冷感を、空気調和装置(10)の制御部(14)に出力することができる。
 なお、本実施形態では、演算装置(60)が空気調和装置(10)とは別の装置である場合を例示しているが、演算装置(60)は、制御部(14)と同様、CPU及びメモリからなるマイクロコンピュータで構成され、空気調和装置(10)内に組み込まれていてもよい。
 記憶部(62)は、フラッシュメモリ及びハードディスク等の不揮発性記憶装置で構成される。記憶部(62)には、主に、ユーザ感覚情報(63)が格納されている。
 図3に示すように、ユーザ感覚情報(63)は、個々のユーザ(U1,U2,U3)についての、ユーザ(U1,U2,U3)の動作及び状態(表情を含む)と、その動作及び状態を採っている時のユーザ(U1,U2,U3)の温冷感とが対応づけられた情報である。暑いと感じた時または寒いと感じた時に自ずと行う行動や表情等は、ユーザ(U1,U2,U3)毎に異なる場合がある。即ち、寒暑の感覚に対する行動や表情等には、ユーザ(U1,U2,U3)毎に癖があると考えられる。それ故、その癖を、いわばユーザ(U1,U2,U3)の寒暑の感覚を指し示す基準として定義したものが、ユーザ感覚情報(63)である。
 CPU(65)は、記憶部(62)や当該記憶部(62)以外の他のメモリに記憶された各種プログラムを読み出して実行することにより、推定部(66)及びモデル更新部(68)として機能する。
  -ユーザの温冷感の推定-
 推定部(66)は、カメラ(26)が撮像したユーザ(U1,U2,U3)の画像を必須パラメータとして用いて、ユーザ(U1,U2,U3)の温冷感を推定する。このような推定部(66)は、推定モデル(67)を有する。
 推定モデル(67)は、撮像された画像からユーザ(U1,U2,U3)の温冷感を、ディープラーニング等の手法を用いた演算にて求める専用モデルであって、ニューラルネットワークとして予め構築されている。本実施形態の推定モデル(67)は、図4の破線に示すように、主として、カメラ(26)が撮像した画像のデータに画像処理を施す画像処理ニューラルネットワーク(67a)、及び、画像処理の結果からユーザ(U1,U2,U3)の温冷感を推定する温冷感推定ニューラルネットワーク(67b)の、言わば2層構造のニューラルネットワークとなっている。
 推定部(66)は、先ず、カメラ(26)が撮像した画像のデータを画像処理ニューラルネットワーク(67a)に入力する。画像処理ニューラルネットワーク(67a)では、画像データ(ここでは動画データ)の同時化処理等の他、エッジ検出やコントラスト処理等を駆使して、扇いでいる等のユーザ(U1,U2,U3)の動作の抽出、発汗している等のユーザ(U1,U2,U3)の状態の抽出、ユーザ(U1,U2,U3)の着衣量(または素肌の露出度)の算出、ユーザ(U1,U2,U3)の性別の算出、ユーザ(U1,U2,U3)の年齢の算出が行われる。即ち、画像処理ニューラルネットワーク(67a)では、温冷感を表すユーザ(U1,U2,U3)の特定の動作、状態、着衣量、ユーザ(U1,U2,U3)の放熱度合を表す着衣量(または素肌の露出度)、温冷感を左右させる要因となる性別及び年齢が演算される。
 図5(a)では、着衣量(または素肌の露出度)の増減と温冷感との関係の一例を、概念的に表している。図5(a)に示すように、着衣量が少ない程(素肌の露出度が多い程)、ユーザ(U1,U2,U3)は「暑い」と感じていることとなり、ユーザ(U1,U2,U3)の表面からの放熱量は多くなる。逆に、着衣量が多い程(素肌の露出度が少ない程)、ユーザ(U1,U2,U3)は「寒い」と感じていることとなり、ユーザ(U1,U2,U3)の表面からの放熱量は少なくなる。従って、算出した着衣量(または素肌の露出度)は、温冷感を表す指標の1つとなる。
 図5(b)では、年齢の高低と温冷感との関係の一例を概念的に表し、図5(c)では、性別と温冷感との関係の一例を概念的に表している。室内(r1)がとある温度で均一とした場合、図5(b)に示すように、年齢が低い程、ユーザ(U1,U2,U3)は「暑い」と感じることが多い傾向にあり、年齢が高い程、ユーザ(U1,U2,U3)は「寒い」と感じることが多い傾向にある。室内(r1)がとある温度で均一とした場合、図5(c)に示すように、男性は、女性に比べて「暑い」と感じることが多い傾向にあり、女性は、男性に比べて「寒い」と感じることが多い傾向にある。このように、求めた性別及び年齢は、温冷感を左右する指標の1つとなる。
 図4に示すように、画像処理ニューラルネットワーク(67a)から出力された上記演算結果は、抽出結果と共に、温冷感推定ニューラルネットワーク(67b)に入力される。温冷感推定ニューラルネットワーク(67b)では、入力された抽出結果及び演算結果のうち、温冷感を表すユーザ(U1,U2,U3)の特定の動作及び状態である抽出結果から、図3に係るユーザ感覚情報(63)を基準として、個々のユーザ(U1,U2,U3)の温冷感が求められる。この際、入力された演算結果、即ち着衣量(素肌の露出度)、性別及び年齢が、個々のユーザ(U1,U2,U3)の温冷感の算出において加味される。
 更に、図4に示すように、温冷感推定ニューラルネットワーク(67b)には、室内環境情報センサ(13)の検知結果に関する情報が入力される。室内環境情報センサ(13)の検知結果に関する情報としては、室内(r1)の温度自体の他、室内環境情報センサ(13)の検知結果のうちの室内(r1)の湿度を用いて演算ニューラルネットワーク(67c)にて求められた各ユーザ(U1,U2,U3)の放熱量等が挙げられる。温冷感推定ニューラルネットワーク(67b)では、当該室内環境情報センサ(13)の検知結果に関する情報も、個々のユーザ(U1,U2,U3)の温冷感の算出において加味される。
 これにより、個々のユーザ(U1,U2,U3)の温冷感は、個人毎にきめ細かく推定される。
 推定部(66)は、このようにして求めたユーザ(U1,U2,U3)の温冷感を、温冷感の推定結果として、空気調和装置(10)の制御部(14)に送信する。
 なお、本実施形態では、上述のように、複数のユーザ(U1,U2,U3)それぞれの温冷感をきめ細かく推定するため、各ユーザ(U1,U2,U3)の温冷感同士の間には所定範囲を超えるバラツキが生じている可能性がある。この場合、推定部(66)は、各ユーザ(U1,U2,U3)の温冷感の平均値または個人毎に重みをつけた加重平均値を求め、その平均値または加重平均値を温冷感の推定値として空気調和装置(10)の制御部(14)に送信してもよい。
  -推定モデルの更新-
 図6に示すように、モデル更新部(68)は、カメラ(26)が撮像した画像のデータ及びリモートコントローラ(30)が受け付けたユーザ(U1,U2,U3)の実際の温冷感を表す温冷感情報に基づいて上記推定モデル(67)を学習させる。
 温冷感の推定後にカメラ(26)が新たに撮像した画像には、例えばそれまで扇ぐ動作を行っていたユーザ(U1,U2,U3)が扇ぐのをやめた等の、ユーザ(U1,U2,U3)の動作及び状態に所望の変化が現れている可能性がある。この場合は、温冷感の推定動作が比較的良好であって、その推定結果に基づく空調動作(即ち第1空調動作)がユーザ(U1,U2,U3)の温冷感を快適な方向へと向かわせていると判断することができる。しかし、このような所望の変化が見られない場合は、温冷感の推定動作が実際の温冷感と乖離している可能性がある。そこで、モデル更新部(68)は、温冷感の推定精度が向上するように、カメラ(26)が新たに撮像した画像を用いて推定モデル(67)を更新する。
 なお、温冷感を表すユーザ(U1,U2,U3)の動作及び状態には、扇ぐ動作以外に、既に述べたように、着ている衣服の袖をまくる動作の有無及びその程度、発汗の有無およびその程度、体をさするか否か、体を動かす量(度合い)、等が含まれる。これらの各動作及び状態についても、温冷感の快適性を表す所望の変化が見られた場合、推定結果に基づく空調動作(即ち第1空調動作)がユーザ(U1,U2,U3)の温冷感を快適な方向へと向かわせていると判断することができ、モデル更新部(68)は、推定モデル(67)を更新する。
 上記の動作及び状態毎の、温冷感が快適な方向へと向かっていると判断できる具体例は、以下の通りである。
(I)空調動作前は袖をまくっていたが、空調動作後には袖をまくらなくなった、ないしは袖がまくられる量が減少した。
(II)発汗量が、空調動作前は多かったが、空調動作後は減少した。
(III)空調動作前は体をさする動作が行われていたが、空調動作後には体をさする動作が行われなくなった。
(IV)空調動作前は、体を動かす量が少なかったが、空調動作後は体をよく動かすようになった。
 上記具体例にて示すように、温冷感の快適性が向上しているか否かは、何らかの動作及び状態の有無のみならず、何らかの行動及び状態の頻度の増減によっても判断することができ、これらを総じて“所望の変化”と言う。このような所望の変化がカメラ(26)の画像から把握された場合は、温冷感の推定動作が実際の寒暑の感覚と概ね一致していると判断することができ、推定モデル(67)の更新は行われない。
 また、リモートコントローラ(30)を介してユーザ(U1,U2,U3)が入力した温冷感情報には、ユーザ(U1,U2,U3)の実際の寒暑の感覚が表れている。それ故、モデル更新部(68)は、リモートコントローラ(30)が受け付けた温冷感情報も用いて推定モデル(67)を更新する。
 このような更新動作により、推定モデル(67)(具体的には温冷感推定ニューラルネットワーク(67b))は、より実際の温冷感に近い推定結果を算出できるようなモデルに更新されていく。
 なお、モデル更新部(68)は、前回撮像した画像におけるユーザ(U1,U2,U3)の動作及び状態と、新たに撮像した画像におけるユーザ(U1,U2,U3)の動作及び状態とを比較した結果、所望の変化がある場合、及び/または、リモートコントローラ(30)が受け付けた温冷感情報が所望する温冷感情報の範囲内である場合は、推定モデル(67)の更新動作は不要と判定し、推定モデル(67)の更新動作を行わずともよい。つまり、推定モデル(67)の更新動作は、前回撮像した画像と新たに撮像した画像との間でユーザ(U1,U2,U3)の動作及び状態に所望の変化がなかった場合、及び/または、リモートコントローラ(30)が受け付けた温冷感情報が所望する温冷感情報の範囲外である場合に行われると良い。CPU(65)が不必要な処理を行うことで高負荷となることを和らげるためである。
 なお、本実施形態では、推定モデル(67)のうち更新対象となるものは、温冷感推定ニューラルネットワーク(67b)であるが、画像処理ニューラルネットワーク(67a)や演算ニューラルネットワーク(67c)が更に更新対象であってもよい。
 なお、図6に示すように、推定モデル(67)を更新する際には、更に室内環境情報センサ(13)の検知結果に関する情報も利用されてもよいが、利用されずともよい。
 <推定したユーザの温冷感に伴う空調動作>
 図7は、ユーザ(U1,U2,U3)の温冷感の推定動作、及び、推定した温冷感に伴う空調動作の流れを示す図である。
 カメラ(26)は、ユーザ(U1,U2,U3)の画像を撮像する(St11)。カメラ(26)が撮像した画像は、演算装置(60)に送信される。
 演算装置(60)では、推定部(66)は、推定モデル(67)における画像処理ニューラルネットワーク(67a)を用いて、ユーザ(U1,U2,U3)の動作及び状態の抽出、着衣量、性別及び年齢の演算を行う(St12)。推定部(66)は、推定モデル(67)における温冷感推定ニューラルネットワーク(67b)に、ステップSt12における抽出及び演算結果を入力して、各ユーザ(U1,U2,U3)の温冷感を推定する(St13)。温冷感の推定結果は、空気調和装置(10)の制御部(14)に送信される。
 空気調和装置(10)の制御部(14)は、推定された温冷感における「暑さ」の度合と、暑さ用の閾値とを比較する。「暑さ」の度合が暑さ用の閾値を超えている場合(St14のYes)、制御部(14)は、室内(r1)の目標温度を下げる(St15)。目標温度をどの程度下げるかは、例えば「暑さ」の度合と暑さ用の閾値との差によって決定されることができる。ステップSt15により、空気調和装置(10)は、冷たい空気を室内(r1)に送る風量を高めたり、より冷たい空気を室内(r1)に供給したりする。やがて、室内(r1)の温度は下降して目標温度に達するようになる。
 ステップSt16において、空気調和装置(10)の制御部(14)は、推定された温冷感における「寒さ」の度合と、寒さ用の閾値とを比較する。「寒さ」の度合が寒さ用の閾値を超えている場合(St16のYes)、制御部(14)は、室内(r1)の目標温度を上げる(St17)。目標温度をどの程度上げるかは、例えば「寒さ」の度合と寒さ用の閾値との差によって決定されることができる。ステップSt17により、空気調和装置(10)は、暖かい空気を室内(r1)に送る風量を高めたり、より暖かい空気を室内(r1)に供給したりする。やがて、室内(r1)の温度は上昇して目標温度に達するようになる。
 <効果>
 カメラ(26)がユーザ(U1,U2,U3)の寒暑の感覚を表すユーザ(U1,U2,U3)の動作及び状態を撮像すると、演算装置(60)の推定部(66)はこの画像に基づいてユーザ(U1,U2,U3)の温冷感を推定し、空気調和装置(10)の制御部(14)はユーザ(U1,U2,U3)の温冷感が目標範囲内となるように推定結果に基づいて空調動作(第1空調動作)を制御する。これにより、ユーザ(U1,U2,U3)がリモートコントローラ(30)等を操作して空気調和装置(10)に目標温度を上下させるような指示を与えずとも、空気調和装置(10)は、自動的に温冷感の推定動作及びユーザ(U1,U2,U3)の温冷感を目標範囲内とするのに適した空調動作を行う。従って、ユーザ(U1,U2,U3)の利便性は向上し、室内(r1)に居るユーザ(U1,U2,U3)の快適性は自動的に向上する。
 また、ユーザ(U1,U2,U3)の温冷感の推定に、ユーザ(U1,U2,U3)の画像に加えて、室内(r1)の実際の温度等である室内環境情報センサ(13)の検知結果が用いられる。従って、ユーザ(U1,U2,U3)の温冷感の推定精度は向上し、空気調和装置(10)は、ユーザ(U1,U2,U3)にとってより快適な環境を提供することができる。
 ところで、人は、「暑い」と感じる程着衣量が少なくなり、「寒い」と感じる程着衣量は多くなる。そこで、推定部(66)は、画像からユーザ(U1,U2,U3)の着衣量(素肌の露出度)を演算し、その演算結果を更に用いて温冷感を推定する。これにより、ユーザ(U1,U2,U3)の温冷感の推定精度は向上し、空気調和装置(10)は、ユーザ(U1,U2,U3)にとってより快適な環境を提供することができる。
 また、年齢及び性別の違いは、人が「暑い」または「寒い」と感じる感じ方に影響を及ぼすことがある。そこで、推定部(66)は、画像からユーザ(U1,U2,U3)の年齢及び性別を演算し、その演算結果を更に用いて温冷感を推定する。これにより、ユーザ(U1,U2,U3)の温冷感の推定精度は向上し、空気調和装置(10)は、ユーザ(U1,U2,U3)にとってより快適な環境を提供することができる。
 また、カメラ(26)は、天井に設置されている空気調和装置(10)に設けられている。そのため、カメラ(26)は、室内(r1)に居るユーザ(U1,U2,U3)を、障害物により遮られる可能性が軽減された状態で、撮像することができる。
 また、推定部(66)は、室内(r1)に居る複数のユーザ(U1,U2,U3)それぞれの温冷感を測定する。これにより、空気調和装置(10)は、各ユーザ(U1,U2,U3)の温冷感に即した空調動作を行うことができる。
 ところで、ユーザ(U1,U2,U3)が「暑い」または「寒い」と感じた際にユーザ(U1,U2,U3)が採る動作及び状態は、ユーザ(U1,U2,U3)毎に異なることがある。そこで、推定部(66)は、個々のユーザ(U1,U2,U3)が「暑い」または「寒い」と感じた際に採る動作及び状態を表すユーザ感覚情報(63)を、実際に撮像した画像におけるユーザ(U1,U2,U3)の動作及び状態との照合に用いる。これにより、個々のユーザ(U1,U2,U3)の温冷感の推定精度は向上し、空気調和装置(10)は、ユーザ(U1,U2,U3)にとってより快適な環境を提供することができる。
 また、ユーザ(U1,U2,U3)の画像及びリモートコントローラ(30)が受け付けたユーザ(U1,U2,U3)の温冷感情報に基づいて、推定モデル(67)が学習される。従って、推定部(66)が学習後の推定モデル(67)を用いて温冷感の推定動作を行うことにより、ユーザ(U1,U2,U3)の温冷感の推定精度は向上する。
 また、推定モデル(67)は、推定部(66)の推定結果に基づく空調動作が行われた後のカメラ(26)が撮像した画像からユーザ(U1,U2,U3)の実際の温冷感が把握され、その把握結果に基づいて学習される。より具体的には、推定モデル(67)は、推定部(66)の推定結果に基づく空調動作(第1空調動作)が行われた後のカメラ(26)の撮像画像から、カメラ(26)が空調動作(第1空調動作)前に撮像した画像と比較してユーザ(U1,U2,U3)の温冷感を判断していた行動および状態の変化に基づいて学習される。ここで、ユーザ(U1,U2,U3)の温冷感を判断していた行動および状態の変化とは、行動及び状態の頻度が減少するか、または、行動及び状態が現れなくなることである。これにより、推定モデル(67)の推定結果が実際と合致しているか否かが、より正確に判断され、推定モデル(67)の推定結果が実際となるべく合致するように、推定モデル(67)の精度は更に向上する。学習後の推定モデル(67)を用いてユーザ(U1,U2,U3)の温冷感の推定動作が行われることにより、ユーザ(U1,U2,U3)の温冷感の推定精度はより向上する。
 ≪第2実施形態≫
 本実施形態では、上記第1実施形態において、空調制御装置(50)が更にサーモグラフィセンサ(128)(表面温度測定部に相当)を備え、推定部(66)は、ユーザ(U1,U2,U3)の温冷感の推定動作に更にサーモグラフィセンサ(128)の検知結果を用いる場合について説明する。
 図8は、第1実施形態の図4に対応する図であって、本実施形態に係る温冷感の推定時の推定モデル(67)の入力及び出力を表す概念図である。図8の破線に示すように、推定部(66)における推定モデル(67)は、上記第1実施形態と同様、撮像された画像のデータからユーザ(U1,U2,U3)の温冷感を演算によって求める専用のニューラルネットワークとして予め構築されている。具体的には、推定モデル(67)は、主として、画像処理ニューラルネットワーク(67a)と温冷感推定ニューラルネットワーク(67b)の、言わば2層構造のニューラルネットワークとなっている。
 画像処理ニューラルネットワーク(67a)の入力と出力は、上記第1実施形態と同様である。
 温冷感推定ニューラルネットワーク(67b)には、画像処理ニューラルネットワーク(67a)の抽出結果及び演算結果、室内環境情報センサ(13)の検知結果に関する情報に加え、サーモグラフィセンサ(128)の検知結果が入力される。
 サーモグラフィセンサ(128)は、室内(r1)に居る各ユーザ(U1,U2,U3)の表面温度を測定する。サーモグラフィセンサ(128)の室内(r1)での取り付け位置は、特に限定されることはなく、例えばリモートコントローラ(30)に組み込まれても良いし、空気調和装置(10)の下面(21)に取り付けられてもよい。
 なお、図8に示すように、サーモグラフィセンサ(128)の検知結果は、室内環境情報センサ(13)の検知結果が演算ニューラルネットワーク(67c)にて演算処理されるのと同様、別途演算ニューラルネットワーク(67d)にて所定の演算が施された後に、温冷感推定ニューラルネットワーク(67b)に入力されてもよい。
 温冷感推定ニューラルネットワーク(67b)では、上記第1実施形態と同様、画像処理ニューラルネットワーク(67a)の抽出結果及び演算結果に基づいて個々のユーザ(U1,U2,U3)の温冷感が求められる。この際、上記第1実施形態と同様、ユーザ感覚情報(63)は基準として用いられる。サーモグラフィセンサ(128)の検知結果は、室内環境情報センサ(13)の検知結果に関する情報と同様、個々のユーザ(U1,U2,U3)の温冷感の算出において加味される。
 サーモグラフィセンサ(128)の検知結果は、図9に示すように、推定モデル(67)の更新動作においても、画像処理ニューラルネットワーク(67a)の抽出結果及び演算結果、室内環境情報センサ(13)の検知結果に関する情報に加えて用いられてもよい。
 図8及び図9を用いて説明した以外、具体的には、空調制御装置(50)を用いた空調システム(100)の構成、ユーザ感覚情報(63)、推定結果を用いた空調動作の詳細は、上記第1実施形態と同様であるため、説明を省略する。
 このように、本実施形態では、ユーザ(U1,U2,U3)の温冷感の推定に、ユーザ(U1,U2,U3)の実際の表面温度が更に用いられる。従って、ユーザ(U1,U2,U3)の温冷感の推定精度はより向上し、空気調和装置(10)は、ユーザ(U1,U2,U3)にとってより快適な環境を提供することができる。
 ≪その他の実施形態≫
 上記第1実施形態及び第2実施形態において、画像から抽出されたユーザ(U1,U2,U3)の動きから当該ユーザ(U1,U2,U3)の発熱量を演算し、その結果が温冷感の推定に利用されてもよい。
 上記第1実施形態及び第2実施形態において、推定部(66)は、更に各ユーザ(U1,U2,U3)の心拍数の検知結果を各ユーザ(U1,U2,U3)の温冷感の推定に用いても良い。これにより、各ユーザ(U1,U2,U3)の温冷感はより細かく把握されるようになる。各ユーザ(U1,U2,U3)の心拍数は、カメラ(26)が撮像した画像から、各ユーザ(U1,U2,U3)の状態を表す情報として算出されてもよいし、カメラ(26)とは別の心拍数を検知するセンサによって検知されても良い。各ユーザ(U1,U2,U3)の心拍数は、推定モデル(67)の学習の際に用いられても良い。
 上記第1実施形態及び第2実施形態において、吸い込みセンサとは別のセンサが室内環境情報センサ(13)として設けられても良い。室内環境情報センサ(13)が検知する室内に関する情報は、室内(r1)の温度及び湿度に限定されることはなく、室内(r1)の環境に関する様々な情報が含まれる。また、室内環境情報センサ(13)の検知結果は、室内(r1)の温度のみであってもよい。
 リモートコントローラ(30)を介して入力されたユーザ(U1,U2,U3)の温冷感情報は、空調動作(第1空調動作に相当)の制御の微調整及び学習等に利用されてもよい。カメラ(26)が新たに撮像した画像も、上記温冷感情報と同様、推定モデル(67)の更新のみならず、空調動作(第1空調動作に相当)の制御の微調整及び学習などに利用されてもよい。
 上記空調動作の制御の微調整および学習としては、フラップ(16)の位置、室内ファン(12)の回転速度、及び室内(r1)の設定温度それぞれの、温冷感の快適性向上のための空調動作にて用いられる目標値を微調整および学習することが含まれる。
 例えば、推定部(66)が推定したユーザ(U1,U2,U3)の温冷感における「暑さ」の度合が、暑さ用の閾値を超えているとする。この場合、当該ユーザ(U1,U2,U3)の温冷感が「暑い」であると判断できる。制御部(14)は、当該ユーザ(U1,U2,U3)に空調空気が供給されるようにフラップ(16)の位置を制御すると共に、室内(r1)の設定温度の目標値を例えば2度下げて当該ユーザ(U1,U2,U3)により冷たい空調空気を供給する。
 この際、「暑さ」の度合が暑さ用の閾値を超えているユーザ(U1,U2,U3)が一人の場合、制御部(14)は、風向がそのユーザ(U1,U2,U3)に向く状態でフラップ(16)の位置を固定にする。「暑さ」の度合が暑さ用の閾値を超えているユーザ(U1,U2,U3)が複数人存在する場合、制御部(14)は、空調空気がスイングして当該ユーザ(U1,U2,U3)それぞれに供給されるように、フラップ(16)をスイングさせてもよい。
 その後、カメラ(26)は、新たに画像を撮像する。その画像を用いて、推定部(66)は、空調空気が供給されているユーザ(U1,U2,U3)の温冷感を推定し直す。その結果、当該ユーザ(U1,U2,U3)の「暑さ」の度合が暑さ用の閾値以下となり、且つ、「寒さ」の度合も寒さ用の閾値以下の場合、制御部(14)は、ユーザ(U1,U2,U3)が暑いと感じていた温冷感が快適に変化したと判断できるため、これまでの空調動作の制御はユーザ(U1,U2,U3)に合致したものであったと学習する。
 一方、当該ユーザ(U1,U2,U3)の「暑さ」の度合がなおも暑さ用の閾値を超えている場合、制御部(14)は、室内(r1)の設定温度の目標値を更に2度下げると共に、室内ファン(12)の回転速度をそれまでよりも上昇させる。これにより、ユーザ(U1,U2,U3)には、より冷たい空調空気が、風量の上がった状態で供給される。
 なお、「暑さ」の度合が暑さ用の閾値を超えているユーザ(U1,U2,U3)がなおも複数人存在する場合、制御部(14)は、フラップ(16)のスイング動作を、それまでとは異なったスイング動作の仕方に変更するように、フラップ(16)の位置を制御してもよい。例えば、制御部(14)は、各ユーザ(U1,U2,U3)の位置に応じて、フラップ(16)の上下または左右にスイングさせる時間間隔を変更したり、スイングの途中でフラップ(16)を一時的に停止させたりする。
 また、「暑さ」の度合が暑さ用の閾値を超えているユーザ(U1,U2,U3)が減少した場合、制御部(14)は、未だ暑いと感じているユーザ(U1,U2,U3)のみに空調空気が供給されるように、フラップ(16)の位置を制御して風向の上下方向および左右方向の調整を行ってもよい。
 暑いと感じていたユーザ(U1,U2,U3)の人数が複数人から一人となった場合、制御部(14)は、未だ「暑い」と感じているユーザ(U1,U2,U3)のみに空調空気を供給するべく、フラップ(16))をスイングの状態から位置固定の状態に変化させる制御を行っても良い。
 その後、カメラ(26)は、再度画像を新たに撮像し、その画像から、推定部(66)が当該ユーザ(U1,U2,U3)の温冷感を再度推定する。その結果、「暑さ」の度合が暑さ用の閾値以下となり、且つ、「寒さ」の度合も寒さ用の閾値以下の場合、制御部(14)は、ユーザ(U1,U2,U3)が暑いと感じていた温冷感が快適に変化したと判断できる。この際、制御部(14)は、ユーザ(U1,U2,U3)の温冷感の快適性の向上のために必要となった一連の空調動作の制御内容を学習し、次回以降の空調動作(第1空調動作)に役立てるべく、室内(r1)の設定温度や室内ファン(12)の回転速度等の各目標値を、今回行った空調制御における最終的な値に設定する。即ち、次回からの空調動作(第1空調動作)では、当該学習後の設定温度等での空調動作(第1空調動作)が自動で開始される。そのため、次回行われる空調動作(第1空調動作)は、ユーザ(U1,U2,U3)の温冷感をより確実に快適にさせ易いものとなる。
 特に、制御部(14)は、上述した空調動作(第1空調動作)において、フラップ(16)をスイングさせた場合、複数のユーザ(U1,U2,U3)が快適と感じた際のスイングの仕方を学習することが好ましい。
 また、このような空調制御の学習時、上記実施形態1,2で説明したユーザ(U1,U2,U3)によるリモートコントローラ(30)からの入力(温冷感情報)が更に利用されてもよい。つまり、制御部(14)は、上記空調制御後に入力された温冷感情報を用いて、現在の空調制御が、温冷感の快適性向上に有効な内容となっているか否かを判断し、空調制御の内容を学習により更新してもよい。この場合、空調制御についても、その制御に用いる制御モデルが構築され、当該制御モデルを学習させるようになっていてもよい。
 なお、上述した空調動作の制御では、フラップ(16)の位置、室内ファン(12)の回転速度及び室内(r1)の設定温度を微調整および学習する場合を例示したが、これらのうちの少なくとも1つが微調整および学習されてもよい。
 上記第1実施形態及び第2実施形態では、画像には、ユーザ(U1,U2,U3)の寒暑の感覚を表すユーザ(U1,U2,U3)の動作及び状態が写し出されていると説明したが、画像に写し出されているものは、ユーザ(U1,U2,U3)の動作及び状態のうち少なくとも1つであってもよい。この場合、画像処理ニューラルネットワーク(67a)の抽出結果は、ユーザ(U1,U2,U3)の動作及び状態のうち少なくとも1つとなる。
 室内環境情報センサ(13)の検知結果は、温冷感の推定に利用されずともよい。
 ユーザ(U1,U2,U3)の着衣量の演算結果は、温冷感の推定に利用されずともよい。
 ユーザ(U1,U2,U3)の性別及び年齢の演算結果は、温冷感の推定に利用されずとも良い。
 ユーザ(U1,U2,U3)の性別及び年齢を温冷感の推定に用いる場合、ユーザ(U1,U2,U3)の性別及び年齢のいずれか一方が温冷感の推定に用いられもよい。
 空気調和装置(10)は、室内(r1)の天井に設置されるタイプに限定されず、壁面設置タイプ、床置きタイプ等であることができる。
 カメラ(26)は、室内(r1)のユーザ(U1,U2,U3)を撮像できる位置にあればよく、空気調和装置(10)に設けられずともよい。例えば、カメラ(26)は、ユーザ(U1,U2,U3)のパーソナルコンピュータが有するウェブカメラであってもよい。
 上記第1実施形態及び第2実施形態に係る空調制御装置(50)は、室内(r1)に居るユーザの人数が一人である場合にも適用できる。
 また、空調制御装置(50)は、室内(r1)に居るユーザの人数が複数の場合、温冷感の推定対象者は、全員ではなく、任意であってもよい。
 推定部(66)は、温冷感の推定時に、ユーザ感覚情報(63)を利用せずともよい。
 推定モデル(67)の更新動作は行われなくても良い。
 推定モデル(67)の更新動作を行う場合、温冷感の推定時と推定モデル(67)の更新動作時とで、使用するパラメータが同じであってもよいし、異なっていても良い。例えば、温冷感の推定時のパラメータは、画像、室内の温度及び湿度、吹き出し口(24)から吹き出される空気の吹き出し温度及び湿度、風量、風向、空調能力のうち少なくとも1つであることができる。推定モデル(67)の更新動作時のパラメータは、画像、室内の温度及び湿度、風速、輻射温度のうち少なくとも1つであることができる。
 上記第1実施形態及び第2実施形態では、ニューラルネットワークで構築された推定モデル(67)を利用して温冷感の推定が行われる場合を説明したが、温冷感の推定動作は、上記推定モデル(67)を利用することなく、例えばプログラムを実行することによってなされてもよい。
 上記第1実施形態及び第2実施形態では、温冷感情報の入力を受け付ける受け付け部が“リモートコントローラ(30)”である場合を例示した。しかし、受け付け部は、スマートフォン、タブレット、パーソナルコンピュータなどの、リモートコントローラとは別の機器で構成されていてもよい。また、温冷感情報を入力する手段は、音声入力などであってもよい。
 以上説明したように、本発明は、ユーザの温冷感を推定し、その推定結果に基づいて空調動作を制御する空調制御装置について有用である。
10 空気調和装置
13 室内環境情報センサ(検知部)
14 制御部
26 カメラ(撮像部)
30 リモートコントローラ(受け付け部)
50 空調制御装置
62 記憶部
64 ユーザ感覚情報
66 推定部
67 推定モデル
68 モデル更新部
U1,U2,U3 ユーザ
128 サーモグラフィセンサ(表面温度測定部)

Claims (15)

  1.  ユーザ(U1,U2,U3)を撮像する撮像部(26)と、
     上記撮像部(26)が撮像した上記ユーザ(U1,U2,U3)の画像に基づいて、上記ユーザ(U1,U2,U3)が暑さ又は寒さを感じる度合いを示す温冷感を推定する推定部(66)と、
     上記推定部(66)の推定結果に基づいて、上記温冷感が目標範囲内となるように、上記ユーザ(U1,U2,U3)が居る室内を空調対象とする空気調和装置(10)の第1空調動作を制御する制御部(14)と
    を備え、
     上記画像には、上記ユーザ(U1,U2,U3)の寒暑の感覚を表す該ユーザ(U1,U2,U3)の動作、及び/または、上記ユーザ(U1,U2,U3)の寒暑の感覚を表す該ユーザ(U1,U2,U3)の状態が写し出されており、
     上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の動作及び/または上記ユーザ(U1,U2,U3)の状態を抽出して上記温冷感を推定する
    ことを特徴とする空調制御装置。
  2.  請求項1において、
     上記空気調和装置(10)は、上記室内の環境に関する室内環境情報を検知する検知部(13)を有し、
     上記推定部(66)は、更に上記室内環境情報に基づいて、上記温冷感を推定する
    ことを特徴とする空調制御装置。
  3.  請求項1または請求項2において、
     上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の着衣量を算出し、算出した上記着衣量に更に基づいて上記温冷感を推定する
    ことを特徴とする空調制御装置。
  4.  請求項1から請求項3のいずれか1項において、
     上記推定部(66)は、上記画像から上記ユーザ(U1,U2,U3)の性別及び/または年齢を算出し、算出した上記ユーザ(U1,U2,U3)の性別及び/または年齢に更に基づいて上記温冷感を推定する
    ことを特徴とする空調制御装置。
  5.  請求項1から請求項4のいずれか1項において、
     上記室内に居る上記ユーザの表面温度を測定する表面温度測定部(128)、
    を更に備え、
     上記推定部(66)は、更に上記表面温度測定部(128)の測定結果に基づいて、上記温冷感を推定する
    ことを特徴とする空調制御装置。
  6.  請求項1から請求項5のいずれか1項において、
     上記空気調和装置(10)は、上記室内の天井に設置されており、
     上記撮像部(26)は、上記空気調和装置(10)に設けられている
    ことを特徴とする空調制御装置。
  7.  請求項1から請求項6のいずれか1項において、
     上記室内に複数の上記ユーザが存在する場合、上記推定部(66)は、複数の上記ユーザ(U1,U2,U3)それぞれの上記温冷感を推定する
    ことを特徴とする空調制御装置。
  8.  請求項7において、
     複数の上記ユーザ(U1,U2,U3)それぞれについての、上記ユーザ(U1,U2,U3)の動作及び/または上記ユーザ(U1,U2,U3)の状態と、該動作及び/または該状態時の上記ユーザの上記温冷感とが対応づけられたユーザ感覚情報(63)、を記憶する記憶部(62)、
    を更に備え、
     上記推定部(66)は、
    各上記ユーザ(U1,U2,U3)の動作及び/または各上記ユーザ(U1,U2,U3)の状態を上記画像から抽出し、
    抽出結果と上記ユーザ感覚情報(63)とを用いて、複数の上記ユーザ(U1,U2,U3)それぞれの上記温冷感を推定する
    ことを特徴とする空調制御装置。
  9.  請求項1から請求項8のいずれか1項において、
     上記ユーザ(U1,U2,U3)の上記温冷感を表す温冷感情報の該ユーザ(U1,U2,U3)による入力を受け付けることが可能な受け付け部(30)と、
     上記撮像部(26)が撮像した上記画像及び/または上記受け付け部(30)が受け付けた上記温冷感情報に基づいて、上記温冷感の推定に用いられる推定モデル(67)を学習させるモデル更新部(68)と、
    を更に備える
    ことを特徴とする空調制御装置。
  10.  請求項1から請求項8のいずれか1項において、
     上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した上記画像から上記ユーザ(U1,U2,U3)の実際の上記温冷感を把握し、その把握結果に基づいて、上記温冷感の推定に用いる推定モデル(67)を学習させるモデル更新部(68)と、
    を更に備えることを特徴とする空調制御装置。
  11.  請求項10において、
     上記モデル更新部(68)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した画像から、上記撮像部(26)が上記第1空調動作前に撮像した画像と比較して上記ユーザ(U1,U2,U3)の上記温冷感を判断していた行動および状態の変化に基づいて、上記推定モデル(67)を学習させる、
    ことを特徴とする空調制御装置。
  12.  請求項11において、
     上記ユーザ(U1,U2,U3)の上記温冷感を判断していた行動および状態の変化とは、上記行動及び上記状態の頻度が減少するか、または、上記行動及び上記状態が現れなくなることである
    ことを特徴とする空調制御装置。
  13.  請求項10から請求項12のいずれか1項において、
     上記ユーザ(U1,U2,U3)の上記温冷感を表す温冷感情報の該ユーザ(U1,U2,U3)による入力を受け付けることが可能な受け付け部(30)を更に備え、
     上記制御部(14)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後に上記受け付け部(30)が受け付けた上記温冷感情報に基づいて、上記ユーザ(U1,U2,U3)の上記温冷感が上記目標範囲内となるように上記第1空調動作の制御の内容を学習する
    ことを特徴とする空調制御装置。
  14.  請求項10から請求項13のいずれか1項において、
     上記制御部(14)は、上記推定部(66)の推定結果に基づく上記第1空調動作が行われた後の上記撮像部(26)が撮像した上記画像に基づいて、上記ユーザ(U1,U2,U3)の上記温冷感が上記目標範囲内となるように上記第1空調動作の制御の内容を学習する
    ことを特徴とする空調制御装置。
  15.  請求項13または請求項14において、
     上記第1空調動作の制御の内容には、上記空気調和装置(10)に含まれる室内ファン(12)の回転速度、上記空気調和装置(10)から吹き出される風向を調節するフラップ(16)の位置、上記空気調和装置(10)の設定温度、の少なくとも1つを調整することが含まれる
    ことを特徴とする空調制御装置。
PCT/JP2018/031091 2017-10-30 2018-08-23 空調制御装置 WO2019087537A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18874105.2A EP3680568B1 (en) 2017-10-30 2018-08-23 Air-conditioning control device
CN201880068368.8A CN111247375B (zh) 2017-10-30 2018-08-23 空调控制装置
US16/754,264 US11480359B2 (en) 2017-10-30 2018-08-23 Air-conditioning control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-209734 2017-10-30
JP2017209734 2017-10-30

Publications (1)

Publication Number Publication Date
WO2019087537A1 true WO2019087537A1 (ja) 2019-05-09

Family

ID=66331619

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031091 WO2019087537A1 (ja) 2017-10-30 2018-08-23 空調制御装置

Country Status (5)

Country Link
US (1) US11480359B2 (ja)
EP (1) EP3680568B1 (ja)
JP (2) JP6782744B2 (ja)
CN (1) CN111247375B (ja)
WO (1) WO2019087537A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220867A (ja) * 2018-06-20 2019-12-26 ソフトバンク株式会社 環境制御装置、環境設定方法及び環境設定プログラム
WO2020230895A1 (ja) * 2019-05-15 2020-11-19 ダイキン工業株式会社 温熱快適性を推定するためのシステム
JP2020189081A (ja) * 2019-05-15 2020-11-26 ダイキン工業株式会社 温熱快適性を推定するためのシステム
CN113405241A (zh) * 2020-03-16 2021-09-17 海尔(深圳)研发有限责任公司 用于空气调节设备控制的方法、装置和空气调节设备
WO2021229690A1 (ja) * 2020-05-12 2021-11-18 三菱電機株式会社 空気調和システム
WO2021255899A1 (ja) * 2020-06-18 2021-12-23 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2023144931A1 (ja) * 2022-01-26 2023-08-03 日本電気株式会社 空調機制御装置、空調機制御システム、空調機制御方法及びプログラム
WO2023248496A1 (ja) * 2022-06-23 2023-12-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及びプログラム
WO2024084648A1 (ja) * 2022-10-20 2024-04-25 三菱電機株式会社 空気調和機及び空気調和方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6891897B2 (ja) * 2016-10-07 2021-06-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11927931B2 (en) * 2019-06-27 2024-03-12 Lg Electronics Inc. Artificial intelligence-based air conditioner
JP6849028B2 (ja) * 2019-08-23 2021-03-24 ダイキン工業株式会社 空調制御システム、空気調和機、および、機械学習装置
CN112577122B (zh) * 2019-09-30 2022-09-30 浙江三花智能控制股份有限公司 空调
JP7456120B2 (ja) * 2019-10-31 2024-03-27 株式会社富士通ゼネラル 空気調和装置
JP6880154B2 (ja) * 2019-11-20 2021-06-02 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP4067769A4 (en) * 2019-11-26 2023-02-01 Daikin Industries, Ltd. MACHINE LEARNING DEVICE AND ENVIRONMENT ADAPTING DEVICE
JP7258798B2 (ja) * 2020-02-26 2023-04-17 株式会社東芝 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7458917B2 (ja) 2020-06-30 2024-04-01 三菱電機株式会社 満足度計算装置及び満足度計算プログラム
CN112631135B (zh) * 2020-11-30 2023-08-29 西安建筑科技大学 基于计算机视觉监测的个体热舒适控制系统及控制方法
CN112696806B (zh) * 2020-12-23 2022-06-07 万翼科技有限公司 一种空调运行方法及装置
US20240003574A1 (en) 2021-02-10 2024-01-04 Mitsubishi Electric Corporation Air conditioner, control method, and non-transitory computer-readable storage medium
WO2022259293A1 (ja) * 2021-06-07 2022-12-15 三菱電機株式会社 空気調和システム
CN113819630B (zh) * 2021-09-13 2023-06-23 青岛海尔空调器有限总公司 用于控制空调的方法、装置及空调
CN115930384B (zh) * 2023-03-13 2023-06-06 中国海洋大学 利用强化学习和热成像的智能空调控制设备和控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265190A (ja) * 1993-03-12 1994-09-20 Sharp Corp 空気調和機
JP2015017753A (ja) * 2013-07-11 2015-01-29 富士電機株式会社 空気調和機の制御装置および空気調和機の制御方法
JP2015161425A (ja) * 2014-02-26 2015-09-07 シャープ株式会社 空気調和機
JP2016035365A (ja) 2014-08-04 2016-03-17 パナソニックIpマネジメント株式会社 環境制御装置、プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522102B2 (ja) 1990-09-19 1996-08-07 ダイキン工業株式会社 空気調和装置の運転制御装置
JP3216280B2 (ja) * 1992-12-11 2001-10-09 松下電器産業株式会社 空気調和機の制御装置と画像処理装置の応用機器
JP4131639B2 (ja) 2002-05-17 2008-08-13 東芝松下ディスプレイテクノロジー株式会社 携帯可能な媒体に搭載可能な表示装置および情報機器
JP5223323B2 (ja) 2007-12-14 2013-06-26 株式会社サタケ 種子温湯消毒装置
JP5238679B2 (ja) * 2009-12-15 2013-07-17 株式会社東芝 空調制御装置、空調制御方法及び輻射温度計測装置
JP5085670B2 (ja) * 2010-02-24 2012-11-28 株式会社東芝 空調制御システムおよび空調制御方法
JP5854850B2 (ja) 2012-01-12 2016-02-09 三菱電機株式会社 空気調和機及び空調制御システム
JP6131768B2 (ja) 2013-08-19 2017-05-24 三菱電機株式会社 空気調和装置
JP6280733B2 (ja) 2013-11-26 2018-02-14 大和ハウス工業株式会社 空調制御システム及び空調制御方法
JP2015111019A (ja) * 2013-12-06 2015-06-18 株式会社東芝 空調システム、空調機器制御装置、制御方法、およびプログラム
WO2015122201A1 (ja) * 2014-02-17 2015-08-20 パナソニック株式会社 空気調和機及び熱画像センサシステム
CN103954005B (zh) * 2014-03-26 2017-02-15 广东美的集团芜湖制冷设备有限公司 温度控制方法、温度控制系统和空调器
CN103954016B (zh) * 2014-05-21 2017-02-15 珠海格力电器股份有限公司 空调的控制方法、控制装置及空调
CN104033998A (zh) * 2014-05-27 2014-09-10 四川长虹电器股份有限公司 空调控制系统
US20160061478A1 (en) * 2014-09-02 2016-03-03 Azbil Corporation Air-conditioning control apparatus and method
CN104697110B (zh) * 2015-02-03 2017-08-22 赵盾 一种室内温度控制方法
EP3274676B1 (en) * 2015-03-23 2024-03-06 The Trustees of Princeton University Spherical-motion average radiant temperature sensor
WO2016192179A1 (zh) * 2015-06-05 2016-12-08 宁波奥克斯空调有限公司 一种空调检测装置及控制方法
JP6505514B2 (ja) * 2015-06-10 2019-04-24 パナソニック株式会社 空気調和機、センサシステムおよびその温冷感推定方法
JP6265190B2 (ja) 2015-09-15 2018-01-24 トヨタ自動車株式会社 自動車用乗員保護装置
JP6509108B2 (ja) * 2015-12-29 2019-05-08 三菱電機ビルテクノサービス株式会社 空調管理システム及びプログラム
CN105715575B (zh) * 2016-02-29 2017-11-14 广东美的环境电器制造有限公司 风扇及其控制方法
CN107023951A (zh) * 2017-04-01 2017-08-08 青岛海尔空调器有限总公司 通过人脸识别控制空调的方法和系统
JP6499255B2 (ja) 2017-10-20 2019-04-10 藤森工業株式会社 粘着剤層、及び粘着フィルム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265190A (ja) * 1993-03-12 1994-09-20 Sharp Corp 空気調和機
JP2015017753A (ja) * 2013-07-11 2015-01-29 富士電機株式会社 空気調和機の制御装置および空気調和機の制御方法
JP2015161425A (ja) * 2014-02-26 2015-09-07 シャープ株式会社 空気調和機
JP2016035365A (ja) 2014-08-04 2016-03-17 パナソニックIpマネジメント株式会社 環境制御装置、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3680568A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220867A (ja) * 2018-06-20 2019-12-26 ソフトバンク株式会社 環境制御装置、環境設定方法及び環境設定プログラム
CN113924039B (zh) * 2019-05-15 2023-10-27 大金工业株式会社 用于估计温热舒适性的系统
JP2020189081A (ja) * 2019-05-15 2020-11-26 ダイキン工業株式会社 温熱快適性を推定するためのシステム
CN113924039A (zh) * 2019-05-15 2022-01-11 大金工业株式会社 用于估计温热舒适性的系统
US11598680B2 (en) 2019-05-15 2023-03-07 Daikin Industries, Ltd. System for estimating thermal comfort
WO2020230895A1 (ja) * 2019-05-15 2020-11-19 ダイキン工業株式会社 温熱快適性を推定するためのシステム
CN113405241A (zh) * 2020-03-16 2021-09-17 海尔(深圳)研发有限责任公司 用于空气调节设备控制的方法、装置和空气调节设备
WO2021229690A1 (ja) * 2020-05-12 2021-11-18 三菱電機株式会社 空気調和システム
WO2021255899A1 (ja) * 2020-06-18 2021-12-23 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
US11986301B2 (en) 2020-06-18 2024-05-21 Nec Corporation Information processing device, control method, and storage medium
WO2023144931A1 (ja) * 2022-01-26 2023-08-03 日本電気株式会社 空調機制御装置、空調機制御システム、空調機制御方法及びプログラム
WO2023248496A1 (ja) * 2022-06-23 2023-12-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及びプログラム
WO2024084648A1 (ja) * 2022-10-20 2024-04-25 三菱電機株式会社 空気調和機及び空気調和方法

Also Published As

Publication number Publication date
CN111247375A (zh) 2020-06-05
JP7189855B2 (ja) 2022-12-14
JP6782744B2 (ja) 2020-11-11
JP2019215162A (ja) 2019-12-19
CN111247375B (zh) 2021-10-29
US11480359B2 (en) 2022-10-25
EP3680568B1 (en) 2024-03-27
EP3680568A4 (en) 2020-11-25
US20200333033A1 (en) 2020-10-22
EP3680568A1 (en) 2020-07-15
JP2019082312A (ja) 2019-05-30

Similar Documents

Publication Publication Date Title
WO2019087537A1 (ja) 空調制御装置
JP6387173B1 (ja) 眠気推定装置
JP2019215162A5 (ja)
JP6658822B2 (ja) 集中度推定装置
JP6340344B2 (ja) 空気調和機及び空気調和機の制御方法
EP2716988B1 (en) Air conditioning control system, air conditioning control method and program
US11248820B2 (en) Air conditioning control device to control air conditioner based on comfortable skin temperature range
JP6386950B2 (ja) 空気調和機および空気調和機の制御方法
JP6668010B2 (ja) 空調制御装置、空調制御方法、および空調制御プログラム
JP2015111019A (ja) 空調システム、空調機器制御装置、制御方法、およびプログラム
KR20210100355A (ko) 공기 조화기 및 이의 제어 방법
WO2017159632A1 (ja) 空気調和機
JP2021124246A (ja) 空調システム、および、空調機の制御方法
TWI769791B (zh) 基於人員舒適度的空調控制系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18874105

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018874105

Country of ref document: EP

Effective date: 20200407

NENP Non-entry into the national phase

Ref country code: DE