WO2017163883A1 - 空気調和機 - Google Patents

空気調和機 Download PDF

Info

Publication number
WO2017163883A1
WO2017163883A1 PCT/JP2017/009292 JP2017009292W WO2017163883A1 WO 2017163883 A1 WO2017163883 A1 WO 2017163883A1 JP 2017009292 W JP2017009292 W JP 2017009292W WO 2017163883 A1 WO2017163883 A1 WO 2017163883A1
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
unit
color
value
imaging
Prior art date
Application number
PCT/JP2017/009292
Other languages
English (en)
French (fr)
Inventor
貴宏 磯田
貴郎 上田
吉田 和正
真和 粟野
Original Assignee
日立ジョンソンコントロールズ空調株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立ジョンソンコントロールズ空調株式会社 filed Critical 日立ジョンソンコントロールズ空調株式会社
Priority to CN201780004227.5A priority Critical patent/CN108474583B/zh
Publication of WO2017163883A1 publication Critical patent/WO2017163883A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/74Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling air flow rate or air velocity
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/89Arrangement or mounting of control or safety devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Definitions

  • the present invention relates to an air conditioner that performs air conditioning.
  • Patent Literature 1 describes an air conditioner that recognizes a human face based on an imaging result of an imaging device (that is, a camera) and adjusts a wind direction toward the human.
  • Japanese Patent Laid-Open No. 2004-228688 detects the face of a room occupant based on an imaging result of an imaging means (that is, a camera), performs personal authentication based on the detection result, and performs air-conditioning control according to personal preference.
  • the air conditioner to perform is described.
  • JP 2013-137177 A Japanese Unexamined Patent Publication No. 2015-17728
  • Patent Documents 1 and 2 when a resident who has moved out of the camera's field of view returns to the camera's field of view, the occupant's face can be recognized until the occupant faces the front of the camera. Therefore, it is difficult to determine the identity of people in the room. In other words, in the technologies described in Patent Documents 1 and 2, there may be a situation where it is difficult to perform comfortable air conditioning depending on circumstances, and there is room for further comfort of air conditioning.
  • an object of the present invention is to provide an air conditioner with high comfort.
  • an air conditioner includes an imaging unit that images a room, and an occupant detection unit that detects an occupant in the room based on an imaging result of the imaging unit.
  • the occupant identification unit for identifying the occupant based on the color of the occupant's clothes detected by the occupant detection unit and / or the color of the top of the occupant; and
  • an air conditioning control unit that changes the air conditioning control based on the identification result of the occupant identification unit.
  • a highly comfortable air conditioner can be provided.
  • FIG. 1 It is a front view of the indoor unit with which the air conditioner which concerns on 1st Embodiment of this invention is equipped, an outdoor unit, and a remote control. It is explanatory drawing of the heat pump cycle with which an air conditioner is provided. It is a longitudinal cross-sectional view of the indoor unit with which an air conditioner is provided. It is a functional block diagram of the apparatus with which an indoor unit is provided. It is a flowchart of the process which the control part of an air conditioner performs. It is explanatory drawing which shows an example of the imaging result by the imaging part of an air conditioner. It is a flowchart of the feature-value extraction process which the occupant identification part of an air conditioner performs.
  • (A) is explanatory drawing regarding specification of the color of occupants 'clothes
  • (b) is explanatory drawing which shows the example of color distribution of occupants' clothes.
  • (A) is explanatory drawing regarding specification of the color of a head occupant's head part
  • (b) is explanatory drawing which shows the example of color distribution of the head part of a resident person. It is explanatory drawing regarding the other feature-value of a resident.
  • FIG. 1 is a front view of an indoor unit 100, an outdoor unit 200, and a remote controller 300 included in the air conditioner S according to the first embodiment.
  • the air conditioner S is an apparatus that performs air conditioning (cooling operation, heating operation, dehumidifying operation, etc.) by circulating a refrigerant in a heat pump cycle. As shown in FIG. 1, the air conditioner S includes an indoor unit 100, an outdoor unit 200, and a remote controller 300.
  • the indoor unit 100 includes a remote control transmission / reception unit 13 and an imaging unit 14.
  • the remote control transmission / reception unit 13 transmits and receives signals to and from the remote control 300.
  • signals such as an operation / stop command, a change in set temperature, a timer setting, and a change in operation mode are transmitted from the remote control 300 to the remote control transmitting / receiving unit 13.
  • a detected value of indoor temperature and humidity is transmitted from the remote control transmission / reception unit 13 to the remote control 300, and the above-described detection value is displayed on the remote control 300.
  • the imaging unit 14 images a room. Details of the imaging unit 14 will be described later.
  • the outdoor unit 200 includes a compressor 21 (see FIG. 2) described below, a four-way valve 22, an outdoor heat exchanger 23, an expansion valve 24, and an outdoor fan 25.
  • FIG. 2 is an explanatory diagram of a heat pump cycle provided in the air conditioner S.
  • the air conditioner S includes a compressor 21, a four-way valve 22, an outdoor heat exchanger 23, an expansion valve 24, and an indoor heat exchanger 11 that are sequentially connected in a ring shape.
  • the refrigerant circuit Q the refrigerant is circulated by a known heat pump cycle.
  • An outdoor fan 25 is installed in the vicinity of the outdoor heat exchanger 23, and an indoor fan 12 is installed in the vicinity of the indoor heat exchanger 11.
  • the indoor unit 100 and the outdoor unit 200 are connected via a communication line.
  • the motor 21a, the expansion valve 24, the outdoor fan motor 25a, and the like of the compressor 21 are driven based on a command from a main microcomputer 32 (see FIG. 4) described later.
  • FIG. 3 is a longitudinal sectional view of the indoor unit 100 included in the air conditioner S.
  • the indoor unit 100 includes an indoor heat exchanger 11, an indoor fan 12, a housing base 15 in addition to the remote control transmission / reception unit 13 (see FIG. 1) and the imaging unit 14 (see FIG. 1) described in FIG. , A dust filter 16, a front panel 17, left and right wind direction plates 18, and an up and down wind direction plate 19.
  • the indoor heat exchanger 11 is a heat exchanger that performs heat exchange between the refrigerant and room air. As shown in FIG. 3, the indoor heat exchanger 11 includes a plurality of heat transfer tubes 11a through which refrigerant flows.
  • the indoor fan 12 is, for example, a cylindrical cross flow fan, and is rotated by an indoor fan motor 12a (see FIG. 2).
  • the housing base 15 is a housing in which the indoor heat exchanger 11, the indoor fan 12, and the like are installed.
  • the dust filter 16 is a filter that removes dust from the air taken in through the air suction hole h ⁇ b> 1, and is installed on the upper and front sides of the indoor heat exchanger 11.
  • the front panel 17 is a panel installed on the front side of the dust filter 16 and is rotatable forward with the lower end as an axis. The front panel 17 may be configured not to rotate.
  • the left / right airflow direction plate 18 is a plate-like member for adjusting the flow direction of the air blown toward the air conditioning chamber in the left / right direction.
  • the left / right wind direction plate 18 is disposed on the downstream side of the indoor fan 12 and is rotated in the left / right direction by a left / right wind direction plate motor 18a (see FIG. 4).
  • the up-and-down air direction plate 19 is a plate-like member for adjusting the flow direction of the air blown toward the air conditioning chamber in the up-and-down direction.
  • the up / down wind direction plate 19 is disposed on the downstream side of the indoor fan 12 and is rotated in the up / down direction by a vertical wind direction plate motor 19a (see FIG. 4).
  • the air is guided in a predetermined direction and sent into the room through the air blowing hole h2.
  • the imaging unit 14 images the interior of the room and is installed on the housing base 15.
  • the imaging unit 14 is installed between the front panel 17 and the vertical wind direction plate 19 in the vertical direction, and is downward by a predetermined angle with respect to the horizontal direction so that the room can be appropriately imaged. It is installed with facing.
  • the installation position and installation angle of the imaging part 14 according to the specification and application of the air conditioner S.
  • FIG. 4 is a functional block diagram of devices included in the indoor unit 100.
  • the indoor unit 100 includes a control unit 3 and an environment detection unit 4 in addition to the devices such as the imaging unit 14 described above.
  • the imaging unit 14 includes an optical lens 14a, an imaging element 14b, an A / D converter 14c, and a digital signal processing unit 14d.
  • the optical lens 14a is a lens for adjusting the imaging range (field angle) and focus of the imaging unit 14.
  • the imaging element 14b is an element that generates captured image information by photoelectrically converting light incident through the optical lens 14a.
  • a CCD sensor Charge Coupled Device
  • CMOS sensor Complementary Metal Oxide Semiconductor
  • the A / D converter 14c has a function of converting an analog signal input from the image sensor 14b into a digital signal.
  • the digital signal processing unit 14d has a function of correcting the luminance and color tone of the image regarding the captured image information input from the A / D converter 14c.
  • the control unit 3 includes a camera microcomputer 31 and a main microcomputer 32.
  • the camera microcomputer 31 and the main microcomputer 32 are, for example, microcomputers, and include electronic circuits such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various interfaces (not shown). Consists of. Then, the program stored in the ROM is read out and expanded in the RAM, and the CPU executes various processes.
  • the camera microcomputer 31 includes an image processing unit 312 that performs predetermined processing based on captured image information input from the imaging unit 14, and a storage unit 311 that stores information used by the image processing unit 312. .
  • the image processing unit 312 includes an occupant detection unit 312a, an occupant identification unit 312b, an occupancy time calculation unit 312c, and a learning processing unit 312d.
  • the occupant detection unit 312a has a function of detecting occupants (human bodies) in the room based on the imaging result of the imaging unit 14.
  • the occupant identification unit 312b has a function of identifying the occupant based on the clothes color of the occupants detected by the occupant detection unit 312a, the color of the top of the head, and the like.
  • the occupancy time calculation unit 312c has a function of calculating the occupancy time of the occupant identified by the occupant identification unit 312b.
  • the learning processing unit 312d learns a user's favorite setting value during execution of the “normal mode” in which the setting value (setting temperature, etc.) is changed according to the operation of the remote controller 300 (see FIG. 1) by the user.
  • the learning process to be executed is executed.
  • the learning processing unit 312d also has a function of changing the set value based on the result of the learning process described above in the “automatic mode” that matches the preference of the occupant.
  • the processing result of the image processing unit 312 is output to the imaging unit 14 and the main microcomputer 32 as shown in FIG.
  • the storage unit 311 is configured to include a ROM that stores data relating to the occupants and a program of the image processing unit 312 and a RAM in which the above-described program is expanded.
  • the environment detection unit 4 is, for example, a temperature sensor (thermopile) that detects indoor temperature, a humidity sensor that detects indoor humidity, an illuminance sensor that detects illuminance, and the like, but is not limited thereto. Note that the illuminance detection function of the imaging unit 14 may be used instead of the illuminance sensor described above.
  • the detection value of the environment detection unit 4 is output to the main microcomputer 32.
  • the main microcomputer 32 includes a storage unit 321, an arithmetic processing unit 322, and a drive control unit 323.
  • the storage unit 321 includes a ROM that stores programs for the arithmetic processing unit 322 and the drive control unit 323, and a RAM in which the above-described programs are expanded.
  • the arithmetic processing unit 322 is based on the signal received from the remote control transmission / reception unit 13, the processing result of the image processing unit 312, and the detection value of the environment detection unit 4, the rotational speed command value of the indoor fan motor 12 a, It has a function of calculating the rotation angle command values of the wind direction plate motor 18a and the vertical wind direction plate motor 19a.
  • the arithmetic processing unit 322 also outputs data for driving the motor 21a (see FIG. 2), the expansion valve 24 (see FIG. 2), the outdoor fan motor 25a (see FIG. 2), and the like of the compressor 21 to the outdoor unit microcomputer. It also has a function of exchanging with (not shown).
  • the drive control unit 323 has a function of driving the indoor fan motor 12a, the left / right air direction plate motor 18a, and the up / down air direction plate motor 19a based on each command value input from the arithmetic processing unit 322.
  • FIG. 5 is a flowchart of processing executed by the control unit 3 of the air conditioner S (see FIG. 4 as appropriate).
  • the control unit 3 detects an occupant (human body) in the room where the indoor unit 100 is installed. More specifically, the control unit 3 specifies the position (coordinates) of the occupant's face by the occupant detection unit 312a based on the imaging result of the imaging unit 14.
  • FIG. 6 is an explanatory diagram illustrating an example of an imaging result obtained by the imaging unit 14 of the air conditioner S.
  • the occupant detection unit 312a detects the positions of the center of the faces of the occupants A and B (that is, the positions of the faces). That is, the position (X A , Y A ) of the face center r A of the occupant A and the position (X B , Y B ) of the face center r B of the occupant B are detected.
  • the occupant is detected by detecting the head and shoulders of the occupant using well-known pattern matching.
  • the detection of the occupant in step S101 in FIG. 5 includes a process of calculating the size of the head of the occupant in the imaging range (field of view) of the imaging unit 14.
  • the “size of the head” described above for example, the vertical width L fa (see FIG. 8A) of the head of the occupant can be used.
  • the information regarding the size of the head of the occupant is used when detecting the clothes and the top of the occupant as will be described later.
  • the processing result (the position of the face center of the occupant, the size of the head) in step S101 is stored in the storage unit 311.
  • step S102 of FIG. 5 the control unit 3 performs “feature amount extraction processing” for extracting the feature amount of the occupant by the occupant identification unit 312b.
  • FIG. 7 is a flowchart of the feature amount extraction process executed by the occupant identification unit 312b of the air conditioner S.
  • the occupant identification unit 312b reads out information related to the size of the head of the occupant from the storage unit 311. That is, the occupant identification unit 312b reads the value of the longitudinal width L fa (see FIG. 8A) of the occupant's head from the storage unit 311.
  • the occupant identification unit 312b identifies the lower image area U (see FIG. 8A).
  • the lower image area U is an area used for a particular color of the person in the room clothing (S1023), lower than the face center r A (i.e., the lower face of the person in the room) located Yes. That is, the area estimated to be included in the clothes of the occupant on the captured image information image is the lower image area U.
  • Fig.8 (a) is explanatory drawing regarding specification of the color of a resident's clothes.
  • FIG. 8 (a) only the lower side length L cr relative to the face center r A, rectangular lower image area U is set. Based on the color of the lower image area U, the color of clothes of the occupants can be specified.
  • the length L fa shown in FIG. 8A is the vertical width (number of pixels) of the head of the occupant on the image of the captured image information.
  • the distance L cr is the distance between the center r U of occupants face center r A and the lower image area U (number of pixels).
  • the occupant identification unit 312b determines that the distance L cr (see FIG. 8A) increases as the longitudinal width L fa (see FIG. 8A) of the occupant's head in the imaging range increases. ) Is set longer and the lower image area U is preferably set wider. In other words, the occupant identification unit 312b preferably changes the range of the lower image area U according to the size of the head of the occupant in the imaging range. Accordingly, even when the occupant is near the imaging unit 14 or when the occupant is relatively away from the imaging unit 14, the lower image area U is set to an appropriate range, The color of the person's clothes can be specified.
  • the occupant identification unit 312b identifies the color of the occupant's clothes.
  • the occupant identification unit 312b specifies the color (tone) of each pixel included in the lower image area U illustrated in FIG.
  • the above-mentioned “color feature amount” is a feature amount used for specifying a color, and is represented, for example, as a known color space vector composed of three components of hue, saturation, and brightness.
  • FIG. 8B is an explanatory diagram illustrating an example of the color distribution of clothes of people in the room.
  • the horizontal axis in FIG. 8B is the color classification in the color space described above.
  • the color space used for specifying the color of clothes is divided into four color sections of white, red, blue, and black. Note that even if the lower image area U includes the neck of the occupant (that is, the color of the skin), the colors shown in FIG. 8B are not to be confused with clothes.
  • the skin color is removed from the category.
  • the vertical axis in FIG. 8B is the ratio of the number of pixels of the color included in each color classification to the total number of pixels in the lower image area U.
  • the occupant A is wearing white and black striped clothes. Therefore, as shown in FIG. 8B, white and black pixels occupy most in the lower image area U. There are some red and blue pixels, but since the ratio is less than the threshold value a, it is processed (ignored) as noise.
  • the occupant identification unit 312b specifies the color classification to which the color of the pixel belongs for each pixel included in the lower image area U.
  • the distribution of the number of pixels in each color category is digitized as information representing the color of clothes of the occupants and is used for identification of the occupants.
  • the color of the clothes (the distribution of the number of pixels of each color) can be appropriately specified.
  • colors having a ratio equal to or greater than the threshold value a may be ranked in descending order of the number of pixels, and the ranking information may be digitized as the clothes color of the occupants.
  • the occupant identification unit 312b identifies the upper image region P (see FIG. 9A) in step S1024.
  • the upper image area P is an area used for a particular (S1025) of color of the top of the head of the occupants, are located on the upper side (i.e., the upper face of the person in the room) than the face center r A . That is, on the image of the captured image information, the area estimated to be included in the top of the occupant is the upper image area P.
  • Fig.9 (a) is explanatory drawing regarding specification of the color of the head part of a resident.
  • the upper by a length L he based on the face center r A, rectangular upper image region P is set. Based on the color of the upper image area P, the color of the head of the occupant can be specified.
  • the distance L he shown in FIG. 9 is the distance between the center r P of the face center r A and the upper image area P of the occupants (number of pixels).
  • the occupant identification unit 312b causes the distance L he (see FIG. 9A) to increase as the longitudinal width L fa (see FIG. 9A) of the occupant's head on the image increases. ) Is set long, and the range of the upper image area P is preferably set wide. In other words, the occupant identification unit 312b preferably changes the range of the upper image area P according to the size of the head of the occupant in the imaging range. Accordingly, even when the occupant is near the imaging unit 14 or when the occupant is relatively away from the imaging unit 14, the upper image area P is set to an appropriate range, and the occupant is The color of the top of the head can be specified.
  • the occupant identification unit 312b identifies the color of the head of the occupant.
  • the occupant identification unit 312b specifies the color (tone) of each pixel included in the upper image area P illustrated in FIG.
  • FIG. 9B is an explanatory diagram illustrating an example of the color distribution of the top of the occupant.
  • the horizontal axis in FIG. 9B is the color classification of colors in the color space described above.
  • the color space used for specifying the color of the top of the head is divided into five color categories of skin color (skin color), red, blue, gray, and black.
  • the vertical axis in FIG. 9B is the ratio of the number of pixels of the color included in each color classification to the total number of pixels in the upper image area P.
  • the skin of the top of the head may be exposed depending on the hairstyle and the amount of hair of the occupants, so skin color is included as the color classification.
  • gray is also included as the color classification.
  • the occupant identification unit 312b treats red / blue whose ratio is less than the threshold a as noise, and determines skin color / gray / black. It is specified as a color included in the upper image area P.
  • the distribution of the number of pixels in each color classification is digitized as information representing the color of the head of the occupant and is used to identify the occupant.
  • colors having a ratio equal to or greater than the threshold value a may be ranked in descending order of the number of pixels, and the ranked information may be digitized as the color of the head of the occupant.
  • the color feature amount including the color of the occupant's clothes and the color of the head of the occupant is stored in the storage unit 311.
  • the occupant identification unit 312b After identifying the color of the head of the occupant in step S1025, the occupant identification unit 312b extracts other feature amounts of the occupant in step S1026.
  • FIG. 10 is an explanatory diagram relating to another feature amount of the occupant.
  • the occupant identification unit 312b specifies, for example, at least one of the following (a) to (f) as the “other feature amount” of the occupant.
  • the skin color of the occupant's face is represented, for example, by digitizing the skin color included in the occupant's face area as a vector in the color space described above.
  • the shape of the head of the occupant is, for example, the ratio of the head width L fa (number of pixels) to the width L be (number of pixels) of the occupant's head (L fa / L be ).
  • the occupant's body shape is represented, for example, by the ratio (L ti / L be ) of the shoulder width L ti to the lateral width L be of the occupant's head.
  • the color of the skin of the occupants' face is also included in the aforementioned “color feature amount”.
  • the above (b) to (f) are referred to as “shape feature amounts” representing the shape of the occupants.
  • the occupant identification unit 312b extracts the color of the occupant's clothes (S1023: see FIG. 7), the color of the top of the head (S1025), and other features (S1026).
  • the feature amount extraction process (S102: see FIG. 5) is terminated (END).
  • the control unit 3 executes the occupant identification process by the occupant identification unit 312b.
  • FIG. 11 is a flowchart of the occupant identification process executed by the occupant identification unit 312b of the air conditioner S.
  • the occupant identification unit 312b specifies one of the occupants detected in step S101 (see FIG. 5).
  • the occupant identification unit 312b compares the detected value of the feature amount of the occupant designated in step S1031 with the registered value of the feature amount of each person already registered in the storage unit 311.
  • the value of the evaluation function f is calculated.
  • the above-described evaluation function f is a function used for identifying a resident, and is expressed by the following (Equation 1).
  • the detection values c1, c2,..., Cn ('c' represents color) in (Equation 1) are “color features” obtained by the feature amount extraction processing in step S102 (see FIG. 5). This is a detected value of “amount”.
  • the detection value c1 is a detection value of the color of clothes of the occupants
  • the detection value c2 is a detection value of the color of the top of the head.
  • the registered values C1, C2,..., Cn in (Equation 1) are the registered values of the “color feature amount” described above, and are associated with the occupants identified in the past, and the storage unit 311 (see FIG. 4). It is registered in.
  • the registered value C1 is a registered value of the color of clothes of a certain occupant
  • the registered value C2 is a registered value of the color of the top of the occupant.
  • the color weight coefficient wc1 in (Equation 1) is a coefficient to be multiplied by
  • the detected values s1, s2,..., Sm (where “s” represents shape) in (Equation 1) are “shape features” obtained by the feature amount extraction processing in step S102 (see FIG. 5). This is a detected value of “amount”.
  • the detection value s1 is a detection value of the shape of the head of the occupant
  • the detection value s2 is a detection value of the body type.
  • the registered values S1, S2,..., Sm in (Equation 1) are registered values of the “shape feature amount” described above, and are associated with the occupants identified in the past, and the storage unit 311 (see FIG. 4). It is registered in.
  • the registered value S1 is a registered value of the shape of the head of a certain occupant
  • the registered value C2 is a registered value of the occupant's body shape.
  • the shape weight coefficient ws1 is a coefficient to be multiplied by
  • FIG. 12 is a data table of each feature amount registered in the storage unit 311. Note that “A” given to the registered values C1, C2, C3, S1, S2, and S3 represents a registered value relating to the occupant A (the same applies to the other occupants B and C). . These registered values are registered in the storage unit 311 based on the result of the occupant identification process performed in the past.
  • Form 1 can also be expressed by the following (Formula 2).
  • k and j shown in (Expression 2) are arbitrary natural numbers.
  • the occupant identification unit 312b adds the color weight coefficient wck to the absolute value
  • represents a comparison result between the color feature value detection value ck and the color feature value registration value Ck.
  • the occupant identification unit 312b also calculates a value obtained by multiplying the absolute value
  • is calculated by adding the shape feature amounts of the two.
  • represents a comparison result between the shape feature value detection value sj and the shape feature value registration value Sj.
  • the occupant identification unit 312b calculates the sum of the first addition value ⁇ wck
  • step S1033 in FIG. 11 the occupant identification unit 312b determines whether there is a person whose value of the evaluation function f is less than the predetermined threshold f1 among the persons registered in the storage unit 311. When there is a person whose evaluation function f is less than the predetermined threshold f1 (S1033: Yes), the occupant identification unit 312b proceeds to step S1034.
  • step S1034 the occupant identification unit 312b determines that the occupant detected in step S101 (see FIG. 5) is the same as the person identified in step S1033. In addition, when there are a plurality of people whose evaluation function f is less than the predetermined threshold f1, it is only necessary to specify the person whose evaluation function f is the smallest.
  • step S1035 the occupant identification unit 312b updates the feature amount of the occupant.
  • the occupant identification unit 312b associates the detected value of the feature amount obtained in step S102 (see FIG. 5) with the identification information of the occupant as a new registered value of the feature amount in the storage unit 311. Store.
  • step S1033 when there is no person whose evaluation function f is less than the predetermined threshold f1 (S1033: No), the occupant identification unit 312b proceeds to step S1036.
  • step S1036 the occupant identification unit 312b determines that the occupant detected in step S101 is a new occupant who has not yet been registered in the storage unit 311.
  • step S1037 the detected value of the feature value obtained in step S102 (see FIG. 5) is registered in the storage unit 311 as the registered value of the feature value of the new occupant in association with the resident identification information. .
  • step S1035 or step S1037 the process by the occupant identification unit 312b proceeds to step S1038.
  • step S1038 the occupant identification unit 312b determines whether or not all of the occupants detected in step S101 (see FIG. 5) have been identified. When all the detected occupants are identified (S1038: Yes), the occupant identifying unit 312b ends the process (END).
  • step S101 if there is an occupant who has not yet been identified among the occupants detected in step S101 (see FIG. 5) (S1038: No), the occupant identification unit 312b returns to step S1031.
  • the occupant identification unit 312b specifies other occupants who have not been identified among the occupants detected in step S101.
  • the occupant identification unit 312b executes the occupant identification process (S103: see FIG. 5).
  • the control unit 3 calculates the occupancy time of each occupant by the occupancy time calculation unit 312c. That is, when the occupant identified by the occupant identification unit 312b is already registered in the storage unit 311, the occupancy time calculation unit 312c counts the occupant's occupancy time by one. In addition, the occupancy time calculation unit 312c determines that the person who has been registered in the storage unit 311 cannot go within a predetermined time (for example, 30 minutes), and assumes that the occupancy time has gone out to zero. Reset to.
  • a predetermined time for example, 30 minutes
  • FIG. 13 is an explanatory diagram regarding the occupancy time of each occupant.
  • the horizontal axis in FIG. 13 is time.
  • the ⁇ mark in FIG. 13 represents the time when the occupant is identified by the occupant identification unit 312b.
  • the predetermined time ⁇ t (for example, 30 minutes) is a time serving as a criterion for determining whether or not there is no occupant from the room in which the indoor unit 100 is installed.
  • the occupant A is detected (identified) at least once in each of the predetermined time ⁇ t included in the time t1 to the time t8. Therefore, the occupancy time of the occupant A at the current time t8 is calculated as ⁇ t ⁇ 7.
  • the occupant B is not detected after time t6. Therefore, it is reset as “zero occupancy time” at time t7 when a predetermined time ⁇ t has elapsed from time t6.
  • the occupant C who has gone out at time t2 and returned to the room at time t4 newly calculates the occupancy time from time t4.
  • step S105 the control unit 3 controls the air conditioning by the arithmetic processing unit 322 (see FIG. 4) and the drive control unit 323 (see FIG. 4). Execute the change process.
  • the “air conditioning control unit” that changes the air conditioning control based on the identification result of the occupant identification unit 312b includes the arithmetic processing unit 322 and the drive control unit 323 shown in FIG.
  • FIG. 14 is a flowchart of the air conditioning control change process executed by the control unit 3 of the air conditioner S.
  • the control unit 3 orders the length of the occupancy time of each occupant. For example, in the example shown in FIG. 13, the occupancy time of the occupant A at the current time t8 is ( ⁇ t ⁇ 7), the occupancy time of the occupant B is zero, and the occupant C's occupancy The time is ( ⁇ t ⁇ 4). Therefore, in step S1051, the control unit 3 performs the ordering that the occupancy time is the longest in the occupant A and then the occupants C and B in the order.
  • step S1052 the control unit 3 performs air conditioning control based on the length of time in the room.
  • the control unit 3 controls the left and right wind direction plate motor 18a (see FIG. 4) and the up and down wind direction plate motor 19a (see FIG. 4) so that air of a predetermined temperature and humidity is sent to the occupant C with priority.
  • the control unit 3 sends the air-conditioned air longer to the occupant C whose occupancy time is relatively shorter than the other occupants A.
  • the occupant can be identified based on the clothes color of the occupant, the color of the top of the head, and the like. Therefore, the identification accuracy of the occupants can be improved as compared with the conventional technique for identifying the occupants only by the face. For example, according to the present embodiment, even if the occupant is facing backward with respect to the imaging unit 14 or the occupant's face is difficult to identify due to backlight, Based on this, the occupants can be properly identified. Further, for example, even when the room where the indoor unit 100 is installed is relatively wide and the occupant moves in and out of the field of view of the imaging unit 14, the room occupant immediately enters the field of view of the imaging unit 14. The person in the room can be appropriately identified based on the color of the room.
  • the imaging unit 14 when the occupant's position is relatively far from the imaging unit 14, it is rare that the occupant's face can be clearly imaged (that is, face authentication is difficult). Even in such a case, the occupant can be appropriately identified based on the color of the clothes. Further, since it is not necessary to use a high-resolution camera as the imaging unit 14 in order to capture the face of the occupant more clearly, the manufacturing cost is not increased.
  • predetermined color classifications (FIG. 8B and FIG. )) Is set, and the occupants are identified based on the distribution of the number of pixels in the color classification. Accordingly, the occupants can be identified with high accuracy based on the clothes pattern of the occupants and the color of the hair.
  • the air conditioning control is changed based on the occupant's occupancy time. For example, warm air or cold air is intensively sent toward the occupants immediately after entering the room. Therefore, the comfort of air conditioning for each occupant can be enhanced as compared with the conventional case.
  • Second Embodiment is different from the first embodiment in that a weight coefficient correction unit 312e (see FIG. 15) is added to the configuration described in the first embodiment (see FIG. 4). This is the same as in the first embodiment. Therefore, a different part from 1st Embodiment is demonstrated and description is abbreviate
  • FIG. 15 is a functional block diagram of devices included in the indoor unit 100 of the air conditioner S according to the second embodiment.
  • the image processing unit 312A includes an occupant detection unit 312a, an occupant identification unit 312b, an occupancy time calculation unit 312c, a learning processing unit 312d, a weighting coefficient correction unit 312e, It has.
  • the weighting coefficient correction unit 312e makes the shape weighting coefficient wsj relatively larger than the color weighting coefficient wck as the change amount of the color or brightness (environment detection value) in the imaging range of the imaging unit 14 in a predetermined time is larger. It has a function.
  • the color weight coefficient wck and the shape weight coefficient wsj are as described in the first embodiment.
  • FIG. 16 is a flowchart illustrating processing executed by the control unit 3 of the air conditioner S according to the second embodiment. After the occupant is detected in step S101 and the feature amount extraction process is performed in step S102, the process of the control unit 3 proceeds to step S201.
  • step S201 the control unit 3 calculates the amount of change in the environment detection value.
  • the control unit 3 uses the absolute value of the difference between the current color (or brightness) in the imaging range of the imaging unit 14 and the color (or brightness) before a predetermined time as the change amount of the environment detection value.
  • the color in the imaging range of the imaging unit 14 is obtained, for example, by converting the color of each pixel included in the imaging range into a vector in the color space and calculating the centroid of a plurality of vectors corresponding to each pixel.
  • the detection value of the environment detection unit 4 (for example, illuminance sensor: see FIG. 15) may be used.
  • step S202 the control unit 3 uses the weight coefficient correction unit 312e to change the size of the color weight coefficient wck and the shape weight coefficient wsj of the evaluation function f. That is, the control unit 3 makes the shape weight coefficient wsj relatively larger than the color weight coefficient wck as the change amount of the environment detection value (color or brightness) in a predetermined time is larger.
  • FIG. 17 is an explanatory diagram showing the relationship between the change amount of the environment detection value and the magnitude of the weighting coefficient.
  • the horizontal axis in FIG. 17 represents the amount of change in the environment detection value. That is, the horizontal axis is the absolute value of the difference between the current environment detection value and the previous environment detection value.
  • the vertical axis in FIG. 17 represents the weighting coefficients (color weighting coefficient wck and shape weighting coefficient wsj) described in the first embodiment.
  • 'wck' indicated by a broken line is a color weighting coefficient relating to a color feature amount, and represents any of the color weighting coefficients wc1, wc2, ..., wcn described in the first embodiment.
  • wsj indicated by a solid line is a shape weighting coefficient related to the shape feature amount, and represents any one of the shape weighting coefficients ws1, ws2,..., Wsm described in the first embodiment. Note that the relationship between the amount of change in the environmental detection value shown in FIG. 17 and each weighting factor is stored in advance in the storage unit 311 (see FIG. 15).
  • the weighting coefficient correction unit 312e places weight on the shape feature amount having higher reliability than the color feature amount.
  • the weighting factor correction unit 312e makes the color weighting factor wck relatively larger than the shape weighting factor wsj. That is, the weighting coefficient correction unit 312e places weights on shape feature quantities that are more reliable than color feature quantities. Accordingly, it is possible to continue to accurately identify the occupant based on the clothes color of the occupant, the color of the top of the head, and the like.
  • control unit 3 After changing the magnitude of the weighting coefficient of the evaluation function f (S202: see FIG. 16), the control unit 3 performs the occupant identification process using this weighting coefficient (S103: see FIG. 16). . Note that steps S103 to S105 in FIG. 16 are the same as those in the first embodiment, and a description thereof will be omitted.
  • the weighting factors wck and wsj are changed so that the shape feature amount is more important than the color feature amount as the change amount of the environment detection value is larger. This makes it possible to appropriately identify the occupants even when the lighting is turned on / off, or when the type of lighting used is changed, and as a result, comfortable air conditioning for the occupants can be continued.
  • the third embodiment is different from the second embodiment in that the weighting coefficient of the evaluation function f is changed based on the change in the position of the occupant instead of the change in the environment detection value. Is the same as in the second embodiment. Therefore, a different part from 2nd Embodiment is demonstrated and description is abbreviate
  • FIG. 18 is a flowchart illustrating processing executed by the control unit 3 of the air conditioner S according to the third embodiment.
  • the processing of the control unit 3 proceeds to step S301.
  • the control unit 3 calculates the amount of change in the position of the occupant. That is, the control unit 3 calculates the amount of change in the position of the occupant based on the current position (coordinates) of the occupant and the position (coordinates) of the occupant identified last time.
  • step S301 the control unit 3 determines the amount of change in the position based on the position of the occupant detected at the current time and the position of the occupant detected and identified last time (for example, several seconds ago). The smallest one may be used in step S301.
  • step S302 the control unit 3 causes the weighting factor correction unit 312e to change the size of the color weighting factor wck and the shape weighting factor wsj of the evaluation function f. That is, the control unit 3 makes the color weight coefficient wck relatively larger than the shape weight coefficient wsj as the amount of change in the position of the occupant in the predetermined time detected by the occupant detection unit 312a is larger.
  • FIG. 19 is an explanatory diagram showing the relationship between the amount of change in the position of the occupant and the magnitude of the weighting coefficient. Note that the horizontal axis in FIG. 19 is the amount of change in the occupant's position, and the vertical axis is the weighting coefficient (color weighting coefficient wck and shape weighting coefficient wsj) described in the first embodiment. Further, the relationship between the change amount of the position shown in FIG. 19 and each weight coefficient is stored in the storage unit 311 in advance.
  • the weight coefficient correction unit 312e assigns a weight to the color feature amount that is more reliable than the shape feature amount.
  • the weighting coefficient correction unit 312e gives weight to the shape feature amount having higher reliability than the color feature amount.
  • the weighting factors wck and wsj may be set so that the mathematical formula (3) described in the second embodiment is satisfied so that when one of the weighting factors wck and wsj is high, the other is low.
  • control unit 3 changes the magnitude of the weighting coefficient of the evaluation function f (S302: see FIG. 18), and then performs occupant identification processing using this weighting coefficient (S103). Note that steps S103 to S105 in FIG. 18 are the same as those in the first embodiment, and thus description thereof is omitted.
  • the weighting factors wck and wsj are changed so that the color feature amount is more important than the shape feature amount as the occupant position change amount is larger. Accordingly, even when the occupant moves around in the room or even when the occupant hardly moves, the occupant can be appropriately identified, and as a result, air conditioning comfortable for the occupant can be performed.
  • the fourth embodiment is different from the first embodiment in that it learns a set temperature or the like of the occupants, but is otherwise the same as the first embodiment (see FIG. 4). Therefore, a different part from 1st Embodiment is demonstrated and description is abbreviate
  • FIG. 20 is a flowchart illustrating processing executed by the control unit 3 of the air conditioner S according to the fourth embodiment.
  • step S101 a room occupant is detected, a feature amount extraction process is performed in step S102, and a room occupant identification process is performed in step S103. Then, the process of the control unit 3 proceeds to step S401.
  • step S401 the control unit 3 determines whether or not the current operation mode is the “automatic mode” by the learning processing unit 312d.
  • the “automatic mode” described above does not perform a set value including at least one of set temperature, set humidity, wind direction, and air volume in accordance with the operation of the remote control 300 (see FIG. 1) of the occupant.
  • the operation mode is changed by the control unit 3 according to the preference of the resident who has been learned in advance.
  • step S401 when the current operation mode is not the “automatic mode” (S401: No), the process of the control unit 3 proceeds to step S402. That is, when the current operation mode is the “normal mode”, the process of the control unit 3 proceeds to step S402.
  • step S402 the control unit 3 uses the learning processing unit 312d to execute a learning process for learning a preset temperature or the like of the occupant. That is, the control unit 3 learns the set temperature and the like of the occupant based on the occupant identified in step S103 and the set temperature at that time. For example, when the occupant A sets the set temperature to 21 ° C. during the heating operation, the control unit 3 learns this temperature as the preferred set temperature of the occupant A and identifies the occupant A. The information is stored in the storage unit 311 in association with the information.
  • step S403 the control unit 3 executes normal air conditioning control. That is, the control unit 3 controls each device based on the temperature set by operating the remote controller 300.
  • step S402 If the current operation mode is “auto mode” in step S402 (S401: Yes), the process of the control unit 3 proceeds to step S404.
  • step S ⁇ b> 404 the control unit 3 reads the learning result from the storage unit 311.
  • step S405 the control unit 3 executes air conditioning control according to the preference of the occupant based on the learning result read in step S404. That is, the control unit 3 changes at least one set value among the set temperature, the set humidity, the wind direction, and the air volume based on the learning process in step S402, and performs the air conditioning control using the set value after the change. Execute.
  • the control unit 3 selects the preference of the occupant A
  • the air-conditioning control is performed by setting 19.5 ° C., which is an average value of 21 ° C. and 18 ° C. preferred by the occupant B, as a set temperature. Thereby, comfortable air conditioning can be performed for both the occupants A and B.
  • the occupant A is set so that the wind is intensively applied to the occupant, and the occupant B is in direct contact with the wind at another time period.
  • the control unit 3 After learning these wind directions (S402), while the entrusted mode is being executed (S401: Yes), when the occupants A and B are in the room, the control unit 3 focuses on the occupant A. To send wind. Thereby, comfortable air conditioning can be performed for both the occupants A and B.
  • the air conditioning control according to the occupant's preference is performed. It can be carried out. Further, coupled with being able to appropriately identify the occupant based on the color of the occupant's clothes and the color of the top of the head (S103: see FIG. 20), the comfort of the air conditioning can be further enhanced than in the first embodiment. it can.
  • the fifth embodiment is different from the fourth embodiment in that an average value of a registered value of the current feature value and a detected value of the current feature value is used as a registered value of the feature value to be used next time.
  • the rest is the same as in the fourth embodiment. Therefore, a different part from 4th Embodiment is demonstrated and description is abbreviate
  • FIG. 21A is a data table stored in the storage unit 311 of the air conditioner S according to the fifth embodiment, and shows registered values of feature values at the present time.
  • the registered value C1A of the clothing color, the registered value C2A of the color of the top of the head, and the like are stored in the storage unit 311 as the feature amounts of the occupant A at the current time.
  • FIG. 21B is a data table showing detected values of feature values at the current time.
  • clothes color detection value c1A, crown color detection value c2A, and the like are stored in the storage unit 311 as detection values of each feature amount of the occupant A at the present time. ing.
  • FIG. 21C is a data table showing registered values of feature amounts to be used next time.
  • the control unit 3 includes a registered value of the current feature value (see FIG. 21 (a)) and a detected value of the current feature value (see FIG. 21 (b)).
  • the average value is used as a registered value of the feature amount to be used next time.
  • the control unit 3 uses the average value of the current clothing color registration value C1A and the current clothing color detection value c1A as the registered value of the clothing color of the occupant A to be used next time. (Ca1 + ca1) / 2 is used. The same applies to other feature amounts, and the same applies to other occupants.
  • FIG. 22 is an explanatory diagram showing changes in the registered value of the feature value at the present time, the detected value of the feature value at the current time, and the registered value of the feature value to be used next time.
  • the horizontal axis of FIG. 22 is time.
  • the vertical axis represents the feature amount indicating the color of clothes of the occupant A.
  • is a registered value of the feature value at the present time
  • is a detected value of the feature value at the current time
  • is a registered value of the feature value to be used next time.
  • the detected value ( ⁇ mark) of the clothes color of the occupant A greatly fluctuates from time t3 to t5. For example, if the occupant A turns on / off the lighting, or turns on a different type of lighting fixture, the detected value of the color of the occupant A's clothes greatly fluctuates accordingly. .
  • the average value (C1A + c1A) / 2 is used as the registered value of the feature amount used next time (that is, actually used for identifying the occupant A).
  • the fluctuation of the average value indicated by ⁇ can be moderated. That is, it can suppress that the registration value of a feature-value changes rapidly.
  • the process using the average value (C1A + c1A) / 2 as a new registration value is repeated every predetermined time ⁇ t ⁇ . Then, the occupant is identified using the new registered value, and the series of processes (see FIG. 20) described in the fourth embodiment is executed based on the identification result.
  • the registered value may be updated only for the color feature amount and not for the shape feature amount. This is because even if the color or brightness of the light incident on the room changes, the detected value of the shape feature amount hardly changes.
  • ⁇ Effect> it is possible to continue to properly identify the occupants even when the lighting fixtures are turned on / off and the amount of solar radiation changes over time (sunny weather, sunset, cloudiness, etc.). Further, even when the camera has a function of automatic correction such as brightness, fluctuations in the feature amount due to this automatic correction can be suppressed. Therefore, it is possible to identify the occupants with high accuracy and to continue comfortable air conditioning.
  • the pose of the occupant may be added as a feature amount for identifying the occupant.
  • FIG. 23A is an explanatory diagram regarding the posture when the occupant is standing.
  • the feature amount representing the posture of the occupant is, for example, the distance L p (number of pixels) between the occupant's face center r C and the body center r D , the occupant's body center r D, and the foot position r. It is represented by the sum (L q + L p ) of the distance L q (number of pixels) from F.
  • FIG. 23B is an explanatory diagram regarding the posture when the occupant is sitting. Posture occupants are seated, as compared to the standing posture (see FIG. 23 (a)), the distance L q and the position r F of the occupants of the core body r D and feet is shortened. As a result, the sum (L q + L p ) when the occupant is sitting is smaller than the sum (L q + L p ) when the occupant is standing. Thus, the magnitude of the sum (L q + L p ) changes as the occupant's posture changes. As described above, the sum (L q + L p ) can be used as the feature amount representing the posture of the occupant. Note that the ratio (L p / L q ) may be used instead of the above-described sum (L q + L p ), or other known methods for specifying the posture may be used.
  • the color weight coefficient wck is set to be relatively larger than the shape weight coefficient wsj as the amount of change in the posture of the occupant for a predetermined time is larger. Also good. Thereby, even when the occupant moves around in the room, the occupant can be appropriately identified.
  • the occupant may be identified based on the color of the occupant's clothes detected by the occupant detection unit 312a and the color of the head of the occupant. Further, the occupant may be identified based on the color of the occupant's clothes detected by the occupant detection unit 312a or the color of the top of the occupant.
  • the occupant identification unit 312b is detected by the occupant detection unit 312a.
  • the occupants are identified based on the detected color feature value and the registered color feature value stored in the storage unit 311. Even if it does in this way, a person in a room can be distinguished appropriately based on the color of clothes and the color of the head. Also, the color of the clothes and / or the color of the top of the head, the color of the skin of the occupants, the shape of the head, the body shape, the size of the eyes, the distance between the eyes, the lateral width of the lips, the amount of movement, the posture, the height, The occupant may be identified based on at least one of the length of the hand / foot and the voice.
  • the learning process (S402: see FIG. 20) described in the fourth embodiment is executed, and the detected value after the change is detected in accordance with the change in the detected value of the color or brightness in the imaging range of the imaging unit 14.
  • the registered value of the color feature amount may be changed so as to approach
  • the occupant identification unit 312b identifies the occupant using the registered color feature value after the change by the learning processing unit 312d.
  • the learning processing unit 312d changes the registered value of the feature value of the color to be used next time (that is, actually used for identifying the occupant) to the red system.
  • the registered value of each person's feature value stored in the storage unit 311 may be reset every predetermined time (for example, one day), and the reset time may be set to a different length for each feature value. It may be set. For example, the color of the clothes may be reset every day in consideration of the time until the occupant changes clothes, and the time until the hair color or body shape is reset may be set longer. . Further, for example, the registered value of the color feature value at a predetermined time until now is stored in the storage unit 311, and the registered value of the color feature value before the predetermined time described above in consideration of the storage capacity of the storage unit 311 and the like. May be deleted from the storage unit 311. That is, the occupant identification unit 312b is based on the color feature value detected by the occupant detection unit 312a and the registered color feature value stored in the storage unit 311 up to a predetermined time. The occupants may be identified.
  • the occupant identification unit 312b is based on the color feature value detected by the occupant detection unit 312a and
  • the color division (see FIG. 8B) of each pixel included in the lower image area U is specified, and based on the distribution of the number of pixels in each color division.
  • the present invention is not limited to this.
  • the color of each pixel included in the lower image area U is converted into a vector on the color space, and the clothes color is represented by the centroid of a plurality of vectors corresponding to the pixel color. It may be. The same applies to the color of the top of the head.
  • the size of the weighting coefficient is changed based on the amount of change in the occupant position (S301, S302: See FIG. 18)
  • the processing has been described but is not limited thereto. That is, after the occupant identification process is performed, the weighting coefficient may be changed based on the amount of change in the position of the occupant, and the changed weighting coefficient may be used for the next identification.
  • the embodiments can be combined as appropriate.
  • the first embodiment and the fifth embodiment are combined to perform the process of sequentially updating the registered value of the feature value (see FIGS. 21 and 22) and to perform the air conditioning control based on the length of time in the room.
  • the first embodiment and the fifth embodiment are combined to perform the process of sequentially updating the registered value of the feature value (see FIGS. 21 and 22) and to perform the air conditioning control based on the length of time in the room.
  • FIG. 21 and 22 see FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Fluid Mechanics (AREA)
  • Air Conditioning Control Device (AREA)

Abstract

快適性の高い空気調和機を提供する。空気調和機(S)は、室内を撮像する撮像部(14)と、撮像部(14)の撮像結果に基づいて、室内の在室者を検出する在室者検出部(312a)と、在室者検出部(312a)によって検出される在室者の服の色、及び/又は、在室者の頭頂部の色に基づいて、在室者の識別を行う在室者識別部(312b)と、在室者識別部(312b)の識別結果に基づいて、空調制御を変更する駆動制御部(323)と、を備える。

Description

空気調和機
 本発明は、空調を行う空気調和機に関する。
 カメラの撮像結果に基づいて在室者を認識し、その認識結果に基づいて空調制御を行う空気調和機が知られている。例えば、特許文献1には、撮像装置(つまり、カメラ)の撮像結果に基づいて人間の顔を認識し、この人間に向けて風向を調整する空気調和機について記載されている。
 また、特許文献2には、撮像手段(つまり、カメラ)の撮像結果に基づいて在室者の顔を検出し、その検出結果に基づいて個人認証を行い、個人の嗜好に合わせた空調制御を行う空気調和機について記載されている。
特開2013-137177号公報 特開2015-17728号公報
 一般に、カメラに比較的近い位置にいる在室者を正面から撮像しなければ、在室者の顔を鮮明に撮像できないことが多い。特許文献1,2に記載の技術では、前記したように、在室者の顔を認識しているため、カメラから比較的遠い位置にいる在室者については、その顔を認識できない可能性が高い。
 また、特許文献1,2において、カメラの視野外に移動した在室者がカメラの視野内に戻ってきた場合、この在室者がカメラの正面を向くまでは在室者の顔を認識できず、在室者の同一性を判別しにくい。つまり、特許文献1,2に記載の技術では、場合によっては、快適な空調を行いにくい状況が生じ得るため、空調のさらなる快適化を図る余地がある。
 そこで、本発明は、快適性の高い空気調和機を提供することを課題とする。
 前記課題を解決するために、本発明に係る空気調和機は、室内を撮像する撮像部と、前記撮像部の撮像結果に基づいて、前記室内の在室者を検出する在室者検出部と、前記在室者検出部によって検出される在室者の服の色、及び/又は、在室者の頭頂部の色に基づいて、在室者の識別を行う在室者識別部と、前記在室者識別部の識別結果に基づいて、空調制御を変更する空調制御部と、を備えることを特徴とするを特徴とする。
 本発明によれば、快適性の高い空気調和機を提供できる。
本発明の第1実施形態に係る空気調和機が備える室内機、室外機、及びリモコンの正面図である。 空気調和機が備えるヒートポンプサイクルの説明図である。 空気調和機が備える室内機の縦断面図である。 室内機が備える機器の機能ブロック図である。 空気調和機の制御部が実行する処理のフローチャートである。 空気調和機の撮像部による撮像結果の一例を示す説明図である。 空気調和機の在室者識別部が実行する特徴量抽出処理のフローチャートである。 (a)は在室者の服の色の特定に関する説明図であり、(b)は在室者の服の色分布の例を示す説明図である。 (a)は在室者の頭頂部の色の特定に関する説明図であり、(b)は在室者の頭頂部の色分布の例を示す説明図である。 在室者の他の特徴量に関する説明図である。 空気調和機の在室者識別部が実行する在室者識別処理のフローチャートである。 記憶部に登録されている各特徴量のデータテーブルである。 各在室者の在室時間に関する説明図である。 空気調和機の制御部が実行する空調制御変更処理のフローチャートである。 本発明の第2実施形態に係る空気調和機の室内機が備える機器の機能ブロック図である。 空気調和機の制御部が実行する処理を示すフローチャートである。 環境検出値の変化量と、重み係数の大きさと、の関係を示す説明図である。 本発明の第3実施形態に係る空気調和機の制御部が実行する処理を示すフローチャートである。 在室者の位置の変化量と、重み係数の大きさと、の関係を示す説明図である。 本発明の第4実施形態に係る空気調和機の制御部が実行する処理を示すフローチャートである。 本発明の第5実施形態に係る空気調和機の記憶部に記憶されているデータテーブルであり、(a)は現時点における特徴量の登録値であり、(b)は現時点における特徴量の検出値であり、(c)は次回に用いる特徴量の登録値である。 現時点における特徴量の登録値、現時点における特徴量の検出値、及び、次回に用いる特徴量の登録値の変化を示す説明図である。 本発明の変形例の説明図であり、(a)は在室者が立っているときの姿勢に関する説明図であり、(b)は在室者が座っているときの姿勢に関する説明図である。
≪第1実施形態≫
<空気調和機の構成>
 図1は、第1実施形態に係る空気調和機Sが備える室内機100、室外機200、及びリモコン300の正面図である。
 空気調和機Sは、ヒートポンプサイクルで冷媒を循環させることによって空調(冷房運転、暖房運転、除湿運転等)を行う機器である。図1に示すように、空気調和機Sは、室内機100と、室外機200と、リモコン300と、を備えている。
 室内機100は、リモコン送受信部13と、撮像部14と、を備えている。
 リモコン送受信部13は、リモコン300との間で信号を送受信するものである。例えば、運転/停止指令、設定温度の変更、タイマの設定、運転モードの変更等の信号が、リモコン300からリモコン送受信部13に送信される。また、例えば、室内の温湿度の検出値が、リモコン送受信部13からリモコン300に送信され、前記した検出値がリモコン300に表示される。
 撮像部14は、室内を撮像するものである。なお、撮像部14の詳細については後記する。
 室外機200は、次に説明する圧縮機21(図2参照)と、四方弁22と、室外熱交換器23と、膨張弁24と、室外ファン25と、を備えている。
 図2は、空気調和機Sが備えるヒートポンプサイクルの説明図である。
 図2に示すように、空気調和機Sは、圧縮機21と、四方弁22と、室外熱交換器23と、膨張弁24と、室内熱交換器11と、が環状に順次接続されてなる冷媒回路Qにおいて、周知のヒートポンプサイクルで冷媒を循環させるようになっている。また、室外熱交換器23の付近には室外ファン25が設置され、室内熱交換器11の付近には室内ファン12が設置されている。
 また、図示はしないが、室内機100と室外機200とは通信線を介して接続されている。そして、後記するメインマイコン32(図4参照)からの指令に基づいて、圧縮機21のモータ21a、膨張弁24、室外ファンモータ25a等が駆動されるようになっている。
 図3は、空気調和機Sが備える室内機100の縦断面図である。
 室内機100は、図1で説明したリモコン送受信部13(図1参照)と、撮像部14(図1参照)の他に、室内熱交換器11と、室内ファン12と、筐体ベース15と、塵埃フィルタ16と、前面パネル17と、左右風向板18と、上下風向板19と、を備えている。
 室内熱交換器11は、冷媒と、室内空気と、の熱交換が行われる熱交換器である。図3に示すように、室内熱交換器11は、冷媒が流れる伝熱管11aを複数備えている。
 室内ファン12は、例えば、円筒状のクロスフローファンであり、室内ファンモータ12a(図2参照)によって回転するようになっている。
 筐体ベース15は、室内熱交換器11、室内ファン12等が設置される筐体である。塵埃フィルタ16は、空気吸込孔h1を介して取り込まれる空気から塵埃を除去するフィルタであり、室内熱交換器11の上側・前側に設置されている。前面パネル17は、塵埃フィルタ16の前側に設置されるパネルであり、下端を軸として前側に回動可能になっている。なお、前面パネル17が回動しない構成であってもよい。
 左右風向板18は、空調室に向かって吹き出される空気の通流方向を、左右方向において調整するための板状部材である。この左右風向板18は、室内ファン12の下流側に配置され、左右風向板用モータ18a(図4参照)によって左右方向に回動するようになっている。
 上下風向板19は、空調室に向かって吹き出される空気の通流方向を、上下方向において調整するための板状部材である。この上下風向板19は、室内ファン12の下流側に配置され、上下風向板用モータ19a(図4参照)によって上下方向に回動するようになっている。
 そして、室内ファン12が回転することで空気吸込孔h1を介して吸い込まれた室内空気は、伝熱管11aを流れる冷媒と熱交換し、熱交換した空気が左右風向板18及び上下風向板19によって所定方向に導かれ、空気吹出孔h2を介して室内に送り込まれるようになっている。
 撮像部14は、前記したように、室内を撮像するものであり、筐体ベース15に設置されている。図3に示す例では、撮像部14は、上下方向において前面パネル17と上下風向板19との間に設置されるとともに、室内を適切に撮像できるように、水平方向に対して所定角度だけ下方を向いた状態で設置されている。なお、撮像部14の設置位置・設置角度については、空気調和機Sの仕様や用途に合わせて適宜設定すればよい。
 図4は、室内機100が備える機器の機能ブロック図である。
 室内機100は、前記した撮像部14等の機器の他に、制御部3と、環境検出部4と、を備えている。
 撮像部14は、光学レンズ14aと、撮像素子14bと、A/D変換器14cと、デジタル信号処理部14dと、を備えている。
 光学レンズ14aは、撮像部14の撮像範囲(画角)やピントを調整するためのレンズである。
 撮像素子14bは、光学レンズ14aを介して入射する光を光電変換することによって、撮像画像情報を生成する素子である。なお、撮像素子14bとして、CCDセンサ(Charge Coupled Device)やCMOSセンサ(Complementary Metal Oxide Semiconductor)を用いることができる。
 A/D変換器14cは、撮像素子14bから入力されるアナログ信号をデジタル信号に変換する機能を有している。デジタル信号処理部14dは、A/D変換器14cから入力される撮像画像情報に関して、画像の輝度や色調を補正する機能を有している。
 また、図4に示すように、制御部3は、カメラマイコン31と、メインマイコン32と、を備えている。カメラマイコン31及びメインマイコン32は、例えば、マイクロコンピュータであり、図示はしないが、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、各種インタフェース等の電子回路を含んで構成される。そして、ROMに記憶されたプログラムを読み出してRAMに展開し、CPUが各種処理を実行するようになっている。
 カメラマイコン31は、撮像部14から入力される撮像画像情報に基づいて所定の処理を行う画像処理部312と、画像処理部312で用いられる情報が格納される記憶部311と、を備えている。
 画像処理部312は、在室者検出部312aと、在室者識別部312bと、在室時間算出部312cと、学習処理部312dと、を備えている。
 在室者検出部312aは、撮像部14の撮像結果に基づいて、室内の在室者(人体)を検出する機能を有している。
 在室者識別部312bは、在室者検出部312aによって検出された在室者の服の色や頭頂部の色等に基づいて、その在室者を識別する機能を有している。
 在室時間算出部312cは、在室者識別部312bによって識別された在室者の在室時間を算出する機能を有している。
 学習処理部312dは、在室者によるリモコン300(図1参照)の操作に応じて設定値(設定温度等)を変更する「通常モード」の実行中、在室者の好みの設定値を学習する学習処理を実行する。また、学習処理部312dは、在室者の好みに合わせた「おまかせモード」において、前記した学習処理の結果に基づいて、設定値を変更する機能も有している。
 なお、画像処理部312の処理結果は、図4に示すように、撮像部14やメインマイコン32に出力される。
 記憶部311は、図示はしないが、在室者に関するデータや画像処理部312のプログラムが格納されるROMと、前記したプログラムが展開されるRAMと、を含んで構成される。
 環境検出部4は、例えば、室内温度を検出する温度センサ(サーモパイル)、室内湿度を検出する湿度センサ、照度を検出する照度センサ等であるが、これに限定されない。なお、前記した照度センサに代えて、撮像部14の照度検出機能を用いてもよい。環境検出部4の検出値は、メインマイコン32に出力される。
 メインマイコン32は、記憶部321と、演算処理部322と、駆動制御部323と、を備えている。
 記憶部321は、図示はしないが、演算処理部322や駆動制御部323のプログラムが格納されるROMと、前記したプログラムが展開されるRAMと、を含んで構成される。
 演算処理部322は、リモコン送受信部13から受信した信号と、画像処理部312の処理結果と、環境検出部4の検出値と、に基づいて、室内ファンモータ12aの回転速度指令値や、左右風向板用モータ18a・上下風向板用モータ19aの回転角指令値を演算する機能を有している。また、演算処理部322は、圧縮機21のモータ21a(図2参照)、膨張弁24(図2参照)、室外ファンモータ25a(図2参照)等を駆動するためのデータを、室外機マイコン(図示せず)との間でやり取りする機能も有している。
 駆動制御部323は、演算処理部322から入力される各指令値に基づいて、室内ファンモータ12a、左右風向板用モータ18a、及び上下風向板用モータ19aを駆動する機能を有している。
 図5は、空気調和機Sの制御部3が実行する処理のフローチャートである(適宜、図4を参照)。
 ステップS101において制御部3は、室内機100が設置されている室内の在室者(人体)を検出する。具体的に説明すると、制御部3は、撮像部14の撮像結果に基づき、在室者検出部312aによって、在室者の顔の位置(座標)を特定する。
 図6は、空気調和機Sの撮像部14による撮像結果の一例を示す説明図である。
 図6に示す例では、在室者検出部312aによって、在室者A,Bの顔中心の位置(つまり、顔の位置)が検出されている。つまり、在室者Aの顔中心rの位置(X,Y)と、在室者Bの顔中心rの位置(X,Y)と、が検出されている。ちなみに、在室者の検出は、周知のパターンマッチングを用いて、在室者の頭部や肩部を検出することで行われる。
 また、図5のステップS101における在室者の検出には、撮像部14の撮像範囲(視野)に占める在室者の頭部の大きさを算出する処理が含まれる。前記した「頭部の大きさ」として、例えば、在室者の頭部の縦幅Lfa(図8(a)参照)を用いることができる。なお、在室者の頭部の大きさに関する情報は、後記するように、在室者の服や頭頂部を検出する際に用いられる。ステップS101の処理結果(在室者の顔中心の位置、頭部の大きさ)は、記憶部311に格納される。
 次に、図5のステップS102において制御部3は、在室者識別部312bによって、在室者の特徴量を抽出する「特徴量抽出処理」を実行する。
 図7は、空気調和機Sの在室者識別部312bが実行する特徴量抽出処理のフローチャートである。
 ステップS1021において在室者識別部312bは、在室者の頭部の大きさに関する情報を記憶部311から読み出す。つまり、在室者識別部312bは、在室者の頭部の縦幅Lfa(図8(a)参照)の値を記憶部311から読み出す。
 ステップS1022において在室者識別部312bは、下側画像領域U(図8(a)参照)を特定する。この下側画像領域Uは、在室者の服の色の特定(S1023)に用いられる領域であり、顔中心rよりも下側(つまり、在室者の顔の下方)に位置している。つまり、撮像画像情報の画像上において、在室者の服に含まれると推定される領域が下側画像領域Uである。
 図8(a)は、在室者の服の色の特定に関する説明図である。
 図8(a)に示す例では、顔中心rを基準として長さLcrだけ下側に、矩形状の下側画像領域Uが設定されている。この下側画像領域Uの色に基づいて、在室者の服の色を特定できる。
 なお、図8(a)に示す長さLfaは、撮像画像情報の画像上における在室者の頭部の縦幅(画素数)である。また、距離Lcrは、在室者の顔中心rと下側画像領域Uの中心rとの距離(画素数)である。
 また、前記したステップS1022において在室者識別部312bは、撮像範囲における在室者の頭部の縦幅Lfa(図8(a)参照)が長いほど距離Lcr(図8(a)参照)を長く設定するとともに、下側画像領域Uの範囲を広く設定することが好ましい。言い換えると、在室者識別部312bは、撮像範囲における在室者の頭部の大きさに応じて、下側画像領域Uの範囲を変更することが好ましい。これによって、在室者が撮像部14の近くにいるときでも、また、在室者が撮像部14から比較的離れているときでも、下側画像領域Uを適切な範囲に設定し、在室者の服の色を特定できる。
 次に、図7のステップS1023において在室者識別部312bは、在室者の服の色を特定する。すなわち、在室者識別部312bは、図8(a)に示す下側画像領域Uに含まれる各画素の色(色調)を「色特徴量」として特定する。前記した「色特徴量」とは、色の特定に用いられる特徴量であり、例えば、色相・彩度・明度の3成分からなる周知の色空間のベクトルとして表される。
 図8(b)は、在室者の服の色分布の例を示す説明図である。
 図8(b)の横軸は、前記した色空間における色区分である。図8(b)に示す例では、服の色の特定に用いられる色空間が、白・赤・青・黒の四つの色区分に区分けされている。なお、仮に、下側画像領域Uに在室者の首もと等(つまり、皮膚の色)が含まれていたとしても、これを服と混同しないように、図8(b)に示す色区分から肌色を除去している。また、図8(b)の縦軸は、下側画像領域Uの全画素数に対して、各色区分に含まれる色の画素数が占める比率である。
 図8(a)に示す例では、在室者Aが、白色と黒色のストライプの服を着ている。したがって、図8(b)に示すように、下側画像領域Uにおいて、白色や黒色の画素が多くを占めている。なお、赤色・青色の画素も若干存在するが、前記した比率が閾値a未満であるから、ノイズとして処理(無視)される。
 このように在室者識別部312bは、下側画像領域Uに含まれる各画素について、その画素の色が属する色区分を特定する。各色区分における画素数の分布は、在室者の服の色を表す情報として数値化され、在室者の識別に用いられる。これによって、在室者の服に複数の色が含まれている場合でも、その服の色(各色の画素数の分布)を適切に特定できる。なお、比率が閾値a以上である色を画素数の多い順に順位付けし、その順位付けの情報を在室者の服の色として数値化してもよい。
 再び、図7に戻って説明を続ける。
 ステップS1023において在室者の服の色を特定した後、ステップS1024において在室者識別部312bは、上側画像領域P(図9(a)参照)を特定する。この上側画像領域Pは、在室者の頭頂部の色の特定(S1025)に用いられる領域であり、顔中心rよりも上側(つまり、在室者の顔の上方)に位置している。つまり、撮像画像情報の画像上において、在室者の頭頂部に含まれると推定される領域が上側画像領域Pである。
 図9(a)は、在室者の頭頂部の色の特定に関する説明図である。
 図9(a)に示す例では、顔中心rを基準として長さLheだけ上側に、矩形状の上側画像領域Pが設定されている。この上側画像領域Pの色に基づいて、在室者の頭頂部の色を特定できる。なお、図9に示す距離Lheは、在室者の顔中心rと上側画像領域Pの中心rとの距離(画素数)である。
 また、前記したステップS1024において在室者識別部312bは、画像上における在室者の頭部の縦幅Lfa(図9(a)参照)が長いほど距離Lhe(図9(a)参照)を長く設定するとともに、上側画像領域Pの範囲を広く設定することが好ましい。言い換えると、在室者識別部312bは、撮像範囲における在室者の頭部の大きさに応じて、上側画像領域Pの範囲を変更することが好ましい。これによって、在室者が撮像部14の近くにいるときでも、また、在室者が撮像部14から比較的離れているときでも、上側画像領域Pを適切な範囲に設定し、在室者の頭頂部の色を特定できる。
 次に、図7のステップS1025において在室者識別部312bは、在室者の頭頂部の色を特定する。すなわち、在室者識別部312bは、図9(a)に示す上側画像領域Pに含まれる各画素の色(色調)を「色特徴量」として特定する。
 図9(b)は、在室者の頭頂部の色分布の例を示す説明図である。
 図9(b)の横軸は、前記した色空間における色の色区分である。図9(b)に示す例では、頭頂部の色の特定に用いられる色空間が、肌色(皮膚の色)・赤・青・灰・黒の五つの色区分に区分けされている。また、図9(b)の縦軸は、上側画像領域Pの全画素数に対して、各色区分に含まれる色の画素数が占める比率である。
 なお、在室者の髪型や髪の多さによっては、頭頂部の皮膚が露出していることがあるので、色区分として肌色を含めている。また、在室者の髪に白髪が含まれている場合も考慮し、色区分として灰色も含めている。
 例えば、図9(b)に示す色の分布が得られた場合、在室者識別部312bは、前記した比率が閾値a未満である赤色・青色をノイズとして処理し、肌色・灰色・黒色を上側画像領域Pに含まれる色として特定する。各色区分(肌色・灰色・黒色)における画素数の分布は、在室者の頭頂部の色を表す情報として数値化され、在室者の識別に用いられる。なお、比率が閾値a以上である色を画素数の多い順に順位付けし、その順位付けした情報を在室者の頭頂部の色として数値化してもよい。
 なお、在室者の服の色、及び、在室者の頭頂部の色を含む色特徴量は、記憶部311に記憶される。
 再び、図7に戻って説明を続ける。
 ステップS1025において在室者の頭頂部の色を特定した後、ステップS1026において在室者識別部312bは、在室者の他の特徴量を抽出する。
 図10は、在室者の他の特徴量に関する説明図である。
 在室者識別部312bは、例えば、以下に示す(a)~(f)のうち少なくとも一つを在室者の「他の特徴量」として特定する。
(a)在室者の顔の皮膚の色
(b)在室者の頭部の形状
(c)在室者の体型
(d)在室者の目の大きさ
(e)在室者の両目間の距離
(f)在室者の唇の横幅
(a)在室者の顔の皮膚の色は、例えば、在室者の顔領域に含まれる肌色を、前記した色空間におけるベクトルとして数値化することで表される。
(b)在室者の頭部の形状は、例えば、在室者の頭部の横幅Lbe(画素数)に対して、頭部の縦幅Lfa(画素数)が占める比率(Lfa/Lbe)で表される。
(c)在室者の体型は、例えば、在室者の頭部の横幅Lbeに対して、肩幅Ltiが占める比率(Lti/Lbe)で表される。
(d)在室者の目の大きさは、例えば、在室者の顔の全画素数Nfiに対して、在室者の目の画素数Neyが占める比率(Ney/Nfi)で表される。
(e)在室者の両目間の距離は、例えば、在室者の頭部の横幅Lbeに対して、在室者の両目間の距離Leyが占める比率(Ley/Lbe)で表される。
(f)在室者の唇の横幅は、例えば、在室者の頭部の横幅Lbeに対して、在室者の唇の横幅Lmoが占める比率(Lmo/Lbe)で表される。
 なお、在室者の服の色や頭頂部の色の他に、(a)在室者の顔の皮膚の色も、前記した「色特徴量」に含まれる。また、前記した(b)~(f)を、在室者の形状を表す「形状特徴量」という。
 このようにして在室者識別部312bは、在室者の服の色(S1023:図7参照)、頭頂部の色(S1025)、及び他の特徴量を抽出して(S1026)、一連の特徴量抽出処理(S102:図5参照)を終了する(END)。
 次に、図5のステップS103おいて制御部3は、在室者識別部312bによって、在室者識別処理を実行する。
 図11は、空気調和機Sの在室者識別部312bが実行する在室者識別処理のフローチャートである。
 ステップS1031において在室者識別部312bは、ステップS101(図5参照)で検出した在室者のうち一人を指定する。
 ステップS1032において在室者識別部312bは、ステップS1031で指定した在室者の特徴量の検出値と、記憶部311に既に登録されている各人の特徴量の登録値と、の比較に基づいて、評価関数fの値を算出する。前記した評価関数fとは、在室者の識別に用いられる関数であり、以下の(数式1)で表される。
 f=wc1*|c1-C1|+wc2*|c2-C2|+…+wcn*|cn-Cn|+
   ws1*|s1-S1|+ws2*|s2-S2|+…+wsm*|sm-Sm|  ・・・(数式1)
 (数式1)の検出値c1,c2,…,cn(‘c’は色(color)を表している。)は、ステップS102(図5参照)の特徴量抽出処理で得られた「色特徴量」の検出値である。例えば、検出値c1は、在室者の服の色の検出値であり、検出値c2は、頭頂部の色の検出値である。
 (数式1)の登録値C1,C2,…,Cnは、前記した「色特徴量」の登録値であり、過去に識別された在室者に対応付けて、記憶部311(図4参照)に登録されている。例えば、登録値C1は、ある在室者の服の色の登録値であり、登録値C2は、この在室者の頭頂部の色の登録値である。
 (数式1)の色重み係数wc1は、|c1-C1|に乗算される係数であり、予め設定されている。なお、他の色重み係数wc2,…,wcnについても同様である。
 (数式1)の検出値s1,s2,…,sm(‘s’は形状(shape)を表している。)は、ステップS102(図5参照)の特徴量抽出処理で得られた「形状特徴量」の検出値である。例えば、検出値s1は、在室者の頭部の形状の検出値であり、検出値s2は、体型の検出値である。
 (数式1)の登録値S1,S2,…,Smは、前記した「形状特徴量」の登録値であり、過去に識別された在室者に対応付けて、記憶部311(図4参照)に登録されている。例えば、登録値S1は、ある在室者の頭部の形状の登録値であり、登録値C2は、この在室者の体型の登録値である。
 (数式1)の形状重み係数ws1は、|s1-S1|に乗算される係数であり、予め設定されている。なお、他の形状重み係数ws2,…,wsmについても同様である。
 図12は、記憶部311に登録されている各特徴量のデータテーブルである。なお、登録値C1,C2,C3,S1,S2,S3に付した‘A’は、在室者Aに関する登録値であることを表している(他の在室者B,Cについても同様)。これらの登録値は、過去に行われた在室者識別処理の結果に基づいて、記憶部311に登録されている。
 
 また、前記した(数式1)は、以下の(数式2)で表すこともできる。なお、(数式2)に示すk,jは、任意の自然数である。
f=Σwck*|ck-Ck|+Σwsj*|sj-Sj| ・・・(数式2)
 (数式2)に示すように、在室者識別部312bは、色特徴量の検出値ckと、色特徴量の登録値Ckと、の差の絶対値|ck-Ck|に色重み係数wckを乗算した値を、それぞれの色特徴量について加算することで第1加算値Σwck|ck-Ck|を算出する。この第1加算値Σwck|ck-Ck|は、色特徴量の検出値ckと、色特徴量の登録値Ckと、の比較結果を表している。
 また、在室者識別部312bは、形状特徴量の検出値skと、形状特徴量の登録値Skと、の差の絶対値|sk-Sk|に形状重み係数wsjを乗算した値を、それぞれの形状特徴量について加算することで第2加算値Σwsj|sj-Sj|を算出する。この第2加算値Σwsj|sj-Sj|は、形状特徴量の検出値sjと、形状特徴量の登録値Sjと、の比較結果を表している。
 そして、在室者識別部312bは、前記した第1加算値Σwck|ck-Ck|と第2加算値Σwsj|sj-Sj|と、の和を、評価関数fの値として算出する。この評価関数fの値が小さいほど、検出値(c1,c2,…,cn,s1,s2,…,sm)に対応する在室者が、記憶部311に登録されている人に一致している可能性が高い。
 図11のステップS1033において在室者識別部312bは、記憶部311に登録されている人の中で、評価関数fの値が所定閾値f1未満の人が存在するか否かを判定する。評価関数fの値が所定閾値f1未満の人が存在する場合(S1033:Yes)、在室者識別部312bの処理はステップS1034に進む。
 ステップS1034において在室者識別部312bは、ステップS101(図5参照)で検出した在室者が、ステップS1033で特定した人と同一であると判定する。なお、評価関数fの値が所定閾値f1未満である人が複数存在する場合には、評価関数fの値が最も小さい人を特定すればよい。
 ステップS1035において在室者識別部312bは、在室者の特徴量を更新する。つまり、在室者識別部312bは、ステップS102(図5参照)で得た特徴量の検出値を、特徴量の新たな登録値として、在室者の識別情報と対応付けて記憶部311に格納する。
 また、ステップS1033において、評価関数fの値が所定閾値f1未満の人が存在しない場合(S1033:No)、在室者識別部312bの処理はステップS1036に進む。
 ステップS1036において在室者識別部312bは、ステップS101で検出した在室者が、記憶部311にまだ登録されていない新たな在室者であると判定する。
 ステップS1037においてステップS102(図5参照)で得た特徴量の検出値を、新たな在室者の特徴量の登録値として、この在室者の識別情報と対応付けて記憶部311に登録する。
 ステップS1035又はステップS1037の処理を行った後、在室者識別部312bの処理は、ステップS1038に進む。
 ステップS1038において在室者識別部312bは、ステップS101(図5参照)で検出した在室者の全てについて識別を行ったか否かを判定する。検出した在室者の全てについて識別を行った場合(S1038:Yes)、在室者識別部312bは、処理を終了する(END)。
 一方、ステップS101(図5参照)で検出した在室者のうち、まだ識別されていない在室者が存在する場合(S1038:No)、在室者識別部312bの処理はステップS1031に戻る。この場合、ステップS1031において在室者識別部312bは、ステップS101で検出した在室者のうち、識別を行っていない他の在室者を指定する。
 このような一連の処理(S1031~S1038)を行うことで、在室者識別部312bは、前記した在室者識別処理(S103:図5参照)を実行する。
 次に、図5のステップS104において制御部3は、在室時間算出部312cによって、各在室者の在室時間を算出する。すなわち、在室時間算出部312cは、在室者識別部312bによって識別された在室者が記憶部311に既に登録されている場合、この在室者の在室時間を1カウントする。また、在室時間算出部312cは、記憶部311に登録されている各人について、所定時間(例えば、30分)以内に検出できない場合には、外出しているとみなして在室時間をゼロにリセットする。
 図13は、各在室者の在室時間に関する説明図である。
 なお、図13の横軸は時刻である。また、図13の○印は、在室者識別部312bによって在室者が識別された時刻を表している。また、所定時間Δt(例えば、30分)は、室内機100が設置されている部屋から在室者がいなくなったか否かの判定基準となる時間である。
 図13に示す例では、在室者Aは、時刻t1~時刻t8に含まれる所定時間Δtのそれぞれにおいて、少なくとも一回は検出(識別)されている。したがって、現在時刻t8において在室者Aの在室時間は、Δt×7として算出される。
 また、在室者Bは、時刻t6以後に検出されていない。したがって、時刻t6から所定時間Δtが経過した時刻t7において「在室時間ゼロ」としてリセットされる。
 また、時刻t2に外出した後、時刻t4に室内に戻ってきた在室者Cは、この時刻t4から新たに在室時間が算出される。
 図5のステップS104において各在室者の在室時間を算出した後、ステップS105において制御部3は、演算処理部322(図4参照)及び駆動制御部323(図4参照)によって、空調制御変更処理を実行する。なお、在室者識別部312bの識別結果に基づいて空調制御を変更する「空調制御部」は、図4に示す演算処理部322と、駆動制御部323と、を含んで構成される。
 図14は、空気調和機Sの制御部3が実行する空調制御変更処理のフローチャートである。
 ステップS1051において制御部3は、各在室者の在室時間の長さを順序づける。
 例えば、図13に示す例では、現在時刻t8における在室者Aの在室時間は(Δt×7)であり、在室者Bの在室時間はゼロであり、在室者Cの在室時間は(Δt×4)である。したがって、ステップS1051において制御部3は、在室時間の長さは在室者Aが最も長く、次いで在室者C,Bの順に長いという順序づけを行う。
 ステップS1052において制御部3は、在室時間の長さに基づいて空調制御を行う。その一例を挙げると、現時点において在室者A,Cが在室している状態において(図13参照)、在室者Cの在室時間が在室者Aよりも短い場合、制御部3は、所定の温湿度の空気が在室者Cに重点的に送られるように、左右風向板用モータ18a(図4参照)及び上下風向板用モータ19a(図4参照)を制御する。言い換えると、制御部3は、在室時間が他の在室者Aよりも相対的に短い在室者Cに、空気調和された空気をより長く送る。
 これによって、例えば、暖房運転中に在室者Cが部屋に入った直後には、温かい空気が在室者Cに向けて重点的に送られる。一方、在室時間が比較的長い在室者Aについては、体が十分に温まっていることが多い。したがって、在室者Aに向けての送風時間が比較的短くても、在室者Aにとっての快適性が落ちることはほとんどない。したがって、在室者Aにとっても、また、在室者Cにとっても快適な空調を行うことができる。
 なお、在室時間の長さの比に基づいて、各在室者への送風時間を設定するようにしてもよい。例えば、在室者A,Cの在室時間の比が2:1であれば、在室者A,Cへの送風時間の比を1:2にしてもよい。
 また、図5に示す一連の処理(S101~S105)は、所定周期で繰り返される(RETURN)。
<効果>
 本実施形態では、前記したように、在室者の服の色や頭頂部の色等に基づいて、在室者を識別できる。したがって、在室者を顔のみで識別する従来技術と比べて、在室者の識別精度を高めることができる。例えば、撮像部14に対して在室者が後ろを向いた状態であったり、逆光で在室者の顔を識別しにくい状態であっても、本実施形態によれば、服の色等に基づいて在室者を適切に識別できる。また、例えば、室内機100が設置された部屋が比較的広く、撮像部14の視野の内外を在室者が行き来する場合でも、在室者が撮像部14の視野内に入った直後に服の色等に基づいて、在室者を適切に識別できる。
 また、在室者の位置が撮像部14から比較的遠い場合には、在室者の顔を鮮明に撮像できることが少ない(つまり、顔認証が困難である)が、本実施形態によれば、このような場合でも服の色等に基づいて在室者を適切に識別できる。また、在室者の顔をより鮮明に撮像するために、撮像部14として高分解能のカメラを用いる必要がないため、製造コストの増加を招くこともない。
 また、前記した下側画像領域U(図8(a)参照)や下側画像領域U(図9(a)参照)について、それぞれ、所定の色区分(図8(b)、図9(b)参照)が設定され、色区分における画素数の分布に基づいて在室者が識別される。したがって、在室者の服の柄や頭髪の色あいに基づき、在室者を高精度で識別できる。
 また、本実施形態では、在室者の在室時間に基づいて、空調制御が変更される。例えば、部屋に入ってきた直後の在室者に向けて、温風又は冷風が重点的に送られる。したがって、各在室者にとっての空調の快適性を従来よりも高めることができる。
≪第2実施形態≫
 第2実施形態は、第1実施形態で説明した構成(図4参照)に重み係数補正部312e(図15参照)を追加した点が第1実施形態とは異なっているが、その他については第1実施形態と同様である。したがって、第1実施形態と異なる部分について説明し、重複する部分については説明を省略する。
 図15は、第2実施形態に係る空気調和機Sの室内機100が備える機器の機能ブロック図である。
 図15に示すように、画像処理部312Aは、在室者検出部312aと、在室者識別部312bと、在室時間算出部312cと、学習処理部312dと、重み係数補正部312eと、を備えている。
 重み係数補正部312eは、撮像部14の撮像範囲における色又は明るさ(環境検出値)の所定時間での変化量が大きいほど、色重み係数wckよりも形状重み係数wsjを相対的に大きくする機能を有している。なお、色重み係数wck及び形状重み係数wsjについては、第1実施形態で説明したとおりである。
 図16は、第2実施形態に係る空気調和機Sの制御部3が実行する処理を示すフローチャートである。
 ステップS101において在室者を検出し、ステップS102において特徴量抽出処理を行った後、制御部3の処理はステップS201に進む。
 ステップS201において制御部3は、環境検出値の変化量を算出する。例えば、制御部3は、撮像部14の撮像範囲における現時点での色(又は明るさ)と、所定時間前における色(又は明るさ)と、の差の絶対値を、環境検出値の変化量として算出する。なお、撮像部14の撮像範囲における色は、例えば、撮像範囲に含まれる各画素の色を色空間のベクトルに変換し、各画素に対応する複数のベクトルの重心を算出することで求められる。
 また、ステップS201で用いる環境検出値として、環境検出部4(例えば、照度センサ:図15参照)の検出値を用いてもよい。
 ステップS202において制御部3は、重み係数補正部312eによって、評価関数fの色重み係数wck及び形状重み係数wsjの大きさを変更する。すなわち、制御部3は、環境検出値(色又は明るさ)の所定時間での変化量が大きいほど、色重み係数wckよりも形状重み係数wsjを相対的に大きくする。
 図17は、環境検出値の変化量と、重み係数の大きさと、の関係を示す説明図である。
 図17の横軸は、環境検出値の変化量である。つまり、横軸は、現時点での環境検出値と、前回の環境検出値の差の絶対値である。図17の縦軸は、第1実施形態で説明した重み係数(色重み係数wck及び形状重み係数wsj)である。
 すなわち、破線で示す‘wck’は、色特徴量に関する色重み係数であり、第1実施形態で説明した色重み係数wc1,wc2,…,wcnのうち任意のものを表している。また、実線で示す‘wsj’は、形状特徴量に関する形状重み係数であり、第1実施形態で説明した形状重み係数ws1,ws2,…,wsmのうち任意のものを表している。なお、図17に示す環境検出値の変化量と、各重み係数と、の関係は、予め記憶部311(図15参照)に格納されている。
 例えば、在室者が、部屋の蛍光灯をいったん消して、赤みがかったダウンライトを点灯させた場合、撮像部14に入射する光の明るさや色が急激に変化する。その結果、撮像部14によって撮像される在室者の服や頭頂部も、赤みがかった色になる。このように環境検出値の変化量が比較的大きい場合、重み係数補正部312eは、色特徴量よりも信頼性の高い形状特徴量に重みをおくようにする。
 また、例えば、撮像部14の撮像範囲における光の明るさや色がほとんど変化しない場合、重み係数補正部312eは、形状重み係数wsjよりも色重み係数wckを相対的に大きする。つまり、重み係数補正部312eは、色特徴量よりも信頼性の高い形状特徴量に重みをおくようにする。これによって、在室者の服の色や頭頂部の色等に基づいて、在室者を精度よく識別し続けることができる。
 なお、重み係数wck,wsjの一方が高いときには他方が低くなるように、以下の数式(3)が満たされるようにしてもよい。
 Σwck+Σwsj=(一定値) ・・・(数式3)
 このようにして制御部3は、評価関数fの重み係数の大きさを変更した後(S202:図16参照)、この重み係数を用いて在室者識別処理を行う(S103:図16参照)。なお、図16のステップS103~S105については第1実施形態と同様であるため、説明を省略する。
<効果>
 本実施形態によれば、前記したように、環境検出値の変化量が大きいほど、色特徴量よりも形状特徴量を重視するように重み係数wck,wsjが変更される。これによって、照明の点灯時・消灯時や、使用される照明の種類が変わったときでも在室者を適切に識別し、ひいては、在室者にとって快適な空調を継続できる。
≪第3実施形態≫
 第3実施形態は、環境検出値の変化量に代えて、在室者の位置の変化量に基づいて評価関数fの重み係数を変更する点が第2実施形態とは異なっているが、その他については第2実施形態と同様である。したがって、第2実施形態とは異なる部分について説明し、重複する部分については説明を省略する。
 図18は、第3実施形態に係る空気調和機Sの制御部3が実行する処理を示すフローチャートである。
 ステップS101において在室者を検出し、ステップS102において特徴量抽出処理を行った後、制御部3の処理はステップS301に進む。
 ステップS301において制御部3は、在室者の位置の変化量を算出する。つまり、制御部3は、現時点での在室者の位置(座標)と、前回に識別した在室者の位置(座標)と、に基づいて、在室者の位置の変化量を算出する。
 なお、図18に示す例では、在室者識別処理(S103)が行われる前に、位置の変化量が算出される(S301)。したがって、ステップS301において制御部3は、現時点で検出した在室者の位置と、前回(例えば、数秒前)に検出・識別した在室者の位置と、に基づいて、その位置の変化量が最も小さいものをステップS301で用いるようにしてもよい。
 ステップS302において制御部3は、重み係数補正部312eによって、評価関数fの色重み係数wck及び形状重み係数wsjの大きさを変更する。すなわち、制御部3は、在室者検出部312aによって検出される在室者の所定時間における位置の変化量が大きいほど、形状重み係数wsjよりも色重み係数wckを相対的に大きくする。
 図19は、在室者の位置の変化量と、重み係数の大きさと、の関係を示す説明図である。
 なお、図19の横軸は、在室者の位置の変化量であり、縦軸は、第1実施形態で説明した重み係数(色重み係数wck及び形状重み係数wsj)である。また、図19に示す位置の変化量と、各重み係数と、の関係は、予め記憶部311に格納されている。
 例えば、在室者が室内で動き回っているときには、在室者の位置の変化量が比較的大きく、また、在室者の向きが変わることもある。このようなときには形状特徴量の大きさが変動しやすいため、重み係数補正部312eは、形状特徴量よりも信頼性の高い色特徴量に重みをおくようにする。
 また、例えば、在室者がほとんど動いていないときには、重み係数補正部312eは、色特徴量よりも信頼性の高い形状特徴量に重みをおくようにする。
 なお、重み係数wck,wsjの一方が高いときには他方が低くなるように、第2実施形態で説明した数式(3)が満たされるように重み係数wck,wsjを設定してもよい。
 このようにして制御部3は、評価関数fの重み係数の大きさを変更した後(S302:図18参照)、この重み係数を用いて在室者識別処理を行う(S103)。なお、図18のステップS103~S105については第1実施形態と同様であるため、説明を省略する。
<効果>
 本実施形態によれば、前記したように、在室者の位置の変化量が大きいほど、形状特徴量よりも色特徴量を重視するように重み係数wck,wsjが変更される。これによって、在室者が室内で動き回っている場合でも、また、在室者がほとんど動かない場合でも在室者を適切に識別し、ひいては、在室者にとって快適な空調を行うことができる。
≪第4実施形態≫
 第4実施形態は、在室者の好みの設定温度等を学習する点が第1実施形態とは異なっているが、その他については第1実施形態(図4参照)と同様である。したがって、第1実施形態と異なる部分について説明し、重複する部分については説明を省略する。
 図20は、第4実施形態に係る空気調和機Sの制御部3が実行する処理を示すフローチャートである。
 ステップS101において在室者を検出し、ステップS102において特徴量抽出処理を実行し、さらに、ステップS103において在室者識別処理を行った後、制御部3の処理はステップS401に進む。
 ステップS401において制御部3は、学習処理部312dによって、現時点での運転モードが「おまかせモード」であるか否かを判定する。前記した「おまかせモード」とは、設定温度、設定湿度、風向、及び風量のうち少なくとも一つを含む設定値を、在室者のリモコン300(図1参照)の操作に応じて行うのではなく、事前に学習した在室者の好みに合わせて制御部3が変更する運転モードである。
 なお、本実施形態では一例として、在室者自身が温度設定等を行う「通常モード」と、前記した「おまかせモード」と、の二つのモードが切替可能である場合について説明するが、これに限定されるものではない。
 ステップS401において現時点での運転モードが「おまかせモード」でない場合(S401:No)、制御部3の処理はステップS402に進む。つまり、現時点での運転モードが「通常モード」である場合、制御部3の処理はステップS402に進む。
 ステップS402において制御部3は、学習処理部312dによって、在室者の好みの設定温度等を学習する学習処理を実行する。つまり、制御部3は、ステップS103で識別した在室者と、そのときの設定温度等に基づいて、在室者の好みの設定温度等を学習する。例えば、暖房運転中、在室者Aが設定温度を21℃に設定している場合、制御部3は、この温度を在室者Aの好みの設定温度として学習し、在室者Aの識別情報に対応付けて記憶部311に格納する。
 ステップS403において制御部3は、通常の空調制御を実行する。つまり、制御部3は、リモコン300の操作で設定された温度等に基づいて各機器を制御する。
 また、ステップS402において現時点での運転モードが「おまかせモード」である場合(S401:Yes)、制御部3の処理はステップS404に進む。
 ステップS404において制御部3は、記憶部311から学習結果を読み出す。
 ステップS405において制御部3は、ステップS404で読み出した学習結果に基づき、在室者の好みに合わせた空調制御を実行する。つまり、制御部3は、ステップS402の学習処理に基づいて、設定温度、設定湿度、風向、及び風量のうち少なくとも一つの設定値を変更し、変更後の後の設定値を用いて空調制御を実行する。
 例えば、通常モードで暖房運転が実行されているとき、在室者Aは設定温度を21℃とし、別の時間帯に在室者Bが設定温度を18℃にしていたとする。これらの設定温度を学習した後(S402)、おまかせモードの実行中(S401:Yes)、在室者A,Bが在室していた場合、制御部3は、例えば、在室者Aの好みの21℃と、在室者Bの好みの18℃と、の平均値である19.5℃を設定温度として空調制御を行う。これによって、在室者A,Bの両者にとって快適な空調を行うことができる。
 また、例えば、通常モードで冷房運転が実行されているとき、在室者Aは自身に集中的に風があたるように設定し、別の時間帯に在室者Bは風が自身に直接あたらないように設定していたとする。これらの風向を学習した後(S402)、おまかせモードの実行中(S401:Yes)、在室者A,Bが在室していた場合、制御部3は、在室者Aに向けて重点的に風を送るようにする。これによって、在室者A,Bの両者にとって快適な空調を行うことができる。
<効果>
 本実施形態によれば、通常モードの実行中に在室者の好みの設定温度等を学習し、おまかせモードでは学習結果に基づく空調を行うことで、在室者の好みに合わせた空調制御を行うことができる。また、在室者の服の色や頭頂部の色に基づいて在室者を適切に識別(S103:図20参照)できることと相まって、空調の快適性を第1実施形態よりもさらに高めることができる。
≪第5実施形態≫
 第5実施形態は、現時点での特徴量の登録値と、現時点での特徴量の検出値と、の平均値を、次回に用いる特徴量の登録値とする点が第4実施形態とは異なっているが、その他については第4実施形態と同様である。したがって、第4実施形態とは異なる部分について説明し、重複する部分については説明を省略する。
 図21(a)は、第5実施形態に係る空気調和機Sの記憶部311に記憶されているデータテーブルであり、現時点における特徴量の登録値を示している。
 図21(a)に示す例では、現時点における在室者Aの各特徴量として、服の色の登録値C1A、頭頂部の色の登録値C2A等が、記憶部311に記憶されている。
 図21(b)は、現時点における特徴量の検出値を示すデータテーブルである。
 図21(a)に示す例では、現時点における在室者Aの各特徴量の検出値として、服の色の検出値c1A、頭頂部の色の検出値c2A等が、記憶部311に記憶されている。
 図21(c)は、次回に用いる特徴量の登録値を示すデータテーブルである。
 図21(c)に示すように、制御部3は、現時点における特徴量の登録値(図21(a)参照)と、現時点における特徴量の検出値(図21(b)参照)と、の平均値を、次回に用いる特徴量の登録値として用いる。例えば、制御部3は、次回に用いる在室者Aの服の色の登録値として、現時点での服の色の登録値C1Aと、現時点での服の色の検出値c1Aと、の平均値(Ca1+ca1)/2を用いる。なお、他の特徴量についても同様であり、また、他の在室者についても同様である。
 図22は、現時点における特徴量の登録値、現時点における特徴量の検出値、及び、次回に用いる特徴量の登録値の変化を示す説明図である。
 なお、図22の横軸は時刻である。縦軸は、在室者Aの服の色を示す特徴量である。また、□印は、現時点における特徴量の登録値であり、○印は、現時点における特徴量の検出値であり、●印は、次回に用いる特徴量の登録値である。
 図22に示す例では、時刻t3~t5において、在室者Aの服の色の検出値(○印)が大きく変動している。例えば、在室者Aが照明の点灯・消灯を行ったり、それまでとは異なる種類の照明器具を点灯させたりすると、それに伴って、在室者Aの服の色の検出値も大きく変動する。
 本実施形態では、次回に用いる(つまり、実際に在室者Aの識別に用いる)特徴量の登録値として、前記したように、平均値(C1A+c1A)/2を用いている。これによって、図22に示す○印で示す検出値が急激に変動しても、●印で示す平均値の変動を緩やかにすることができる。つまり、特徴量の登録値が急激に変動することを抑制できる。
 図22に示すように、新たな登録値として平均値(C1A+c1A)/2を用いる処理が、所定時間Δtαごとに繰り返される。そして、この新たな登録値を用いて在室者が識別され、その識別結果に基づいて、第4実施形態で説明した一連の処理(図20参照)が実行される。
 なお、前記した登録値の更新を色特徴量についてのみ行い、形状特徴量については行わないようにしてもよい。部屋に入射する光の色や明るさが変化しても、形状特徴量の検出値は変化しにくいからである。
<効果>
 本実施形態によれば、照明器具の点灯・消灯や、日射量の経時的な変化(晴天、夕焼け、雲り等)が生じた場合でも、在室者を適切に識別し続けることができる。また、輝度等の自動補正の機能がカメラに備わっている場合でも、この自動補正に伴う特徴量の揺らぎを抑制できる。したがって、在室者の識別を精度よく行い、ひいては、快適な空調を継続できる。
≪変形例≫
 以上、本発明に係る空気調和機Sについて各実施形態により説明したが、本発明はこれらの記載に限定されるものではなく、種々の変更を行うことができる。
 例えば、各実施形態では、在室者を識別するための特徴量として、在室者の服の色、頭頂部の色、顔の皮膚の色、頭部の形状、体型、目の大きさ、両目間の距離、及び唇の横幅を用いる場合について説明したが、これに限らない。例えば、在室者の識別に用いる特徴量として、単位時間当たりの在室者の移動距離である「移動量」を追加してもよいし、他の特徴量よりも「移動量」を優先的に用いるようにしてもよい。このように「移動量」を用いることで、例えば、一方は静止しており、他方は動いている二人の在室者を見分けやすくなる。
 また、在室者を識別するための特徴量として、以下で説明するように、在室者の姿勢を追加してもよい。
 図23(a)は、在室者が立っているときの姿勢に関する説明図である。
 在室者の姿勢を表す特徴量は、例えば、在室者の顔中心rと体中心rとの距離L(画素数)と、在室者の体中心rと足の位置rとの距離L(画素数)と、の和(L+L)で表される。
 図23(b)は、在室者が座っているときの姿勢に関する説明図である。
 在室者が座っている姿勢は、立っている姿勢(図23(a)参照)と比較して、在室者の体中心rと足の位置rとの距離Lが短くなる。その結果、在室者が座っているときの和(L+L)は、在室者が立っているときの和(L+L)よりも小さくなる。このように、在室者の姿勢の変化に伴って、前記した和(L+L)の大きさが変化する。このように、在室者の姿勢を表す特徴量として、和(L+L)を用いることができる。なお、前記した和(L+L)に代えて、比率(L/L)を用いてもよいし、また、姿勢を特定する他の周知の方法を用いてもよい。
 また、第3実施形態(図19参照)と同様にして、在室者の所定時間における姿勢の変化量が大きいほど、形状重み係数wsjよりも色重み係数wckを相対的に大きくするようにしてもよい。これによって、在室者が室内で動き回っている場合でも、在室者を適切に識別できる。
 また、各実施形態では、在室者の色特徴量及び形状特徴量に基づいて、在室者の識別を行う場合にいて説明したが、これに限らない。すなわち、在室者検出部312aによって検出される在室者の服の色、及び、在室者の頭頂部の色に基づいて、在室者の識別を行うようにしてもよい。また、在室者検出部312aによって検出される在室者の服の色、又は、在室者の頭頂部の色に基づいて、在室者の識別を行うようにしてもよい。
 なお、在室者の服の色、及び/又は、在室者の頭頂部の色に基づいて在室者の識別を行う場合、在室者識別部312bは、在室者検出部312aによって検出される色特徴量の検出値と、記憶部311に記憶されている色特徴量の登録値に基づいて、在室者の識別を行う。このようにしても、服の色や頭頂部の色に基づいて、在室者を適切に識別できる。
 また、服の色及び/又は頭頂部の色と、在室者の肌の色、頭部の形状、体型、目の大きさ、両目間の距離、唇の横幅、移動量、姿勢、身長、手・足の長さ、及び声のうち少なくとも一つと、に基づいて在室者を識別するようにしてもよい。
 また、例えば、第4実施形態で説明した学習処理(S402:図20参照)を実行するとともに、撮像部14の撮像範囲における色又は明るさの検出値の変化に伴って、変化後の検出値に近づけるように色特徴量の登録値を変化させてもよい。この場合において在室者識別部312bは、学習処理部312dによる変化後の色特徴量の登録値を用いて、在室者の識別を行う。例えば、昼間から夕方にかけて、夕焼けの影響で、撮像範囲における色の平均値が赤系統に変化することがある。この場合、学習処理部312dは、次回に用いる(つまり、在室者の識別に実際に用いる)色の特徴量の登録値を赤系統に変化させる。これによって、部屋に照射される光の色が経時的に変化しても、在室者を適切に識別できる。
 また、記憶部311に記憶されている各人の特徴量の登録値を所定時間(例えば、1日)ごとにリセットしてもよいし、また、リセットする時間を各特徴量において異なる長さに設定してもよい。例えば、服の色については、在室者が服を着替えるまでの時間を考慮して1日ごとにリセットし、髪の色や体型等についてはリセットするまでの時間を長めに設定してもよい。また、例えば、現在までの所定時間における色特徴量の登録値を記憶部311に記憶し、記憶部311の記憶容量等を考慮して、前記した所定時間よりも前の色特徴量の登録値を記憶部311から消去するようにしてもよい。すなわち、在室者識別部312bは、在室者検出部312aによって検出される色特徴量の検出値と、記憶部311に記憶されている所定時間前までの色特徴量の登録値に基づいて、在室者の識別を行うようにしてもよい。
 また、第1実施形態では、下側画像領域U(図8(a)参照)に含まれる各画素の色区分(図8(b)参照)を特定し、各色区分における画素数の分布に基づいて在室者を識別する場合について説明したが、これに限らない。例えば、下側画像領域U(図8(a)参照)に含まれる各画素の色を色空間上のベクトルに変換し、画素の色に対応する複数のベクトルの重心で服の色を表すようにしてもよい。なお、頭頂部の色についても同様である。
 また、第3実施形態では、在室者識別処理(S103:図18参照)が行われるよりも先に、在室者の位置の変化量に基づいて重み係数の大きさを変更する(S301、S302:図18参照)処理について説明したが、これに限らない。すなわち、在室者識別処理を行った後、その在室者の位置の変化量に基づいて重み係数の大きさを変更し、変更後の重み係数を次回の識別に用いるようにしてもよい。
 また、各実施形態は、適宜組み合わせることができる。例えば、第1実施形態と第5実施形態を組み合せ、特徴量の登録値を逐次更新する処理(図21、図22参照)を行うとともに、在室時間の長さに基づいて空調制御を行うようにしてもよい(図5参照)。
 また、実施形態は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、前記した機構や構成は説明上必要と考えられるものを示しており、製品上必ずしも全ての機構や構成を示しているとは限らない。
 S   空気調和機
 100 室内機
 14  撮像部
 3   制御部
 31  カメラマイコン
 32  メインマイコン
 311 記憶部
 312,312A 画像処理部
 312a 在室者検出部
 312b 在室者識別部
 312c 在室時間算出部
 312d 学習処理部
 312e 重み係数補正部
 321 記憶部
 322 演算処理部(空調制御部)
 323 駆動制御部(空調制御部)
 4   環境検出部
 P   上側画像領域
 U   下側画像領域
 300 リモコン

Claims (13)

  1.  室内を撮像する撮像部と、
     前記撮像部の撮像結果に基づいて、前記室内の在室者を検出する在室者検出部と、
     前記在室者検出部によって検出される在室者の服の色、及び/又は、在室者の頭頂部の色に基づいて、在室者の識別を行う在室者識別部と、
     前記在室者識別部の識別結果に基づいて、空調制御を変更する空調制御部と、
     を備えることを特徴とする空気調和機。
  2.  前記在室者検出部は、前記撮像部の撮像結果に基づいて、在室者の顔の位置を特定し、
     前記在室者識別部は、前記顔の下方に位置する下側画像領域の色に基づいて、在室者の服の色を特定すること
     を特徴とする請求項1に記載の空気調和機。
  3.  前記在室者検出部は、前記撮像部の撮像範囲に占める在室者の頭部の大きさを算出し、
     前記在室者識別部は、前記撮像範囲における前記頭部の大きさに応じて前記下側画像領域の範囲を変更すること
     を特徴とする請求項2に記載の空気調和機。
  4.  前記在室者検出部は、前記撮像部の撮像結果に基づいて、在室者の顔の位置を特定し、
     前記在室者識別部は、前記顔の上方に位置する上側画像領域の色に基づいて、在室者の頭頂部の色を特定すること
     を特徴とする請求項1に記載の空気調和機。
  5.  前記在室者検出部は、前記撮像部の撮像範囲に占める在室者の頭部の大きさを算出し、
     前記在室者識別部は、前記撮像範囲における前記頭部の大きさに応じて前記上側画像領域の範囲を変更すること
     を特徴とする請求項4に記載の空気調和機。
  6.  在室者の服の色、及び/又は、在室者の頭頂部の色を含む色特徴量を記憶する記憶部を備え、
     前記在室者識別部は、前記在室者検出部によって検出される前記色特徴量の検出値と、前記記憶部に記憶されている前記色特徴量の登録値に基づいて、在室者の識別を行うこと
     を特徴とする請求項1に記載の空気調和機。
  7.  在室者の服の色、及び/又は、在室者の頭頂部の色を含む色特徴量を記憶する記憶部を備え、
     前記在室者識別部は、前記在室者検出部によって検出される前記色特徴量の検出値と、前記記憶部に記憶されている所定時間前までの前記色特徴量の登録値に基づいて、在室者の識別を行うこと
     を特徴とする請求項1に記載の空気調和機。
  8.  前記記憶部には、在室者の頭部の形状、在室者の体型、在室者の顔の画素数に占める目の画素数の比率、在室者の頭部の横幅に占める両目間の距離の比率、及び、在室者の頭部の横幅に占める口の横幅の比率のうち少なくとも一つを含む形状特徴量の登録値が、前記色特徴量とともに、在室者の識別情報に対応付けて登録され、
     前記在室者識別部は、前記色特徴量の検出値と、前記色特徴量の登録値と、の比較結果、及び、前記形状特徴量の検出値と、前記形状特徴量の登録値と、の比較結果に基づいて、在室者の識別を行うこと
     を特徴とする請求項6又は請求項7に記載の空気調和機。
  9.  前記在室者識別部は、前記在室者検出部によって検出された在室者の中に、前記記憶部に登録されていない在室者が存在する場合、当該在室者の前記色特徴量及び前記形状特徴量を前記記憶部に新たに登録すること
     を特徴とする請求項8に記載の空気調和機。
  10.  設定温度、設定湿度、風向、及び風量のうち少なくとも一つを含む設定値を、在室者によるリモコンの操作に応じて変更する通常モードの実行中、前記在室者識別部によって識別された在室者の好みの前記設定値を学習する学習処理を実行する学習処理部を備え、
     前記学習処理部は、在室者の好みに合わせた空調を行うおまかせモードにおいて、前記学習処理の学習結果に基づいて、前記設定値を変更し、
     前記空調制御部は、前記学習処理部による変更後の前記設定値に基づいて、空調制御を変更すること
     を特徴とする請求項6又は請求項7に記載の空気調和機。
  11.  前記学習処理部は、前記学習処理を実行するとともに、前記在室者検出部によって検出された在室者に関して、前記記憶部に登録されている前記色特徴量の登録値と、前記撮像部の撮像結果に基づく前記色特徴量の検出値と、の和の平均値を新たな登録値として更新する処理を繰り返すこと
     を特徴とする請求項10に記載の空気調和機。
  12.  前記学習処理部は、前記学習処理を実行するとともに、前記撮像部の撮像範囲における色又は明るさの検出値の変化に伴って、変化後の前記検出値に近づけるように前記色特徴量の登録値を変化させ、
     前記在室者識別部は、前記学習処理部による変化後の前記色特徴量の登録値を用いて、在室者の識別を行うこと
     を特徴とする請求項10に記載の空気調和機。
  13.  前記在室者識別部によって識別された在室者の在室時間を算出する在室時間算出部を備え、
     前記空調制御部は、前記在室時間算出部によって算出される前記在室時間が他の在室者よりも相対的に短い在室者に、空気調和された空気をより長く送ること
     を特徴とする請求項1に記載の空気調和機。
PCT/JP2017/009292 2016-03-22 2017-03-08 空気調和機 WO2017163883A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201780004227.5A CN108474583B (zh) 2016-03-22 2017-03-08 空调机

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-056544 2016-03-22
JP2016056544A JP6671201B2 (ja) 2016-03-22 2016-03-22 空気調和機

Publications (1)

Publication Number Publication Date
WO2017163883A1 true WO2017163883A1 (ja) 2017-09-28

Family

ID=59900188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009292 WO2017163883A1 (ja) 2016-03-22 2017-03-08 空気調和機

Country Status (3)

Country Link
JP (1) JP6671201B2 (ja)
CN (1) CN108474583B (ja)
WO (1) WO2017163883A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108981109A (zh) * 2018-08-30 2018-12-11 广东美的暖通设备有限公司 空调的控制方法、装置及空调
WO2020115791A1 (ja) * 2018-12-03 2020-06-11 三菱電機株式会社 設備機器制御装置、設備機器制御方法および学習方法
CN109916055A (zh) * 2019-03-08 2019-06-21 百度在线网络技术(北京)有限公司 控制方法和装置
CN112066450A (zh) * 2020-09-15 2020-12-11 美的集团武汉制冷设备有限公司 空调器、空调器的控制方法及计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (ja) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd 画像処理装置と画像処理装置を用いた応用機器
JP2011137589A (ja) * 2009-12-28 2011-07-14 Mitsubishi Electric Corp 空気調和機、空気調和機の制御装置
JP2011220612A (ja) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp 空気調和機
US20130141559A1 (en) * 2004-09-17 2013-06-06 Proximex Corporation Adaptive multi-modal integrated biometric identification detection and surveillance systems
US20130243240A1 (en) * 2012-03-13 2013-09-19 Tim K. Marks Camera-Based 3D Climate Control
JP2013253717A (ja) * 2012-06-05 2013-12-19 Hitachi Appliances Inc 空気調和機、及び空気調和機の制御方法
WO2014009291A1 (en) * 2012-07-12 2014-01-16 Osram Gmbh Vision based occupancy detection system and method
JP2015055384A (ja) * 2013-09-11 2015-03-23 日立アプライアンス株式会社 空気調和機

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5085670B2 (ja) * 2010-02-24 2012-11-28 株式会社東芝 空調制御システムおよび空調制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (ja) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd 画像処理装置と画像処理装置を用いた応用機器
US20130141559A1 (en) * 2004-09-17 2013-06-06 Proximex Corporation Adaptive multi-modal integrated biometric identification detection and surveillance systems
JP2011137589A (ja) * 2009-12-28 2011-07-14 Mitsubishi Electric Corp 空気調和機、空気調和機の制御装置
JP2011220612A (ja) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp 空気調和機
US20130243240A1 (en) * 2012-03-13 2013-09-19 Tim K. Marks Camera-Based 3D Climate Control
JP2013253717A (ja) * 2012-06-05 2013-12-19 Hitachi Appliances Inc 空気調和機、及び空気調和機の制御方法
WO2014009291A1 (en) * 2012-07-12 2014-01-16 Osram Gmbh Vision based occupancy detection system and method
JP2015055384A (ja) * 2013-09-11 2015-03-23 日立アプライアンス株式会社 空気調和機

Also Published As

Publication number Publication date
JP2017172828A (ja) 2017-09-28
JP6671201B2 (ja) 2020-03-25
CN108474583B (zh) 2019-05-21
CN108474583A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
WO2017163883A1 (ja) 空気調和機
JP4852159B2 (ja) 画像処理装置、画像処理方法および空調制御装置
US20090115597A1 (en) Energy saving and security system
JP5085670B2 (ja) 空調制御システムおよび空調制御方法
JP2978374B2 (ja) 画像処理装置及び画像処理方法並びに空気調和機の制御装置
KR101333661B1 (ko) 공기 조화기, 및 공기 조화기의 제어 방법
KR102121785B1 (ko) 인공지능을 이용하여 지시된 위치로 풍향을 제어하는 에어컨 및 이를 제어하는 방법
JP5511477B2 (ja) 空気調和機
JP2005172288A (ja) 空気調和装置の制御システム
US20030096572A1 (en) Space-conditioning control employing image-based detection of occupancy and use
US9581987B2 (en) Device control apparatus, program, device control server, and device control system, for determining control contents of load device by performing negotiation on behalf of user
JP6681816B2 (ja) 空気調和機
JP2010025359A (ja) 空気調和機
JP2011137589A (ja) 空気調和機、空気調和機の制御装置
CN113108437A (zh) 一种空调控制方法、装置、存储介质及空调
JP2012037102A (ja) 人物識別装置、人物識別方法及び人物識別装置を備えた空気調和機
KR102314903B1 (ko) 영상 기반 건물 제어 방법 및 장치
JP2013024534A (ja) 状況認識装置
JP2017053603A (ja) 空気調和機
JP7172394B2 (ja) 空気調和装置及び生体情報解析システム
JP2015137836A (ja) 空気調和機、およびその室内ユニット
CN107969143A (zh) 判定支援装置、判定支援方法以及程序
CN108278726A (zh) 一种瑜伽室净化空调及其控制方法
JP6914279B2 (ja) 制御装置、空調機、空調システム及び空調制御方法
JP7330750B2 (ja) 空調制御システム及びプログラム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17769928

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17769928

Country of ref document: EP

Kind code of ref document: A1