WO2021019768A1 - 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機 - Google Patents

室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機 Download PDF

Info

Publication number
WO2021019768A1
WO2021019768A1 PCT/JP2019/030267 JP2019030267W WO2021019768A1 WO 2021019768 A1 WO2021019768 A1 WO 2021019768A1 JP 2019030267 W JP2019030267 W JP 2019030267W WO 2021019768 A1 WO2021019768 A1 WO 2021019768A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
image
pixels
determination unit
pixel
Prior art date
Application number
PCT/JP2019/030267
Other languages
English (en)
French (fr)
Inventor
直大 澁谷
友也 藤野
守屋 芳美
杉本 和夫
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/030267 priority Critical patent/WO2021019768A1/ja
Priority to JP2021536578A priority patent/JP6987314B2/ja
Publication of WO2021019768A1 publication Critical patent/WO2021019768A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Definitions

  • the present invention relates to an indoor layout estimation device, an indoor layout estimation method, and an air conditioner for determining an area where a window exists in a target area.
  • a window that compares the brightness of each of a plurality of pixels included in the image information with the brightness threshold value and detects a region including pixels having a brightness larger than the brightness threshold value as a window area.
  • the detection method is disclosed.
  • the brightness threshold value is set high so that the wall surface of the air-conditioning room and the window can be distinguished.
  • the brightness threshold value is set low.
  • the brightness of a plurality of pixels included in the image information fluctuates depending on the outside air temperature.
  • the window detection method disclosed in Patent Document 1 since the brightness threshold value is set regardless of the outside air temperature, the window area is also detected regardless of the outside air temperature. Therefore, the window detection method has a problem that erroneous detection of the window area may occur when the outside air temperature changes.
  • the present invention has been made to solve the above problems, and an object of the present invention is to obtain an indoor layout estimation device that can prevent erroneous detection of a window area even if the outside air temperature changes.
  • the temporal time of each pixel value in the plurality of pixels is used as the evaluation value of each of the plurality of pixels included in the image output from the infrared camera that is capturing the target area.
  • the first is the evaluation value calculated by the similarity calculation unit among the plurality of pixels included in the image and the similarity calculation unit that calculates the similarity between the transition and the temporal transition of the outside temperature.
  • a region including pixels larger than the threshold value is provided with a window region determination unit for determining that the region includes a window in the image.
  • the present invention it is possible to prevent erroneous detection of the window area even if the outside air temperature changes.
  • FIG. 5 is a hardware configuration diagram of a computer when the indoor layout estimation device 2 is realized by software, firmware, or the like. It is a flowchart which shows the room layout estimation method which is the processing procedure of the room layout estimation apparatus 2.
  • FIG. 1 is a configuration diagram showing an air conditioner including the indoor layout estimation device 2 according to the first embodiment.
  • the infrared camera 1, at regular time intervals Delta] t, imaged repeatedly target area, an image obtained by imaging an object region, the indoor layout estimated image G 1 ⁇ G M of the M image capturing time t are different from each other Output to device 2.
  • M is an integer greater than or equal to 2.
  • the constant time interval ⁇ t is, for example, a time interval that enables imaging at any frame rate of 10 frames per second to 60 frames per second.
  • the target area is a part or the whole of a room where the air is adjusted by the air conditioner 4 described later, and the target area includes windows, floors, walls, human beings, desks, personal computers and the like.
  • Target region because it is fixed, M-number of the image G 1 ⁇ G M are images identical target area is imaged.
  • Image G m is N pixels p 1, m ⁇ p N, includes a m, pixel p 1, m ⁇ p N, each pixel value pd 1 in m, m ⁇ pd N, m is the temperature Is shown.
  • N is an integer of 2 or more.
  • the pixel p 1, 1 ⁇ p 1, M contained in each of the M image G 1 ⁇ G M has the same pixel pixel position to each other, ie, each of the image G 1 ⁇ G M
  • the pixels p 2, 1 to p 2, M that are included are pixels having the same pixel positions.
  • the pixel p N, 1 ⁇ p N, M contained in each of the images G 1 ⁇ G M, the pixel position is the same pixels from each other.
  • Room layout estimation device 2 based on the M image G 1 ⁇ G M outputted from the infrared camera 1, in the target area, the window is in region (hereinafter, referred to as “window area”), the floor (Hereinafter referred to as “floor area”) and the area where the wall is located (hereinafter referred to as “wall area”) are determined.
  • the indoor layout estimation device 2 outputs each of the determination result of the window area, the determination result of the floor area, and the determination result of the wall area to the control unit 3.
  • the control unit 3 adjusts the air in the target area by controlling, for example, the air conditioner 4 based on the determination result output from the indoor layout estimation device 2.
  • the air conditioner 4 is a device that adjusts the air in the target area. In the air conditioner shown in FIG. 1, the control unit 3 adjusts the air in the target region by controlling the air conditioner 4. However, this is only an example, and the control unit 3 may adjust the air in the target area by controlling a device such as a fan, a floor heater, or a panel heater.
  • FIG. 2 is a configuration diagram showing an indoor layout estimation device 2 according to the first embodiment.
  • FIG. 3 is a hardware configuration diagram showing the hardware of the indoor layout estimation device 2 according to the first embodiment.
  • the indoor layout estimation device 2 includes an image storage unit 10, an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, a floor area determination unit 16, and a wall area.
  • the determination unit 17 is provided.
  • the image storage unit 10 is realized by, for example, the image storage circuit 20 shown in FIG. Image storage unit 10 stores the M image G 1 ⁇ G M outputted from the infrared camera 1.
  • the outside air temperature storage unit 11 is realized by, for example, the outside air temperature storage circuit 21 shown in FIG. Outside temperature storage unit 11 is, for example, by a thermometer, was measured at constant time intervals Delta] t ', the measurement time t stores M different outside air temperature T 1 ⁇ T M together.
  • T m 1, ..., M
  • the outside air temperature storage unit 11 stores the outside air temperature T 1 ⁇ T M measured by the thermometer.
  • the communication unit (not shown) of the indoor layout estimation device 2 downloads the temperature data near the building including the target area from, for example, a site on the Internet that distributes meteorological data.
  • outside temperature storage unit 11 may be configured to store the data of the temperature as the outside air temperature T 1 ⁇ T M.
  • Time interval Delta] t 'of the measurement in the M outside air temperature T 1 ⁇ T M, the time interval Delta] t of the imaging in the M image G 1 ⁇ G M, are identical. Therefore, the measurement time t'of the mth outside air temperature Tm and the imaging time t of the mth image Gm are the same time.
  • the measurement time interval ⁇ t'and the imaging time interval ⁇ t are not limited to those that are exactly the same, and the measurement time interval ⁇ t'and the imaging time interval ⁇ t are within a range where there is no practical problem. May be different from each other.
  • the m-th measurement time t'and the m-th imaging time t are not limited to those that are exactly the same, and the m-th measurement time t'and m are within a range where there is no practical problem.
  • the second imaging time t may be different from each other.
  • the similarity calculation unit 12 is realized by, for example, the similarity calculation circuit 22 shown in FIG. Similarity calculation unit 12 obtains the M pieces of the image G 1 ⁇ G M stored in the image storage unit 10. Similarity calculation unit 12, N pieces of pixels included in the image G m p 1, m ⁇ p N, a respective evaluation values S 1 ⁇ S N of m, N pixels p 1, m ⁇ p calculating N, each pixel value pd 1 in m, m ⁇ pd N, and temporal changes in m, the similarity between the temporal changes of the outside air temperature T m which is stored in the outside temperature storage unit 11 . Similarity calculation unit 12 outputs the respective evaluation values S 1 ⁇ S N which calculated the window region judgment section 13.
  • the window area determination unit 13 is realized by, for example, the window area determination circuit 23 shown in FIG. Window region judgment section 13, of the M image G 1 ⁇ G M stored in the image storage unit 10, and acquires any one of the images G m.
  • the region evaluation value S n comprises greater pixel than the first threshold value Th 1, the image G it is determined to be a window region W m in the m.
  • the first threshold value Th 1 may be stored in the internal memory of the window area determination unit 13, or may be given from the outside of the indoor layout estimation device 2 shown in FIG.
  • the window area determination unit 13 supplies, for example, data indicating the coordinates in the image G m in which the window area W m exists to the control unit 3 and the wall area determination unit 17, respectively. Output.
  • the standard deviation calculation unit 14 includes a pixel group identification unit 14a and a deviation calculation processing unit 14b.
  • the standard deviation calculation unit 14 is realized by, for example, the standard deviation calculation circuit 24 shown in FIG. Standard deviation calculating unit 14 obtains the M pieces of the image G 1 ⁇ G M stored in the image storage unit 10.
  • the standard deviation calculation unit 14 includes pixels p 1, 1 to p N, 1 , p 1 , 2 , p N, 2 , ..., P 1 included in each of the M images G 1 to GM. , M to p N, M , each evaluation value v 1 to v N of N pixel groups (1) to (N) including pixels having the same pixel position is calculated.
  • the pixel group (1) includes pixels p 1 , 1 , p 1 , 2 , ..., P 1, M
  • the pixel group (2) includes pixels p 2 , 1 , p 2 , 2 , ... .., p 2, M is included.
  • the pixel group (N) includes pixels p N, 1 , p N, 2 , ..., P N, M.
  • the standard deviation calculation unit 14 outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.
  • FIG. 4 is a configuration diagram showing the inside of the standard deviation calculation unit 14 according to the first embodiment.
  • Pixel group identifying unit 14a obtains the M pieces of the image G 1 ⁇ G M stored in the image storage unit 10.
  • the pixel group identification unit 14a includes pixels p 1, 1 to p N, 1 , p 1 , 2 , p N, 2 , ..., P 1 included in each of the M images G 1 to GM. , M to p N, M , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.
  • the deviation calculation processing unit 14b is included in the respective pixel groups (1) to (N) as the evaluation values v 1 to v N of the respective pixel groups (1) to (N) specified by the pixel group identification unit 14a. It is to have M pieces of pixel p n, 1 ⁇ p n, pixel values in the M pd n, 1 ⁇ pd n , calculates the standard deviation of M.
  • the deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.
  • the foreground region determination unit 15 is realized by, for example, the foreground region determination circuit 25 shown in FIG.
  • a pixel group (n) larger than the threshold Th 2 of is specified.
  • the second threshold value Th 2 may be stored in the internal memory of the foreground area determination unit 15, or may be given from the outside of the indoor layout estimation device 2 shown in FIG.
  • Foreground region determining unit 15 N pieces of pixels p 1 contained in each image G m, m ⁇ p N, of m, the pixel p n, which is included in the identified group of pixels (n), m It is determined that the region including is the foreground region F m in each image G m .
  • the foreground area is an area where a moving body such as a human or an animal exists.
  • the foreground area F m is an area other than the background area B m in the image G m . Therefore, the foreground region determination unit 15 may first determine the background region B m and then determine the foreground region F m . In this case, the foreground area determination unit 15 first among the N pixel groups (1) ⁇ (N), evaluation value v n calculated by the standard deviation calculating section 14 of the second threshold value Th 2 or less The pixel group (n) is specified.
  • the foreground region determining unit 15, in the captured image G m, the area other than the background area B m may be determined as a foreground region F m.
  • the floor area determination unit 16 is realized by, for example, the floor area determination circuit 26 shown in FIG.
  • the floor area determination unit 16 exists at the lower end position in the y direction of the image G m among the plurality of pixels pn and m included in each foreground area F m determined by the foreground area determination unit 15.
  • the pixels are specified as floor area pixels. If the foreground area F m is, for example, an area where a human is present, the position of the lower end in the foreground area F m corresponds to the position of the human foot, and the position of the human foot corresponds to the position of the floor. ..
  • the floor area determination unit 16 determines that the area including all the floor area pixels included in each foreground area F m is the floor area Y m in each image G m .
  • the pixel existing at the lower end position in the y direction of the image G m is the plurality of pixels p included in the foreground region F m.
  • the pixel has the smallest y-coordinate.
  • the floor area determination unit 16 supplies data indicating the coordinates in the image G m in which the floor area Y m exists to the control unit 3 and the wall area determination unit 17, respectively. Output.
  • the wall area determination unit 17 is realized by, for example, the wall area determination circuit 27 shown in FIG.
  • the wall area determination unit 17 determines the wall area K m in the target area based on the window area W m determined by the window area determination unit 13 and the floor area Y m determined by the floor area determination unit 16. judge. The method for determining the wall area K m will be described later.
  • the wall area determination unit 17 outputs, for example, data indicating the coordinates in the image G m in which the wall area K m exists to the control unit 3.
  • the image storage unit 10, the outside air temperature storage unit 11, the similarity calculation unit 12, the window area determination unit 13, the standard deviation calculation unit 14, the foreground area determination unit 15, and the floor which are the components of the indoor layout estimation device 2 are shown.
  • each of the area determination unit 16 and the wall area determination unit 17 is realized by dedicated hardware as shown in FIG. That is, the indoor layout estimation device 2 includes an image storage circuit 20, an outside temperature storage circuit 21, a similarity calculation circuit 22, a window area determination circuit 23, a standard deviation calculation circuit 24, a foreground area determination circuit 25, a floor area determination circuit 26, and the like. It is assumed that it is realized by the wall area determination circuit 27.
  • each of the image storage circuit 20 and the outside temperature storage circuit 21 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Program Read Online Memory), and an EEPROM (Epil).
  • Non-volatile or volatile semiconductor memory such as Read Only Memory), magnetic disk, flexible disk, optical disk, compact disk, mini disk, or DVD (Digital Versaille Disc) is applicable.
  • each of the similarity calculation circuit 22, the window area determination circuit 23, the standard deviation calculation circuit 24, the foreground area determination circuit 25, the floor area determination circuit 26 and the wall area determination circuit 27 is, for example, a single circuit, a composite circuit, or the like.
  • a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Progressable Gate Array), or a combination thereof is applicable.
  • the components of the indoor layout estimation device 2 are not limited to those realized by dedicated hardware, but the indoor layout estimation device 2 is realized by software, firmware, or a combination of software and firmware. There may be.
  • the software or firmware is stored as a program in the memory of the computer.
  • a computer means hardware for executing a program, and corresponds to, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microprocessor, a processor, or a DSP (Digital Signal Processor).
  • FIG. 5 is a hardware configuration diagram of a computer when the indoor layout estimation device 2 is realized by software, firmware, or the like.
  • each of the image storage unit 10 and the outside air temperature storage unit 11 is configured on the memory 31 of the computer.
  • a program for causing the computer to execute the processing procedures of the similarity calculation unit 12, the window area determination unit 13, the standard deviation calculation unit 14, the foreground area determination unit 15, the floor area determination unit 16, and the wall area determination unit 17 is stored in the memory 31. It is stored. Then, the processor 32 of the computer executes the program stored in the memory 31.
  • FIG. 3 shows an example in which each of the components of the indoor layout estimation device 2 is realized by dedicated hardware
  • FIG. 5 shows an example in which the indoor layout estimation device 2 is realized by software, firmware, or the like. Shown. However, this is only an example, and some components in the indoor layout estimation device 2 may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • Infrared camera 1 at regular time intervals Delta] t, imaged repeatedly target area as the image of the target region, and outputs the image G 1 ⁇ G M of the M image capturing time t are different from each other in the room layout estimation device 2.
  • Image G 1 ⁇ G M of the M output from the infrared camera 1 is stored in the image storage unit 10 of the indoor layout estimation device 2.
  • FIG. 6 is a flowchart showing an indoor layout estimation method, which is a processing procedure of the indoor layout estimation device 2. Similarity calculation unit 12, from the image storage unit 10, the imaging time t to obtain the M different image G 1 ⁇ G M together. If the current time, for example 00 pm 19, similarity calculation unit 12, from the image storage unit 10, starting from the 00 pm 19, for example, acquires image G m for the past 12 hours.
  • FIG. 7 shows a pixel p included in the window area W m among the N pixels p 1, m to p N, m included in each of the images G m for the past 12 hours.
  • n is an explanatory diagram showing an example of temporal transition of pixel values pd n, m of the m.
  • the similarity calculation unit 12 acquires M outside air temperatures T 1 to TM having different measurement times t'from the outside air temperature storage unit 11. If the current time is 00 minutes at 19, the similarity calculation unit 12, from the outside temperature storage unit 11, starting from the 00 pm 19 obtains the outside air temperature T m of a last 12 hours. Here, the similarity calculating unit 12 obtains the image G m of the last 12 hours, we have obtained outside air temperature T m of a last 12 hours. However, this is only an example, the similarity calculating unit 12, for example, acquires image G m for the past 24 hours, may be obtained outside air temperature T m of a last 24 hours.
  • Similarity calculation unit 12 N pieces of pixels included in the image G m p 1, m ⁇ p N, a respective evaluation values S 1 ⁇ S N of m, N pixels p 1, m ⁇ p
  • the degree of similarity between the temporal transition of the respective pixel values pd 1, m to pd N, m at N and m and the temporal transition of the outside temperature T m is calculated (step ST1 in FIG. 6).
  • a temporal transition of the pixel p n, pixel values pd n, m of the m, the evaluation value S n is the degree of similarity between the temporal changes of the outside air temperature T m is for example, the following formula (1) It is expressed as.
  • the similarity calculating unit 12 calculates the degree of similarity represented by the formula (1).
  • Figure 8 is an explanatory diagram showing an example of calculation results of evaluation value S 1 ⁇ S N by the similarity calculation unit 12. 8, a region closer to black, indicating a similarity evaluation value S n is higher regions.
  • Similarity calculation unit 12 outputs the respective evaluation values S 1 ⁇ S N which calculated the window region judgment section 13.
  • the window area determination unit 13 acquires an image G m of any one of M images G 1 to GM having different imaging times t from the image storage unit 10.
  • One image G m acquired by the window area determination unit 13 may be any of M images G 1 to GM.
  • Window region judgment section 13 may, for example, an imaging time t may acquire the image G M of the latest time, also the imaging time t acquires image G M-1 of the old time than the latest time Good.
  • Window region judgment section 13 compares each of the evaluation value S 1 ⁇ S N calculated by the similarity calculation unit 12, the first and the threshold Th 1.
  • Pixel p n if the evaluation value S n of the m first threshold Th 1 or less (step of FIG. 6 ST2: in the case of NO), the pixel p n, m is a window area W m outside the pixel.
  • the window area determination unit 13 has determined that the pixels are within the window area W m among the N pixels p 1, m to p N, m included in the acquired image G m. It is determined that the region including n and m is the window region W m in the image G m (step ST4 in FIG. 6).
  • FIG. 9 is an explanatory diagram showing an example of a determination result of the window area W m by the window area determination unit 13. In FIG. 9, the shaded area is the window area W m . In FIG. 9, the region closer to white is the region where the temperature is higher.
  • the window area determination unit 13 supplies, for example, data indicating the coordinates in the image G m in which the window area W m exists to the control unit 3 and the wall area determination unit 17, respectively. Output.
  • the pixel group identification unit 14a includes pixels p 1, 1 to p N, 1 , p 1 , 2 , p N, 2 , ..., P 1 included in each of the M images G 1 to GM. , M to p N, M , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.
  • the deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.
  • Foreground region determining unit 15 from the image storage unit 10, the imaging time t to obtain the M different image G 1 ⁇ G M together.
  • the pixels pn and m are the pixels in the background area B m .
  • the evaluation value v n of is likely to be equal to or less than the second threshold value Th 2 .
  • the pixel p n, pixel values pd n, m of the m in the foreground region F m in order to change over time, the pixel p n in the foreground region F m, a pixel group including m (n)
  • the evaluation value v n of is likely to be larger than the second threshold value Th 2 .
  • the pixel values pd n, m of the pixels pn, m in the window area W m also change with the passage of time.
  • the change in the pixel values pd n, m of the pixels pn, m in the window area W m is extremely small as compared with the change in the pixel values pd n, m due to the movement of a human being or the like. Therefore, the evaluation value v n of the pixel group (n) including the pixels pn and m in the window region W m is likely to be equal to or less than the second threshold value Th 2 .
  • the foreground region determination unit 15 includes pixels p 1, 1 to p N, 1 , p 1 , 2 , p N, 2 , ..., P 1 included in each of the M images G 1 to GM. determination, M ⁇ p n, among the M, all the pixels p n is determined that the pixels in the foreground area F m, a region including the m is the foreground region F m in each of the images G m (Step ST8 in FIG. 6). Foreground region determining unit 15, as the determination result of the foreground region F m, for example, and outputs the foreground region F m is present, the data indicating the coordinates within the image G m in the floor area determination unit 16.
  • FIG. 10 is an explanatory diagram showing an example of a certain image G m among the M captured images G 1 to GM.
  • FIG. 11 is an explanatory diagram showing a background region B m and a foreground region F m in a certain image G m among the M captured images G 1 to GM.
  • the black region is the region determined to be the background region B m
  • the white region is the region determined to be the foreground region F m .
  • the foreground region F m substantially coincides with the region in which a human exists (hereinafter, referred to as “human region H m ”).
  • human region H m the region in which a human exists
  • the notation of the human region H m is omitted.
  • floor area determination unit 16 to be described later, based on the foreground area F m, determine the bed area Y m To do.
  • the floor area determination unit 16 acquires data indicating the coordinates in the image G m in which the foreground area F m exists from the foreground area determination unit 15.
  • Floor area determination unit 16 based on the data indicating the acquired coordinate, a plurality of pixels p n included in each of the foreground region F m in the M image G 1 ⁇ G M, identifies the m.
  • Floor area determination unit 16 a plurality of pixels p n included in each of the foreground region F m, in m, in the y direction of the image G m, floor area pixel pixel present in the position of the lower end Identify as.
  • the position of the lower end in the foreground region F m corresponds to the position of the human foot
  • the position of the human foot corresponds to the position of the floor.
  • Humans usually move over time. Foreground This human positions at each imaging time t is different M pieces of the captured image G 1 ⁇ G M, i.e., the position of the foreground region F 1 ⁇ F M become different from each other, which corresponds to the floor position the position of the lower end of the area F 1 ⁇ F M also meant to be a different from each other. Therefore, by integrating the position of the lower end in the foreground region F 1 ⁇ F M at imaging time t is different M pieces of the captured image G 1 ⁇ G M, it can be estimated floor area Y m.
  • Floor area determination unit 16 a region including all of the floor area pixels included in each of the foreground region F 1 ⁇ F M is determined to be a floor area Y m (step ST9 of FIG. 6). As a determination result of the floor area Y m , the floor area determination unit 16 supplies data indicating the coordinates in the image G m in which the floor area Y m exists to the control unit 3 and the wall area determination unit 17, respectively. Output.
  • the floor area determination unit 16 specifies a pixel existing at the lower end position in the vertical direction as a floor area pixel. However, this is only an example, and the floor area determination unit 16 uses a plurality of pixels existing around the lower end pixel as floor area pixels in addition to the pixel existing at the lower end position in the vertical direction. It may be specified.
  • Figure 12 is an explanatory view showing the lower end of the pixels in the foreground area F 1 ⁇ F M in the M image G 1 ⁇ G M.
  • the white region is an region including the lower end pixels in each foreground region F m .
  • Image 12 is shown, an image lower end of the pixels in each of the foreground region F m in the M image G 1 ⁇ G M is collected.
  • FIG. 12 is shown, an image lower end of the pixels in each of the foreground region F m in the M image G 1 ⁇ G M is collected.
  • FIG. 13 is an explanatory diagram showing an example of a determination result of the floor area Y m by the floor area determination unit 16.
  • the area provided with the horizontal line is the floor area Y m .
  • the white region shown in FIG. 12 and the floor region Y m shown in FIG. 13 are substantially the same, although there is a slight deviation for the convenience of description.
  • the wall area determination unit 17 determines the wall area K m in the target area based on the window area W m determined by the window area determination unit 13 and the floor area Y m determined by the floor area determination unit 16. Judgment (step ST10 in FIG. 6). As a determination result of the wall area K m , the wall area determination unit 17 outputs, for example, data indicating the coordinates in the image G m in which the wall area K m exists to the control unit 3.
  • Wall area determining unit 17, from the image storage unit 10, in the imaging time t is different from the M image G 1 ⁇ G M, to obtain any one of the images G m.
  • One captured image G m acquired by the wall area determination unit 17 may be any of the captured images G 1 to GM of M captured images.
  • Wall area determining unit 17, for example, an imaging time t may acquire the image G M of the latest time, also the imaging time t acquires image G M-1 of the old time than the latest time Good. Further, the wall area determination unit 17 acquires data indicating the coordinates in which the floor area Y m exists from the floor area determination unit 16.
  • the wall area determination unit 17 identifies a plurality of pixels pn, m included in the floor area Y m based on the data indicating the coordinates in which the floor area Y m exists. As shown in FIG. 13, the wall area determination unit 17 identifies the uppermost pixel in the y direction of the image G m among the plurality of pixels p n and m included in the floor area Y m .
  • the upper end of the pixels in the bed area Y m is a plurality contained in the floor area Y m pixel p n, of m, in the x-coordinate of a plurality of identical pixels is the largest pixel y coordinate .
  • nine pixels at the upper end in the floor area Y m are illustrated.
  • the wall area determination unit 17 determines a line including a line connecting the upper end pixels in the floor area Y m as the boundary line between the floor surface and the wall surface.
  • FIG. 14 is an explanatory view showing a boundary line between the floor surface and the wall surface, a floor area Y m , and a window area W m .
  • the area provided with the horizontal line is the floor area Y m
  • the area provided with the diagonal line is the window area W m .
  • the wall area determination unit 17 acquires data indicating the coordinates in which the window area W m exists from the window area determination unit 13. The wall area determination unit 17 identifies the window area W m based on the data indicating the coordinates in which the window area W m exists. In the image G m , the wall area determination unit 17 has a wall in the area other than the window area W m , which has a larger y coordinate in the y direction of the image G m than the boundary line between the floor surface and the wall surface. It is determined that the area is K m .
  • the region in which the y coordinate is larger in the y direction of the image G m than the boundary line between the floor surface and the wall surface is a region above the boundary line between the floor surface and the wall surface in the drawing.
  • the control unit 3 acquires an image G m of any one of M images G 1 to GM having different imaging times t from the image storage unit 10.
  • One captured image G m acquired by the control unit 3 may be any of the captured images G 1 to GM of M captured images.
  • Control unit 3 may, for example, an imaging time t may acquire the image G M of the latest time, the imaging time t may acquire the image G M-1 of the old time than the latest time.
  • the control unit 3 acquires the determination result of the window area W m from the window area determination unit 13, the determination result of the floor area Y m from the floor area determination unit 16, and the wall area K m from the wall area determination unit 17. Acquire the judgment result.
  • the control unit 3 adjusts the air in the target region by controlling the air conditioner 4, for example, based on the acquired determination results.
  • the set temperature of the window area W m is Temp 1
  • the set temperature of the floor area Y m is Temp 2
  • the set temperature of the wall area K m is Temp 3 .
  • Each of the set temperature Temp 1 , the set temperature Temp 2 , and the set temperature Temp 3 may be stored in the internal memory of the control unit 3, or may be supplied from the outside of the air conditioner shown in FIG. You may.
  • Control unit 3 based on the determination result of the window area W m, N pixels p 1 contained in the image G m, m ⁇ p N, from among the m, are included in the window region W m A plurality of pixels pn and m are specified. Control unit 3, a plurality of pixels p n contained in the window region W m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the window area W m. Control unit 3, the average temperature of the window area W m is to match the set temperature Temp 1 of the window area W m, controls the air conditioner 4.
  • Control unit 3 based on the determination result of the floor area Y m, N pixels p 1 contained in the image G m, m ⁇ p N, from among the m, are included in the floor area Y m A plurality of pixels pn and m are specified. Control unit 3, a plurality of pixels p n included in the floor area Y m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the floor area Y m. Control unit 3, the average temperature of the floor area Y m is to match the set temperature Temp 2 of the floor area Y m, to control the air conditioner 4.
  • the control unit 3 Based on the determination result of the wall area K m , the control unit 3 includes a plurality of pixels p 1, m to p N, m included in the image G m , which are included in the wall area K m. Pixels pn and m of are specified. Control unit 3, a plurality of pixels p n included in the wall area K m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the wall area K m. Control unit 3, the average temperature of the wall area K m is to match the set temperature Temp 3 wall area K m, for controlling the air conditioner 4.
  • control unit 3 calculates the average temperature of each of the window area W m , the floor area Y m, and the wall area K m .
  • the control unit 3 may calculate, for example, the intermediate temperatures in the window area W m , the floor area Y m, and the wall area K m .
  • the control unit 3, an intermediate temperature, such as the window area W m is to match the set temperature, such as the window area W m, it controls the air conditioner 4.
  • the temporal value of each pixel value in the plurality of pixels is temporal.
  • the evaluation value calculated by the similarity calculation unit 12 among the plurality of pixels included in the image and the similarity calculation unit 12 that calculates the similarity between the transition and the temporal transition of the outside temperature is the first.
  • the indoor layout estimation device 2 is configured to include a window area determination unit 13 for determining that a region including pixels larger than the threshold value of is an area where a window exists in the image. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window area even if the outside air temperature changes.
  • the standard deviation calculation unit 14 includes pixels p 1, 1 to p N, 1 , p 1 , 2 , and so on, which are included in each of the M images G 1 to GM.
  • p N, 2 ..., P 1, M to p N, M
  • v N is calculated.
  • the indoor layout estimation device 2 for calculating the evaluation values v 1 to v N will be described.
  • the new image is GM + 1 .
  • the configuration of the indoor layout estimation device 2 according to the second embodiment is the same as the configuration of the indoor layout estimation device 2 according to the first embodiment, and the configuration diagram showing the indoor layout estimation device 2 according to the second embodiment is FIG. 2.
  • Infrared camera 1 outputs the M image G 1 ⁇ G M and the imaging time t is different from a new image G M + 1 to the indoor layout estimation device 2.
  • the image storage unit 10 of the indoor layout estimation device 2 stores a new image GM + 1 .
  • the pixel group identification unit 14a of the standard deviation calculation unit 14 acquires the new image GM + 1 from the image storage unit 10.
  • Pixel group identifying unit 14a from among the M image G 1 ⁇ G M obtained above, for example, most image capturing time t discards the old image G 1.
  • the pixel group identifying unit 14a the image is part of the M image G 1 ⁇ G M, i.e., not discarded (M-1) pieces of the image G 2 ⁇ G M and the new image G M + 1 including the M image G 2 ⁇ G M + 1 pixel p 1,2 ⁇ p N contained in each, 2, p 1,3 ⁇ p N , 3, ⁇ , p 1, M + 1 ⁇ p N, Among M + 1 , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.
  • pixel group specifying unit 14a is, among the M image G 1 ⁇ G M obtained above, most imaging time t is to discard the old image G 1.
  • pixel group specifying unit 14a is most imaging time t may be discarded images other than the old image G 1.
  • the pixel group specifier 14a is, among the M image G 1 ⁇ G M obtained above, may be discarded two or more images.
  • Pixel group identifying unit 14a when discard the two images, as discard not in (M-2) including a number and an image and a new image G M + 1 (M-1 ) pieces of images, the image G 3 ⁇ G M + 1 of N pixels included in each p 1,3 ⁇ p N, 3, p 1,4 ⁇ p N, 4, ⁇ , p 1, M + 1 ⁇ p N, among the M + 1, pixel
  • N pixel groups (1) to (N) including the pixels having the same position is specified.
  • the evaluation values v 1 to v N of the groups (1) to (N) the pixel values in the M pixels pn, 1 to pn, M included in the respective pixel groups (1) to (N).
  • the deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.
  • Foreground region determining unit 15 for each of the standard deviation calculating section 14, each of the evaluation values v 1 ⁇ v N is updated to compare each of the evaluation values v 1 ⁇ v N and the second threshold value Th 2.
  • m are determined foreground region determining unit 15 that the pixels in the foreground region F m is, n pieces of pixel p 1 contained in each of the M image G 2 ⁇ G M + 1 , 2 to p N, 2 , p 1,3 to p N, 3 , ..., p 1, M + 1 to p N, M + 1 , all pixels p determined to be pixels within the foreground region F m It is determined that the region including n and m is the foreground region F m in the image G m .
  • each of the plurality of pixel groups including the pixels having the same pixel position is specified, and the deviation calculation processing unit 14b determines the pixel group.
  • Each time each pixel group is specified by the specific unit 14a, as an evaluation value of each pixel group specified by the pixel group identification unit 14a, a standard of pixel values in a plurality of pixels included in each pixel group.
  • the indoor layout estimation device 2 was configured so as to calculate the deviation. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window region even if the outside air temperature changes, and can determine the foreground region based on a new image.
  • Embodiment 3 in the third embodiment, in the foreground region F m determined by the foreground region determining unit 15 will be described indoor layout estimation device 2 that humans are provided for determining human region determining unit 18 a region that is present ..
  • FIG. 15 is a configuration diagram showing the indoor layout estimation device 2 according to the third embodiment.
  • FIG. 16 is a hardware configuration diagram showing the hardware of the indoor layout estimation device 2 according to the third embodiment.
  • the indoor layout estimation device 2 includes an image storage unit 10, an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, a human area determination unit 18, and a floor area.
  • a determination unit 16 and a wall area determination unit 17 are provided.
  • the foreground region determining unit 15 as the determination result of the foreground area, the foreground area F m are present, the human data indicating coordinates in the image G m area determination section 18 Output to.
  • the human domain determination unit 18 is realized by, for example, the human domain determination circuit 28 shown in FIG.
  • the human area determination unit 18 determines the human area H m , which is an area in which a human exists, in each of the foreground areas F m determined by the foreground area determination unit 15.
  • the human area determination unit 18 supplies , for example, data indicating the coordinates in the image G m in which the human area H m exists to the control unit 3 and the floor area determination unit 16, respectively. Output.
  • an image storage unit 10 an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, and a human being, which are components of the indoor layout estimation device 2.
  • each of the area determination unit 18, the floor area determination unit 16, and the wall area determination unit 17 is realized by dedicated hardware as shown in FIG. That is, the indoor layout estimation device 2 includes an image storage circuit 20, an outside temperature storage circuit 21, a similarity calculation circuit 22, a window area determination circuit 23, a standard deviation calculation circuit 24, a foreground area determination circuit 25, and a human area determination circuit 28. It is assumed that it is realized by the floor area determination circuit 26 and the wall area determination circuit 27.
  • each of the image storage circuit 20 and the outside temperature storage circuit 21 is, for example, a non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, magnetic disk, flexible disk, optical disk, compact disk. , Mini disc, or DVD.
  • each of the similarity calculation circuit 22, the window area determination circuit 23, the standard deviation calculation circuit 24, the foreground area determination circuit 25, the human area determination circuit 28, the floor area determination circuit 26, and the wall area determination circuit 27 is, for example, simple.
  • a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof is applicable.
  • the components of the indoor layout estimation device 2 are not limited to those realized by dedicated hardware, but the indoor layout estimation device 2 is realized by software, firmware, or a combination of software and firmware. There may be.
  • each of the image storage unit 10 and the outside air temperature storage unit 11 is configured on the memory 31 of the computer shown in FIG.
  • the processor 32 of the computer shown in FIG. 5 executes the program stored in the memory 31.
  • FIG. 16 shows an example in which each of the components of the indoor layout estimation device 2 is realized by dedicated hardware
  • FIG. 5 shows an example in which the indoor layout estimation device 2 is realized by software, firmware, or the like. Shown. However, this is only an example, and some components in the indoor layout estimation device 2 may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • Foreground region determining unit 15 as in the first embodiment, shown when it is determined foreground region F m, as a determination result of the foreground region F m, foreground region F m are present, the coordinates in the image G m The data is output to the human area determination unit 18.
  • the floor area determination section 16 a foreground region F m coincides with the human region H m, based on the foreground area F m, to determine the floor area Y m There is.
  • the foreground area F m and the human area H m do not always exactly match, there is a possibility that the floor area Y m is erroneously detected in the determination of the floor area Y m based on the foreground area F m. is there.
  • Human area determining unit 18 receives the judgment result of the foreground region F m from the foreground region determining unit 15, using a known human body detection method, in the foreground region F m, is an area where humans are present Determine the human region H m .
  • a known human body detection method for example, a method using HOG and SVM can be considered.
  • HOG Heistogram of Oriented Gradients
  • SVM Small Vector Machine
  • the human area determination unit 18 supplies , for example, data indicating the coordinates in the image G m in which the human area H m exists to the control unit 3 and the floor area determination unit 16, respectively. Output.
  • the control unit 3 acquires an image G m of any one of M images G 1 to GM having different imaging times t from the image storage unit 10.
  • One captured image G m acquired by the control unit 3 may be any of the captured images G 1 to GM of M captured images.
  • Control unit 3 may, for example, an imaging time t may acquire the image G M of the latest time, the imaging time t may acquire the image G M-1 of the old time than the latest time.
  • the control unit 3 acquires the determination result of the window area W m from the window area determination unit 13, the determination result of the floor area Y m from the floor area determination unit 16, and the wall area K m from the wall area determination unit 17. It acquires a determination result, to obtain a determination result of human region H m from a human area determining unit 18.
  • the control unit 3 adjusts the air in the target region by controlling the air conditioner 4, for example, based on the acquired determination results. For example, it is assumed that the set temperature of the human region H m is Temp 4 .
  • the set temperature Temp 4 may be stored in the internal memory of the control unit 3 or may be given from the outside of the air conditioner shown in FIG.
  • Control unit 3 based on the determination result of human region H m, N pixels p 1 contained in the image G m, m ⁇ p N, from among the m, are included in the human region H m Specify a plurality of pixels pn and m .
  • Control unit 3 a plurality of pixels p n contained in the human region H m, pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the human region H m.
  • Control unit 3 the average temperature of the human region H m is to match the set temperature Temp 4 human region H m, and controls the air conditioner 4.
  • control unit 3 calculates the average temperature of the human region H m .
  • the control unit 3 may calculate, for example, the intermediate temperature of the human region H m .
  • the control unit 3, an intermediate temperature of the human region H m is to match the set temperature Temp 4 human region H m, and controls the air conditioner 4.
  • the indoor layout estimation device 2 is configured to include a human area determination unit 18 for determining an area in which a human exists in the foreground area determined by the foreground area determination unit 15. did. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window area even if the outside air temperature changes, and can adjust the air in the area where a human exists.
  • the present invention is suitable for an indoor layout estimation device, an indoor layout estimation method, and an air conditioner for determining an area where a window exists in a target area.
  • 1 infrared camera 1 indoor layout estimation device, 3 control unit, 4 air conditioner, 10 image storage unit, 11 outside temperature storage unit, 12 similarity calculation unit, 13 window area determination unit, 14 standard deviation calculation unit, 14a pixel group identification Unit, 14b deviation calculation processing unit, 15 foreground area determination unit, 16 floor area determination unit, 17 wall area determination unit, 18 human area determination unit, 20 image storage circuit, 21 outside temperature storage circuit, 22 similarity calculation circuit, 23 Window area judgment circuit, 24 standard deviation calculation circuit, 25 foreground area judgment circuit, 26 floor area judgment circuit, 27 wall area judgment circuit, 28 human area judgment circuit, 31 memory, 32 processors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Air Conditioning Control Device (AREA)

Abstract

対象領域を撮像している赤外線カメラ(1)から出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部(12)と、画像に含まれている複数の画素のうち、類似度算出部(12)により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部(13)とを備えるように、室内レイアウト推定装置(2)を構成した。

Description

室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機
 この発明は、対象領域の中で、窓が在る領域を判定する室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機に関するものである。
 以下の特許文献1には、画像情報に含まれている複数の画素におけるそれぞれの輝度と輝度閾値とを比較し、輝度閾値よりも大きな輝度を有する画素を含む領域を、窓領域として検出する窓検出方法が開示されている。
 特許文献1に開示されている窓検出方法では、例えば、太陽光によって空調室の全体が明るく照らされているときには、空調室の壁面と窓との区別ができるように輝度閾値が高めに設定される。また、例えば、窓にカーテンがかけられて、空調室の全体が暗いときには、輝度閾値が低めに設定される。
特開2017-44373号公報
 画像情報に含まれている複数の画素における輝度は、外気温に応じても変動する。しかし、特許文献1に開示されている窓検出方法では、外気温とは無関係に輝度閾値が設定されるため、窓領域も外気温と無関係に検出される。したがって、当該窓検出方法では、外気温が変化すると、窓領域の誤検出を生じることがあるという課題があった。
 この発明は上記のような課題を解決するためになされたもので、外気温が変化しても、窓領域の誤検出を防ぐことができる室内レイアウト推定装置を得ることを目的とする。
 この発明に係る室内レイアウト推定装置は、対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部と、画像に含まれている複数の画素のうち、類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部とを備えるようにしたものである。
 この発明によれば、外気温が変化しても、窓領域の誤検出を防ぐことができる。
実施の形態1に係る室内レイアウト推定装置2を含む空気調和機を示す構成図である。 実施の形態1に係る室内レイアウト推定装置2を示す構成図である。 実施の形態1に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。 実施の形態1に係る標準偏差算出部14の内部を示す構成図である。 室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。 室内レイアウト推定装置2の処理手順である室内レイアウト推定方法を示すフローチャートである。 過去12時間分の画像Gのそれぞれに含まれている複数の画素p~pのうち、窓領域Wに含まれている或る1つの画素pn,mの画素値pdn,mの時間的な推移の一例を示す説明図である。 類似度算出部12による評価値S~Sの算出結果の一例を示す説明図である。 窓領域判定部13による窓領域Wの判定結果の一例を示す説明図である。 M個の撮像画像G~Gのうち、ある1つの画像Gの一例を示す説明図である。 M個の撮像画像G~Gのうち、ある1つの画像Gにおける背景領域Bと前景領域Fとを示す説明図である。 M個の画像G~Gにおける前景領域F~F内の下端の画素を示す説明図である。 床領域判定部16による床領域Yの判定結果の一例を示す説明図である。 床面と壁面との境界線、床領域Y、及び窓領域Wを示す説明図である。 実施の形態3に係る室内レイアウト推定装置2を示す構成図である。 実施の形態3に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る室内レイアウト推定装置2を含む空気調和機を示す構成図である。
 図1において、赤外線カメラ1は、一定の時間間隔Δtで、対象領域を繰り返し撮像し、対象領域を撮像した画像として、撮像時刻tが互いに異なるM個の画像G~Gを室内レイアウト推定装置2に出力する。Mは、2以上の整数である。
 一定の時間間隔Δtは、例えば、1秒間に10フレーム~1秒間に60フレームのうちの、いずれかのフレームレートでの撮像を可能とする時間間隔である。
 対象領域は、後述するエアコン4により空気が調整される部屋の一部又は全体であり、対象領域には、窓、床、壁及び人間のほか、机、パソコン等が存在している。
 対象領域は、固定されているため、M個の画像G~Gは、同一の対象領域が撮像されている画像である。
 画像G(m=1,・・・,M)は、x軸と平行な方向(以下、「x方向」と称する)と、y軸と平行な方向(以下、「y方向」と称する)とで表される2次元平面の画像である。例えば、画像Gのx方向は、対象領域が存在している空間の任意の水平方向に相当し、画像Gのy方向は、対象領域が存在している空間の鉛直方向に相当する。なお、本明細書において、「平行」は、厳密な意味での平行に限らず、略平行を含んでいる。
 画像Gは、N個の画素p1,m~pN,mを含んでおり、画素p1,m~pN,mにおけるそれぞれの画素値pd1,m~pdN,mは、温度を示すものである。Nは、2以上の整数である。
 例えば、M個の画像G~Gのそれぞれに含まれている画素p1,1~p1,Mは、画素位置が互いに同一の画素であり、画像G~Gのそれぞれに含まれている画素p2,1~p2,Mは、画素位置が互いに同一の画素である。同様に、例えば、画像G~Gのそれぞれに含まれている画素pN,1~pN,Mは、画素位置が互いに同一の画素である。
 室内レイアウト推定装置2は、赤外線カメラ1から出力されたM個の画像G~Gに基づいて、対象領域の中で、窓が在る領域(以下、「窓領域」と称する)、床が在る領域(以下、「床領域」と称する)及び壁が在る領域(以下、「壁領域」と称する)のそれぞれを判定する。
 室内レイアウト推定装置2は、窓領域の判定結果、床領域の判定結果及び壁領域の判定結果のそれぞれを制御部3に出力する。
 制御部3は、室内レイアウト推定装置2から出力された判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
 エアコン4は、対象領域内の空気を調整する機器である。
 図1に示す空気調和機では、制御部3が、エアコン4を制御することで、対象領域内の空気を調整している。しかし、これは一例に過ぎず、制御部3が、扇風機、床暖房機又はパネルヒータ等の機器を制御することで、対象領域内の空気を調整するようにしてもよい。
 図2は、実施の形態1に係る室内レイアウト推定装置2を示す構成図である。
 図3は、実施の形態1に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。
 室内レイアウト推定装置2は、画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17を備えている。
 画像記憶部10は、例えば、図3に示す画像記憶回路20によって実現される。
 画像記憶部10は、赤外線カメラ1から出力されたM個の画像G~Gを記憶する。
 外気温記憶部11は、例えば、図3に示す外気温記憶回路21によって実現される。
 外気温記憶部11は、例えば、温度計によって、一定の時間間隔Δt’で測定された、測定時刻tが互いに異なるM個の外気温T~Tを記憶する。
 外気温T(m=1,・・・,M)は、対象領域を含む建物の外部の気温であり、対象領域と、建物の外部との間には、窓が存在している。
 図2に示す室内レイアウト推定装置2では、外気温記憶部11が、温度計によって測定された外気温T~Tを記憶している。しかし、これは一例に過ぎず、室内レイアウト推定装置2の図示せぬ通信部が、例えば、気象データを配信しているインターネット上のサイトから、対象領域を含む建物付近の気温のデータをダウンロードし、外気温記憶部11が、当該気温のデータを外気温T~Tとして記憶するようにしてもよい。
 M個の外気温T~Tにおける測定の時間間隔Δt’と、M個の画像G~Gにおける撮像の時間間隔Δtとは、同一である。したがって、m番目の外気温Tの測定時刻t’と、m番目の画像Gの撮像時刻tとは、同一時刻である。
 ただし、測定の時間間隔Δt’と撮像の時間間隔Δtとは、厳密に同一であるものに限るものではなく、実用上問題のない範囲で、測定の時間間隔Δt’と撮像の時間間隔Δtとが互いに異なっていてもよい。また、m番目の測定時刻t’と、m番目の撮像時刻tとは、厳密に同一であるものに限るものではなく、実用上問題のない範囲で、m番目の測定時刻t’と、m番目の撮像時刻tとが互いに異なっていてもよい。
 類似度算出部12は、例えば、図3に示す類似度算出回路22によって実現される。
 類似度算出部12は、画像記憶部10に記憶されているM個の画像G~Gを取得する。
 類似度算出部12は、画像Gに含まれているN個の画素p1,m~pN,mのそれぞれの評価値S~Sとして、N個の画素p1,m~pN,mにおけるそれぞれの画素値pd1,m~pdN,mの時間的な推移と、外気温記憶部11に記憶されている外気温Tの時間的な推移との類似度を算出する。
 類似度算出部12は、算出したそれぞれの評価値S~Sを窓領域判定部13に出力する。
 窓領域判定部13は、例えば、図3に示す窓領域判定回路23によって実現される。
 窓領域判定部13は、画像記憶部10に記憶されているM個の画像G~Gのうち、いずれか1つの画像Gを取得する。
 窓領域判定部13は、取得した画像Gに含まれているN個の画素p1,m~pN,mのうち、類似度算出部12により算出された評価値S(n=1,・・・,N)が第1の閾値Thよりも大きい画素を含む領域が、画像Gの中の窓領域Wであると判定する。外気温Tの時間的な推移との類似度が高いほど、窓領域Wの可能性が高いため、評価値Sが第1の閾値Thよりも大きい画素を含む領域は、画像Gの中の窓領域Wであると判定される。第1の閾値Thは、例えば、窓領域判定部13の内部メモリに格納されていてもよいし、図2に示す室内レイアウト推定装置2の外部から与えられるものであってもよい。
 窓領域判定部13は、窓領域Wの判定結果として、例えば、窓領域Wが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
 標準偏差算出部14は、図4に示すように、画素群特定部14a及び偏差算出処理部14bを備えている。
 標準偏差算出部14は、例えば、図3に示す標準偏差算出回路24によって実現される。
 標準偏差算出部14は、画像記憶部10に記憶されているM個の画像G~Gを取得する。
 標準偏差算出部14は、M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mの中で、画素位置が同一の画素を含むN個の画素群(1)~(N)のそれぞれの評価値v~vを算出する。
 画素群(1)は、画素p1,1、p1,2、・・・、p1,Mを含んでおり、画素群(2)は、画素p2,1、p2,2、・・・、p2,Mを含んでいる。また、画素群(N)は、画素pN,1、pN,2、・・・、pN,Mを含んでいる。
 標準偏差算出部14は、画素群(n)(n=1,・・・,N)の評価値vとして、例えば、画素群(n)に含まれているM個の画素pn,1~pn,Mにおける画素値pdn,1~pdn,Mの標準偏差を算出する。
 標準偏差算出部14は、算出したそれぞれの評価値v~vを前景領域判定部15に出力する。
 図4は、実施の形態1に係る標準偏差算出部14の内部を示す構成図である。
 画素群特定部14aは、画像記憶部10に記憶されているM個の画像G~Gを取得する。
 画素群特定部14aは、M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mの中で、画素位置が互いに同一の画素を含むN個の画素群(1)~(N)のそれぞれを特定する。
 偏差算出処理部14bは、画素群特定部14aにより特定されたそれぞれの画素群(1)~(N)の評価値v~vとして、それぞれの画素群(1)~(N)に含まれているM個の画素pn,1~pn,Mにおける画素値pdn,1~pdn,Mの標準偏差を算出する。
 偏差算出処理部14bは、算出したそれぞれの評価値v~vを前景領域判定部15に出力する。
 前景領域判定部15は、例えば、図3に示す前景領域判定回路25によって実現される。
 前景領域判定部15は、N個の画素群(1)~(N)の中で、標準偏差算出部14により算出された評価値v(n=1,・・・,N)が第2の閾値Thよりも大きい画素群(n)を特定する。
 第2の閾値Thは、例えば、前景領域判定部15の内部メモリに格納されていてもよいし、図2に示す室内レイアウト推定装置2の外部から与えられるものであってもよい。
 前景領域判定部15は、それぞれの画像Gに含まれているN個の画素p1,m~pN,mのうち、特定した画素群(n)に含まれている画素pn,mを含む領域が、それぞれの画像Gの中の前景領域Fであると判定する。
 前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
 前景領域は、人間又は動物等の移動体が在る領域である。
 前景領域Fは、画像Gの中で、背景領域B以外の領域である。したがって、前景領域判定部15は、先に背景領域Bを判定し、その後、前景領域Fを判定するようにしてもよい。この場合、前景領域判定部15は、まず、N個の画素群(1)~(N)の中で、標準偏差算出部14により算出された評価値vが第2の閾値Th以下の画素群(n)を特定する。そして、前景領域判定部15は、それぞれの撮像画像Gに含まれている画素p1,m~pN,mのうち、特定した画素群(n)に含まれている画素pn,mを含む領域が、それぞれの撮像画像Gの中の背景領域Bであると判定する。そして、前景領域判定部15は、撮像画像Gの中で、背景領域B以外の領域が、前景領域Fであると判定するようにしてもよい。
 床領域判定部16は、例えば、図3に示す床領域判定回路26によって実現される。
 床領域判定部16は、前景領域判定部15により判定されたそれぞれの前景領域Fに含まれている複数の画素pn,mの中で、画像Gのy方向で下端の位置に存在している画素を床領域画素として特定する。前景領域Fが、例えば、人間が在る領域であれば、前景領域F内の下端の位置は、人間の足元の位置に対応し、人間の足元の位置は、床の位置に対応する。
 床領域判定部16は、それぞれの前景領域Fに含まれている床領域画素の全てを含む領域が、それぞれの画像Gの中の床領域Yであると判定する。
 前景領域Fに含まれている複数の画素pn,mのうち、画像Gのy方向で下端の位置に存在している画素は、前景領域Fに含まれている複数の画素pn,mのうち、x座標が同一の複数の画素の中で、y座標が最も小さい画素である。
 床領域判定部16は、床領域Yの判定結果として、例えば、床領域Yが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
 壁領域判定部17は、例えば、図3に示す壁領域判定回路27によって実現される。
 壁領域判定部17は、窓領域判定部13により判定された窓領域Wと、床領域判定部16により判定された床領域Yとに基づいて、対象領域の中の壁領域Kを判定する。壁領域Kの判定方法は、後述する。
 壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
 図2では、室内レイアウト推定装置2の構成要素である画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17のそれぞれが、図3に示すような専用のハードウェアによって実現されるものを想定している。即ち、室内レイアウト推定装置2が、画像記憶回路20、外気温記憶回路21、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、床領域判定回路26及び壁領域判定回路27によって実現されるものを想定している。
 ここで、画像記憶回路20及び外気温記憶回路21のそれぞれは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
 また、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、床領域判定回路26及び壁領域判定回路27のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
 室内レイアウト推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、室内レイアウト推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
 ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
 図5は、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。
 室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、画像記憶部10及び外気温記憶部11のそれぞれがコンピュータのメモリ31上に構成される。類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17の処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
 また、図3では、室内レイアウト推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、室内レイアウト推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
 次に、図1に示す空気調和機の動作について説明する。
 赤外線カメラ1は、一定の時間間隔Δtで、対象領域を繰り返し撮像し、対象領域の画像として、撮像時刻tが互いに異なるM個の画像G~Gを室内レイアウト推定装置2に出力する。
 赤外線カメラ1から出力されたM個の画像G~Gは、室内レイアウト推定装置2の画像記憶部10に記憶される。画像記憶部10には、例えば、過去24時間分の画像Gが記憶される。
 図6は、室内レイアウト推定装置2の処理手順である室内レイアウト推定方法を示すフローチャートである。
 類似度算出部12は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gを取得する。
 現在の時刻が例えば19時00分であれば、類似度算出部12は、画像記憶部10から、19時00分を起点として、例えば過去12時間分の画像Gを取得する。
 図7は、過去12時間分の画像Gのそれぞれに含まれているN個の画素p1,m~pN,mのうち、窓領域Wに含まれている或る1つの画素pn,mの画素値pdn,mの時間的な推移の一例を示す説明図である。
 また、類似度算出部12は、外気温記憶部11から、測定時刻t’が互いに異なるM個の外気温T~Tを取得する。
 現在の時刻が19時00分であれば、類似度算出部12は、外気温記憶部11から、19時00分を起点として、過去12時間分の外気温Tを取得する。
 ここでは、類似度算出部12が、過去12時間分の画像Gを取得し、過去12時間分の外気温Tを取得している。しかし、これは一例に過ぎず、類似度算出部12が、例えば、過去24時間分の画像Gを取得し、過去24時間分の外気温Tを取得するようにしてもよい。
 類似度算出部12は、画像Gに含まれているN個の画素p1,m~pN,mのそれぞれの評価値S~Sとして、N個の画素p1,m~pN,mにおけるそれぞれの画素値pd1,m~pdN,mの時間的な推移と、外気温Tの時間的な推移との類似度を算出する(図6のステップST1)。
 例えば、画素pn,mの画素値pdn,mの時間的な推移と、外気温Tの時間的な推移との類似度である評価値Sは、例えば、以下の式(1)のように表される。

Figure JPOXMLDOC01-appb-I000001
 図2に示す室内レイアウト推定装置2では、類似度算出部12が、画素pn,mの評価値Sとして、式(1)で表される類似度を算出している。しかし、画素pn,mの評価値Sとして、画素値pdn,mの時間的な推移と、外気温Tの時間的な推移との類似度を算出することができればよく、式(1)で表される類似度に限るものではない。
 図8は、類似度算出部12による評価値S~Sの算出結果の一例を示す説明図である。図8において、黒色に近い領域ほど、類似度である評価値Sが高い領域であることを示している。
 類似度算出部12は、算出したそれぞれの評価値S~Sを窓領域判定部13に出力する。
 窓領域判定部13は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gのうち、いずれか1つの画像Gを取得する。窓領域判定部13が取得する1つの画像Gは、M個の画像G~Gのうちのいずれの画像であってもよい。窓領域判定部13は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM-1を取得してもよい。
 窓領域判定部13は、類似度算出部12により算出されたそれぞれの評価値S~Sと、第1の閾値Thとを比較する。
 窓領域判定部13は、取得した画像Gに含まれている画素pn,mの評価値Sが第1の閾値Thよりも大きければ(図6のステップST2:YESの場合)、画素pn,mが、窓領域W内の画素であると判定する(図6のステップST3)。
 画素pn,mの評価値Sが第1の閾値Th以下であれば(図6のステップST2:NOの場合)、画素pn,mは、窓領域W外の画素である。
 窓領域判定部13は、取得した画像Gに含まれているN個の画素p1,m~pN,mの中で、窓領域W内の画素であると判定した全ての画素pn,mを含む領域が、画像Gの中の窓領域Wであると判定する(図6のステップST4)。
 図9は、窓領域判定部13による窓領域Wの判定結果の一例を示す説明図である。図9において、斜線が施されている領域は、窓領域Wである。なお、図9では、白色に近い領域ほど、温度が高い領域である。
 窓領域判定部13は、窓領域Wの判定結果として、例えば、窓領域Wが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
 標準偏差算出部14の画素群特定部14aは、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gを取得する。
 画素群特定部14aは、M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mの中で、画素位置が互いに同一の画素を含むN個の画素群(1)~(N)のそれぞれを特定する。
 M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mの中で、例えば、M個の画素pn,1~pn,Mは、画素位置が互いに同一の画素であり、画素群(n)に含まれている。
 標準偏差算出部14の偏差算出処理部14bは、以下の式(2)に示すように、画素群特定部14aにより特定された画素群(n)の評価値vとして、画素群(n)に含まれているM個の画素pn,1~pn,Mにおける画素値pdn,1~pdn,Mの標準偏差を算出する(図6のステップST5)。

Figure JPOXMLDOC01-appb-I000002

 偏差算出処理部14bは、算出したそれぞれの評価値v~vを前景領域判定部15に出力する。
 前景領域判定部15は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gを取得する。
 前景領域判定部15は、標準偏差算出部14により算出されたそれぞれの評価値v~vと第2の閾値Thとを比較する。
 前景領域判定部15は、N個の画素群(1)~(N)の中で、評価値v(n=1,・・・,N)が第2の閾値Thよりも大きければ(図6のステップST6:YESの場合)、画素群(n)に含まれている画素pn,mが、前景領域F内の画素であると判定する(図6のステップST7)。
 複数の画素群(1)~(N)の中で、評価値vが第2の閾値Th以下であれば(図6のステップST6:NOの場合)、画素群(n)に含まれている画素pn,mは、背景領域B内の画素である。
 背景領域B内の画素pn,mの画素値pdn,mは、時間が経過しても、ほとんど変化しないため、背景領域B内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Th以下となる可能性が高い。
 一方、前景領域F内の画素pn,mの画素値pdn,mは、時間の経過に伴って変化するため、前景領域F内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Thよりも大きくなる可能性が高い。
 なお、窓領域W内の画素pn,mの画素値pdn,mについても、時間の経過に伴って変化する。しかし、窓領域W内の画素pn,mの画素値pdn,mの変化は、人間等の移動に伴う画素値pdn,mの変化と比べると、極めて小さい。したがって、窓領域W内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Th以下となる可能性が高い。
 前景領域判定部15は、M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mのうち、前景領域F内の画素であると判定した全ての画素pn,mを含む領域が、それぞれの画像Gの中の前景領域Fであると判定する(図6のステップST8)。
 前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
 図10は、M個の撮像画像G~Gのうち、ある1つの画像Gの一例を示す説明図である。
 図11は、M個の撮像画像G~Gのうち、ある1つの画像Gにおける背景領域Bと前景領域Fとを示す説明図である。図11において、黒色の領域は、背景領域Bと判定された領域であり、白色の領域は、前景領域Fと判定された領域である。
 図11の例では、前景領域Fが、人間が存在している領域(以下、「人間領域H」と称する)と概ね一致している。なお、図11では、人間領域Hの表記は省略されている。
 図2に示す室内レイアウト推定装置2では、前景領域Fが人間領域Hと一致しているとして、後述する床領域判定部16が、前景領域Fに基づいて、床領域Yを判定する。
 床領域判定部16は、前景領域判定部15から、前景領域Fが存在している、画像G内の座標を示すデータを取得する。
 床領域判定部16は、取得した座標を示すデータに基づいて、M個の画像G~Gにおけるそれぞれの前景領域Fに含まれている複数の画素pn,mを特定する。
 床領域判定部16は、それぞれの前景領域Fに含まれている複数の画素pn,mの中で、画像Gのy方向で、下端の位置に存在している画素を床領域画素として特定する。
 前景領域Fが人間領域Hと一致していれば、前景領域F内の下端の位置は、人間の足元の位置に対応し、人間の足元の位置は、床の位置に対応する。通常、人間は、時間とともに移動する。これは、撮像時刻tが互いに異なるM個の撮像画像G~Gのそれぞれにおける人間の位置、つまり、前景領域F~Fの位置は互いに異なるものとなり、床の位置に対応する前景領域F~F内の下端の位置も互いに異なるものとなることを意味する。したがって、撮像時刻tが互いに異なるM個の撮像画像G~Gにおける前景領域F~F内の下端の位置を総合することにより、床領域Yを推定することができる。
 床領域判定部16は、前景領域F~Fのそれぞれに含まれている床領域画素の全てを含む領域が、床領域Yであると判定する(図6のステップST9)。
 床領域判定部16は、床領域Yの判定結果として、例えば、床領域Yが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
 ここでは、床領域判定部16が、鉛直方向で下端の位置に存在している画素を床領域画素として特定している。しかし、これは一例に過ぎず、床領域判定部16が、鉛直方向で下端の位置に存在している画素のほかに、下端の画素の周囲に存在している複数の画素を床領域画素として特定するようにしてもよい。
 図12は、M個の画像G~Gにおける前景領域F~F内の下端の画素を示す説明図である。図12において、白色の領域は、それぞれの前景領域F内の下端の画素を含む領域である。
 図12が示している画像は、M個の画像G~Gにおけるそれぞれの前景領域F内の下端の画素が集められている画像である。
 図12では、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域FM-1内の下端の画素、及び、前景領域F内の下端の画素を例示している。
 図13は、床領域判定部16による床領域Yの判定結果の一例を示す説明図である。図13において、横線が施されている領域は、床領域Yである。
 図12が示す白色の領域と、図13が示す床領域Yとは、記載の都合上、若干のずれがあるが、概ね一致している。
 壁領域判定部17は、窓領域判定部13により判定された窓領域Wと、床領域判定部16により判定された床領域Yとに基づいて、対象領域の中の壁領域Kを判定する(図6のステップST10)。
 壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
 以下、壁領域判定部17による壁領域Kの判定処理を具体的に説明する。
 壁領域判定部17は、画像記憶部10から、撮像時刻tが異なるM個の画像G~Gのうち、いずれか1つの画像Gを取得する。壁領域判定部17が取得する1つの撮像画像Gは、M個の撮像画像G~Gのうちのいずれの撮像画像であってもよい。壁領域判定部17は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM-1を取得してもよい。
 また、壁領域判定部17は、床領域判定部16から、床領域Yが存在している座標を示すデータを取得する。
 壁領域判定部17は、床領域Yが存在している座標を示すデータに基づいて、床領域Yに含まれている複数の画素pn,mを特定する。
 壁領域判定部17は、図13に示すように、床領域Yに含まれている複数の画素pn,mのうち、画像Gのy方向で上端の画素をそれぞれ特定する。床領域Y内の上端の画素は、床領域Yに含まれている複数の画素pn,mのうち、x座標が同一の複数の画素の中で、y座標が最も大きい画素である。図13では、床領域Y内の上端の画素を9つ例示している。
 壁領域判定部17は、図14に示すように、床領域Y内の上端のそれぞれの画素を結ぶ線を含む線を、床面と壁面との境界線に決定する。
 図14は、床面と壁面との境界線、床領域Y、及び窓領域Wを示す説明図である。
 図14において、横線が施されている領域は、床領域Yであり、斜線が施されている領域は、窓領域Wである。
 壁領域判定部17は、窓領域判定部13から、窓領域Wが存在している座標を示すデータを取得する。
 壁領域判定部17は、窓領域Wが存在している座標を示すデータに基づいて、窓領域Wを特定する。
 壁領域判定部17は、画像Gの中で、床面と壁面との境界線よりも、画像Gのy方向でy座標が大きい領域のうち、窓領域W以外の領域が、壁領域Kであると判定する。床面と壁面との境界線よりも、画像Gのy方向でy座標が大きい領域は、図中、床面と壁面との境界線よりも上側の領域である。
 壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
 制御部3は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gのうち、いずれか1つの画像Gを取得する。制御部3が取得する1つの撮像画像Gは、M個の撮像画像G~Gのうちのいずれの撮像画像であってもよい。制御部3は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM-1を取得してもよい。
 制御部3は、窓領域判定部13から窓領域Wの判定結果を取得し、床領域判定部16から床領域Yの判定結果を取得し、壁領域判定部17から壁領域Kの判定結果を取得する。
 制御部3は、取得したそれぞれの判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
 以下、制御部3による空気の調整例を具体的に説明する。
 例えば、窓領域Wの設定温度がTemp、床領域Yの設定温度がTemp、及び、壁領域Kの設定温度がTempであるとする。設定温度Temp、設定温度Temp、及び、設定温度Tempのそれぞれは、制御部3の内部メモリに格納されていてもよいし、図1に示す空気調和機の外部から与えられるものであってもよい。
 制御部3は、窓領域Wの判定結果に基づいて、画像Gに含まれているN個の画素p1,m~pN,mの中から、窓領域Wに含まれている複数の画素pn,mを特定する。
 制御部3は、窓領域Wに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、窓領域Wの平均温度を算出する。
 制御部3は、窓領域Wの平均温度が、窓領域Wの設定温度Tempと一致するように、エアコン4を制御する。
 制御部3は、床領域Yの判定結果に基づいて、画像Gに含まれているN個の画素p1,m~pN,mの中から、床領域Yに含まれている複数の画素pn,mを特定する。
 制御部3は、床領域Yに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、床領域Yの平均温度を算出する。
 制御部3は、床領域Yの平均温度が、床領域Yの設定温度Tempと一致するように、エアコン4を制御する。
 制御部3は、壁領域Kの判定結果に基づいて、画像Gに含まれている複数の画素p1,m~pN,mの中から、壁領域Kに含まれている複数の画素pn,mを特定する。
 制御部3は、壁領域Kに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、壁領域Kの平均温度を算出する。
 制御部3は、壁領域Kの平均温度が、壁領域Kの設定温度Tempと一致するように、エアコン4を制御する。
 ここでは、制御部3が、窓領域W、床領域Y及び壁領域Kにおけるそれぞれの平均温度を算出している。しかし、これは一例に過ぎず、制御部3が、例えば、窓領域W、床領域Y及び壁領域Kにおけるそれぞれの中間温度を算出するようにしてもよい。この場合、制御部3は、窓領域W等の中間温度が、窓領域W等の設定温度と一致するように、エアコン4を制御する。
 以上の実施の形態1では、対象領域を撮像している赤外線カメラ1から出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部12と、画像に含まれている複数の画素のうち、類似度算出部12により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部13とを備えるように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができる。
実施の形態2.
 図2に示す室内レイアウト推定装置2では、標準偏差算出部14が、M個の画像G~Gのそれぞれに含まれている画素p1,1~pN,1、p1,2~pN,2、・・・、p1,M~pN,Mの中で、画素位置が互いに同一の画素を含む複数の画素群(1)~(N)のそれぞれの評価値v~vを算出している。
 実施の形態2では、M個の画像G~Gと撮像時刻tが異なる新たな画像が画像記憶部10に記憶される毎に、複数の画素群(1)~(N)のそれぞれの評価値v~vを算出する室内レイアウト推定装置2について説明する。ここでは、説明の便宜上、新たな画像がGM+1であるとする。
 以下、実施の形態2に係る室内レイアウト推定装置2について説明する。
 実施の形態2に係る室内レイアウト推定装置2の構成は、実施の形態1に係る室内レイアウト推定装置2の構成と同様であり、実施の形態2に係る室内レイアウト推定装置2を示す構成図は、図2である。
 赤外線カメラ1は、M個の画像G~Gと撮像時刻tが異なる新たな画像GM+1を室内レイアウト推定装置2に出力する。
 室内レイアウト推定装置2の画像記憶部10は、新たな画像GM+1を記憶する。
 標準偏差算出部14の画素群特定部14aは、新たな画像GM+1が画像記憶部10に記憶されると、画像記憶部10から、新たな画像GM+1を取得する。
 画素群特定部14aは、先に取得したM個の画像G~Gのうち、例えば、最も撮像時刻tが古い画像Gを破棄する。
 画素群特定部14aは、M個の画像G~Gの一部である画像、即ち、破棄していない(M-1)個の画像G~Gと新たな画像GM+1とを含むM個の画像G~GM+1のそれぞれに含まれている画素p1,2~pN,2、p1,3~pN,3、・・・、p1,M+1~pN,M+1のうち、画素位置が互いに同一の画素を含むN個の画素群(1)~(N)のそれぞれを特定する。
 ここでは、画素群特定部14aが、先に取得したM個の画像G~Gのうち、最も撮像時刻tが古い画像Gを破棄している。しかし、これは一例に過ぎず、画素群特定部14aが、最も撮像時刻tが古い画像G以外の画像を破棄するようにしてもよい。
 また、画素群特定部14aが、先に取得したM個の画像G~Gのうち、2つ以上の画像を破棄するようにしてもよい。画素群特定部14aは、2つの画像を破棄した場合、破棄していない(M-2)個の画像と新たな画像GM+1とを含む(M-1)個の画像として、画像G~GM+1のそれぞれに含まれているN個の画素p1,3~pN,3、p1,4~pN,4、・・・、p1,M+1~pN,M+1のうち、画素位置が互いに同一の画素を含むN個の画素群(1)~(N)のそれぞれを特定する。
 標準偏差算出部14の偏差算出処理部14bは、画素群特定部14aがN個の画素群(1)~(N)のそれぞれを特定する毎に、実施の形態1と同様に、それぞれの画素群(1)~(N)の評価値v~vとして、それぞれの画素群(1)~(N)に含まれているM個の画素pn,1~pn,Mにおける画素値pdn,1~pdn,Mの標準偏差を算出する。
 偏差算出処理部14bは、算出したそれぞれの評価値v~vを前景領域判定部15に出力する。
 したがって、実施の形態2に係る室内レイアウト推定装置2では、M個の画像G~Gと撮像時刻tが異なる新たな画像GM+1が画像記憶部10に記憶される毎に、N個の画素群(1)~(N)のそれぞれの評価値v~vが更新される。
 前景領域判定部15は、標準偏差算出部14によりそれぞれの評価値v~vが更新される毎に、それぞれの評価値v~vと第2の閾値Thとを比較する。
 前景領域判定部15は、実施の形態1と同様に、評価値v(n=1,・・・,N)が第2の閾値Thよりも大きければ、画素群(n)に含まれている画素pn,mが、前景領域F内の画素であると判定する
 前景領域判定部15は、M個の画像G~GM+1のそれぞれに含まれているN個の画素p1,2~pN,2、p1,3~pN,3、・・・、p1,M+1~pN,M+1のうち、前景領域F内の画素であると判定した全ての画素pn,mを含む領域が、画像Gの中の前景領域Fであると判定する。
 前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
 以上の実施の形態2では、画素群特定部14aが、赤外線カメラ1から、複数の画像と撮像時刻が異なる新たな画像が出力される毎に、複数の画像の中の一部の画像と新たな画像とを含む複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定し、偏差算出処理部14bが、画素群特定部14aによりそれぞれの画素群が特定される毎に、画素群特定部14aにより特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出するように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができるほか、新たな画像に基づいて、前景領域を判定することができる。
実施の形態3.
 実施の形態3では、前景領域判定部15により判定された前景領域Fの中で、人間が存在している領域を判定する人間領域判定部18を備えている室内レイアウト推定装置2について説明する。
 図15は、実施の形態3に係る室内レイアウト推定装置2を示す構成図である。
 図16は、実施の形態3に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。
 図15及び図16において、図2及び図3と同一符号は同一又は相当部分を示すので詳細な説明を省略する。
 室内レイアウト推定装置2は、画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17を備えている。
 図16に示す室内レイアウト推定装置2では、前景領域判定部15が、前景領域の判定結果として、前景領域Fが存在している、画像G内の座標を示すデータを人間領域判定部18に出力する。
 人間領域判定部18は、例えば、図16に示す人間領域判定回路28によって実現される。
 人間領域判定部18は、前景領域判定部15により判定されたそれぞれの前景領域Fの中で、人間が存在している領域である人間領域Hを判定する。
 人間領域判定部18は、人間領域Hの判定結果として、例えば、人間領域Hが存在している、画像G内の座標を示すデータを制御部3及び床領域判定部16のそれぞれに出力する。
 図15では、室内レイアウト推定装置2の構成要素である画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17のそれぞれが、図16に示すような専用のハードウェアによって実現されるものを想定している。即ち、室内レイアウト推定装置2が、画像記憶回路20、外気温記憶回路21、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、人間領域判定回路28、床領域判定回路26及び壁領域判定回路27によって実現されるものを想定している。
 ここで、画像記憶回路20及び外気温記憶回路21のそれぞれは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVDが該当する。
 また、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、人間領域判定回路28、床領域判定回路26及び壁領域判定回路27のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
 室内レイアウト推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、室内レイアウト推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
 室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、画像記憶部10及び外気温記憶部11のそれぞれが、図5に示すコンピュータのメモリ31上に構成される。類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17の処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、図5に示すコンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
 また、図16では、室内レイアウト推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、室内レイアウト推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
 次に、図15に示す室内レイアウト推定装置2の動作について説明する。ただし、人間領域判定部18以外は、図2に示す室内レイアウト推定装置2と同様であるため、ここでは、主に、人間領域判定部18の動作について説明する。
 前景領域判定部15は、実施の形態1と同様に、前景領域Fを判定すると、前景領域Fの判定結果として、前景領域Fが存在している、画像G内の座標を示すデータを人間領域判定部18に出力する。
 図2に示す室内レイアウト推定装置2では、床領域判定部16が、前景領域Fが人間領域Hと一致しているとして、前景領域Fに基づいて、床領域Yを判定している。しかし、前景領域Fと人間領域Hとが厳密に一致しているとは限らないため、前景領域Fに基づく床領域Yの判定では、床領域Yを誤検出する可能性がある。
 人間領域判定部18は、前景領域判定部15から前景領域Fの判定結果を受けると、公知の人体検出方法を用いて、前景領域Fの中で、人間が存在している領域である人間領域Hを判定する。
 公知の人体検出方法として、例えば、HOGとSVMとを用いる方法が考えられる。HOG(Histogram of Oriented Gradients)は、局所領域の輝度の勾配方向をヒストグラム化している特徴量である。SVM(Support Vector Machine)は、教師あり学習を用いるパターン識別モデルである。
 人間領域判定部18は、人間領域Hの判定結果として、例えば、人間領域Hが存在している、画像G内の座標を示すデータを制御部3及び床領域判定部16のそれぞれに出力する。
 制御部3は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G~Gのうち、いずれか1つの画像Gを取得する。制御部3が取得する1つの撮像画像Gは、M個の撮像画像G~Gのうちのいずれの撮像画像であってもよい。制御部3は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM-1を取得してもよい。
 制御部3は、窓領域判定部13から窓領域Wの判定結果を取得し、床領域判定部16から床領域Yの判定結果を取得し、壁領域判定部17から壁領域Kの判定結果を取得し、人間領域判定部18から人間領域Hの判定結果を取得する。
 制御部3は、取得したそれぞれの判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
 例えば、人間領域Hの設定温度がTempであるとする。設定温度Tempは、制御部3の内部メモリに格納されていてもよいし、図1に示す空気調和機の外部から与えられるものであってもよい。
 制御部3は、人間領域Hの判定結果に基づいて、画像Gに含まれているN個の画素p1,m~pN,mの中から、人間領域Hに含まれている複数の画素pn,mを特定する。
 制御部3は、人間領域Hに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、人間領域Hの平均温度を算出する。
 制御部3は、人間領域Hの平均温度が、人間領域Hの設定温度Tempと一致するように、エアコン4を制御する。
 ここでは、制御部3が、人間領域Hの平均温度を算出している。しかし、これは一例に過ぎず、制御部3が、例えば、人間領域Hの中間温度を算出するようにしてもよい。この場合、制御部3は、人間領域Hの中間温度が、人間領域Hの設定温度Tempと一致するように、エアコン4を制御する。
 以上の実施の形態3では、前景領域判定部15により判定された前景領域の中で、人間が存在している領域を判定する人間領域判定部18を備えるように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができるほか、人間が存在している領域内の空気を調整することが可能になる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、対象領域の中で、窓が在る領域を判定する室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機に適している。
 1 赤外線カメラ、2 室内レイアウト推定装置、3 制御部、4 エアコン、10 画像記憶部、11 外気温記憶部、12 類似度算出部、13 窓領域判定部、14 標準偏差算出部、14a 画素群特定部、14b 偏差算出処理部、15 前景領域判定部、16 床領域判定部、17 壁領域判定部、18 人間領域判定部、20 画像記憶回路、21 外気温記憶回路、22 類似度算出回路、23 窓領域判定回路、24 標準偏差算出回路、25 前景領域判定回路、26 床領域判定回路、27 壁領域判定回路、28 人間領域判定回路、31 メモリ、32 プロセッサ。

Claims (11)

  1.  対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、前記複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部と、
     前記画像に含まれている複数の画素のうち、前記類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、前記画像の中で、窓が在る領域であると判定する窓領域判定部と
     を備えた室内レイアウト推定装置。
  2.  前記赤外線カメラから出力された複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の複数の画素を含む複数の画素群のそれぞれの評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出する標準偏差算出部と、
     前記複数の画素群の中で、前記標準偏差算出部により算出された評価値が第2の閾値よりも大きい画素群を特定し、それぞれの画像に含まれている複数の画素のうち、特定した画素群に含まれている画素を含む領域が、それぞれの画像の中の前景領域であると判定する前景領域判定部と
     を備えたことを特徴とする請求項1記載の室内レイアウト推定装置。
  3.  前記標準偏差算出部は、
     前記赤外線カメラから撮像時刻が互いに異なる複数の画像が出力されると、前記複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定する画素群特定部と、
     前記画素群特定部により特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出する偏差算出処理部とを備えていることを特徴とする請求項2記載の室内レイアウト推定装置。
  4.  前記画素群特定部は、前記赤外線カメラから、前記複数の画像と撮像時刻が異なる新たな画像が出力される毎に、前記複数の画像の中の一部の画像と前記新たな画像とを含む複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定し、
     前記偏差算出処理部は、前記画素群特定部によりそれぞれの画素群が特定される毎に、前記画素群特定部により特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出することを特徴とする請求項3記載の室内レイアウト推定装置。
  5.  前記前景領域判定部により判定されたそれぞれの前景領域に含まれている複数の画素の中で、前記対象領域が存在している空間の鉛直方向に相当する方向で下端の位置に存在している画素を床領域画素として特定し、それぞれの前景領域に含まれている床領域画素の全てを含む領域が、それぞれの画像の中で、床が在る領域であると判定する床領域判定部を備えたことを特徴とする請求項2記載の室内レイアウト推定装置。
  6.  前記窓領域判定部により判定された窓が在る領域と、前記床領域判定部により判定された床が在る領域とに基づいて、それぞれの画像の中で、壁が在る領域を判定する壁領域判定部を備えたことを特徴とする請求項5記載の室内レイアウト推定装置。
  7.  前記前景領域判定部により判定されたそれぞれの前景領域の中で、人間が存在している領域として人間領域を判定する人間領域判定部を備えたことを特徴とする請求項2記載の室内レイアウト推定装置。
  8.  前記人間領域判定部により判定されたそれぞれの人間領域に含まれている複数の画素の中で、前記対象領域が存在している空間の鉛直方向に相当する方向で下端の位置に存在している画素を床領域画素として特定し、それぞれの人間領域に含まれている床領域画素の全てを含む領域が、それぞれの画像の中で、床が在る領域であると判定する床領域判定部を備えたことを特徴とする請求項7記載の室内レイアウト推定装置。
  9.  前記窓領域判定部により判定された窓が在る領域と、前記床領域判定部により判定された床が在る領域とに基づいて、それぞれの画像の中で、壁が在る領域を判定する壁領域判定部を備えたことを特徴とする請求項8記載の室内レイアウト推定装置。
  10.  類似度算出部が、対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、前記複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出し、
     窓領域判定部が、前記画像に含まれている複数の画素のうち、前記類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、前記画像の中で、窓が在る領域であると判定する
     室内レイアウト推定方法。
  11.  請求項1から請求項9のうちのいずれか1項記載の室内レイアウト推定装置と、
     前記室内レイアウト推定装置における領域の判定結果に基づいて、前記対象領域内の空気を調整する制御部と
     を備えた空気調和機。
PCT/JP2019/030267 2019-08-01 2019-08-01 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機 WO2021019768A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/030267 WO2021019768A1 (ja) 2019-08-01 2019-08-01 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機
JP2021536578A JP6987314B2 (ja) 2019-08-01 2019-08-01 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/030267 WO2021019768A1 (ja) 2019-08-01 2019-08-01 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機

Publications (1)

Publication Number Publication Date
WO2021019768A1 true WO2021019768A1 (ja) 2021-02-04

Family

ID=74230575

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030267 WO2021019768A1 (ja) 2019-08-01 2019-08-01 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機

Country Status (2)

Country Link
JP (1) JP6987314B2 (ja)
WO (1) WO2021019768A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266188A (ja) * 2009-04-15 2010-11-25 Panasonic Corp 空調システム
JP2014134376A (ja) * 2014-04-10 2014-07-24 Mitsubishi Electric Corp 空気調和機
JP2016008796A (ja) * 2014-06-25 2016-01-18 三菱電機株式会社 空気調和装置の室内機及び空気調和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266188A (ja) * 2009-04-15 2010-11-25 Panasonic Corp 空調システム
JP2014134376A (ja) * 2014-04-10 2014-07-24 Mitsubishi Electric Corp 空気調和機
JP2016008796A (ja) * 2014-06-25 2016-01-18 三菱電機株式会社 空気調和装置の室内機及び空気調和装置

Also Published As

Publication number Publication date
JPWO2021019768A1 (ja) 2021-11-18
JP6987314B2 (ja) 2021-12-22

Similar Documents

Publication Publication Date Title
US9715627B2 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
US8284991B2 (en) Apparatus and method for counting number of objects
JP4852159B2 (ja) 画像処理装置、画像処理方法および空調制御装置
JP6273685B2 (ja) 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP6395656B2 (ja) 環境における物体を追跡する方法及びシステム
Cannons A review of visual tracking
US8311276B2 (en) Object tracking apparatus calculating tendency of color change in image data regions
US8929592B2 (en) Camera-based 3D climate control
CN105979134B (zh) 图像处理装置、图像处理方法和图像处理系统
JP7217058B2 (ja) 1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること
JP5697583B2 (ja) 部屋形状認識方法および装置、ならびにこれを用いた空気調和機
JP7192582B2 (ja) 物体追跡装置および物体追跡方法
BR102012030034B1 (pt) sistema e método para gerar um mapa de profundidade bruto
US5805718A (en) Clothing amount measuring apparatus and method using image processing
JP2016048128A (ja) 空気調和機
JP7484924B2 (ja) 撮像装置、画像処理システム、画像処理方法及びプログラム
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
CN114511714A (zh) 物体识别装置和物体识别方法
US11830200B2 (en) Ambient temperature reporting through infrared facial recognition
JP6987314B2 (ja) 室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機
GB2573703A (en) Object tracking device and object tracking method
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP7069725B2 (ja) 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19939081

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021536578

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19939081

Country of ref document: EP

Kind code of ref document: A1