WO2022004777A1 - 温度分布学習装置 - Google Patents

温度分布学習装置 Download PDF

Info

Publication number
WO2022004777A1
WO2022004777A1 PCT/JP2021/024712 JP2021024712W WO2022004777A1 WO 2022004777 A1 WO2022004777 A1 WO 2022004777A1 JP 2021024712 W JP2021024712 W JP 2021024712W WO 2022004777 A1 WO2022004777 A1 WO 2022004777A1
Authority
WO
WIPO (PCT)
Prior art keywords
temperature distribution
temperature
heat source
learning
target space
Prior art date
Application number
PCT/JP2021/024712
Other languages
English (en)
French (fr)
Inventor
富夫 越後
聖一 田川
Original Assignee
ダイキン工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイキン工業株式会社 filed Critical ダイキン工業株式会社
Priority to US18/012,821 priority Critical patent/US20230258503A1/en
Priority to EP21832921.7A priority patent/EP4174482A1/en
Priority to CN202180046090.6A priority patent/CN115735120A/zh
Publication of WO2022004777A1 publication Critical patent/WO2022004777A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/026Control of working procedures of a pyrometer, other than calibration; Bandwidth calculation; Gain control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/80Calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0003Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiant heat transfer of samples, e.g. emittance meter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0066Radiation pyrometry, e.g. infrared or optical thermometry for hot spots detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • G01J5/485Temperature profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Definitions

  • Patent Document 1 International Publication No. 2020-075244
  • Patent Document 1 International Publication No. 2020-075244
  • Patent Document 1 has a problem that if there is no air conditioner in the target space, information on the outlet of the air conditioner cannot be obtained and the temperature distribution in the target space cannot be learned.
  • the temperature distribution learning device of the first viewpoint learns the temperature distribution including the temperature of at least the first point in the air of the target space.
  • the temperature distribution learning device includes a learning model.
  • the learning model learns by associating the temperature distribution, which is the objective variable, with the thermal image of the target space, which is the explanatory variable.
  • the training model trains based on teacher data including temperature distribution and thermal images.
  • the learning model learns by associating the temperature distribution, which is the objective variable, with the thermal image of the target space, which is the explanatory variable.
  • the temperature distribution learning device can learn the temperature distribution of the target space even if the target space does not have an air conditioner. Even if the target space has an air conditioner, the temperature distribution learning device learns the temperature distribution of the target space without using the information about the air conditioner or by using the information about the air conditioner together. Can be done.
  • the temperature distribution learning device of the second viewpoint is the temperature distribution learning device of the first viewpoint, and the temperature distribution is the temperature of a plurality of points in the air of the target space.
  • the temperature distribution is the temperature of a plurality of points in the air of the target space.
  • the temperature distribution learning device can learn a learning model that estimates the temperature of a plurality of points in the air of the target space from the thermal image of the target space.
  • the temperature distribution estimation device of the third viewpoint includes a temperature distribution estimation unit and an acquisition unit.
  • the temperature distribution estimation unit estimates the temperature distribution from the thermal image using the learning model of the temperature distribution learning device of the first viewpoint or the second viewpoint.
  • the acquisition unit acquires a thermal image.
  • the temperature distribution estimation unit estimates the temperature distribution from the thermal image using the learning model of the temperature distribution learning device.
  • the acquisition unit acquires a thermal image.
  • the temperature distribution estimation device can estimate the temperature distribution from the thermal image without the need for a temperature sensor.
  • the estimated temperature distribution is used, for example, as a judgment material for controlling an air conditioner.
  • the temperature distribution estimation device of the fourth viewpoint is the temperature distribution estimation device of the third viewpoint, and the temperature distribution estimation unit is based on the estimated temperature distribution and is not included in the estimated temperature distribution in the air of the target space. Further estimate the temperature of.
  • the temperature distribution estimation device of the fourth viewpoint can estimate the temperature in any air in the target space by such a configuration.
  • the temperature distribution estimation device of the fifth viewpoint is a temperature distribution estimation device of the fourth viewpoint, and further includes a heat source position specifying unit, a heat source effect estimation unit, and a heat source effect reflection unit.
  • the heat source position specifying unit specifies the position of the heat source in the target space.
  • the heat source influence estimation unit estimates the temperature change around the heat source due to the influence of the heat source.
  • the heat source influence reflection unit reflects the temperature change around the heat source estimated by the heat source influence estimation unit on the air temperature in the target space estimated by the temperature distribution estimation unit.
  • the heat source position specifying unit specifies the position of the heat source in the target space.
  • the heat source influence estimation unit estimates the temperature change around the heat source due to the influence of the heat source.
  • the heat source influence reflection unit reflects the temperature change around the heat source estimated by the heat source influence estimation unit on the air temperature in the target space estimated by the temperature distribution estimation unit. As a result, the temperature distribution estimation device can estimate the temperature in the air of the target space, which reflects the influence of the heat source.
  • the temperature distribution estimation device of the sixth viewpoint is the temperature distribution estimation device of the fifth viewpoint, and the heat source position specifying unit specifies the position of the heat source by a camera or a depth sensor.
  • the heat source position specifying unit specifies the position of the heat source by the camera or the depth sensor.
  • the temperature distribution estimation device can identify the position of the heat source by using a camera or a depth sensor.
  • the temperature distribution estimation device of the seventh viewpoint is a temperature distribution estimation device of either the fifth viewpoint or the sixth viewpoint, and the heat source position specifying unit specifies the position of a person as the position of the heat source.
  • the heat source position specifying unit specifies the position of a person as the position of the heat source.
  • the temperature distribution estimation device can estimate the temperature in the air of the target space, which reflects the influence of humans.
  • the temperature distribution learning method of the eighth viewpoint learns the temperature distribution including the temperature of at least the first point in the air of the target space.
  • the temperature distribution learning method comprises a learning step.
  • the temperature distribution which is the objective variable
  • the thermal image of the target space which is the explanatory variable
  • learning is performed based on the teacher data including the temperature distribution and the thermal image.
  • the temperature distribution learning method can be performed on any device.
  • the temperature distribution estimation method of the ninth viewpoint includes a temperature distribution estimation step and an acquisition step.
  • the temperature distribution estimation step the temperature distribution is estimated from the thermal image by the temperature distribution learning method of the eighth viewpoint.
  • the acquisition step acquires a thermal image.
  • the temperature distribution estimation method can be performed by any device.
  • the temperature distribution estimation method of the tenth viewpoint is the temperature distribution estimation method of the ninth viewpoint, and in the temperature distribution estimation step, based on the estimated temperature distribution, the air in the target space not included in the estimated temperature distribution. Further estimate the temperature of.
  • the temperature distribution estimation method can be performed by any device.
  • the temperature distribution estimation method of the eleventh viewpoint is the temperature distribution estimation method of the tenth viewpoint, and further includes a heat source position specifying step, a heat source influence estimation step, and a heat source influence reflection step.
  • the heat source location specifying step identifies the position of the heat source in the target space.
  • the heat source effect estimation step estimates the temperature change around the heat source due to the effect of the heat source.
  • the heat source influence reflection step reflects the temperature change around the heat source estimated by the heat source influence estimation step in the air temperature of the target space estimated in the temperature distribution estimation step.
  • FIG. 1 is a configuration diagram of a temperature distribution learning device 100 and a temperature distribution estimation device 200.
  • the temperature distribution learning device 100, the temperature distribution estimation device 200, and the devices 81 to 83 of the target space 80 are communicably connected via the network 90.
  • the network 90 is the Internet.
  • the network 90 is not limited to the Internet as long as the temperature distribution learning device 100, the temperature distribution estimation device 200, and the devices 81 to 83 of the target space 80 are communicably connected.
  • the network 90 may be a wired or wireless LAN or the like.
  • the network 90 connecting the temperature distribution learning device 100 and the temperature distribution estimation device 200 may be an electronic circuit or the like.
  • Target space 80 is, for example, an office space. As shown in FIG. 1, a thermo camera 81, a temperature sensor 82, and a human detection camera 83 are installed in the target space 80.
  • FIG. 4 is a diagram showing an example of the target space 80 during the temperature distribution learning process.
  • FIG. 5 is a diagram showing an example of the target space 80 at the time of temperature distribution estimation processing. The temperature distribution learning process and the temperature distribution estimation process will be described later.
  • the thermo camera 81 is installed so as to be lifted from the ceiling of the target space 80.
  • the thermo camera 81 captures a thermal image HI in which the surface temperature of the floor, wall, window, furniture, etc. of the target space 80 is displayed in pseudo color.
  • the thermal image HI is a grayscale image.
  • Each pixel of the thermal image HI stores, for example, an integer from 0 to 65535 related to the temperature in degrees Celsius. This integer is, for example, 10 times the real value of temperature in order to hold the numerical value of the temperature up to the first decimal place.
  • the thermal image HI acquired by the temperature distribution learning apparatus 100 in the temperature distribution learning process will be referred to as a thermal image HI1.
  • the thermal image HI acquired by the temperature distribution estimation device 200 in the temperature distribution estimation process is referred to as a thermal image HI2.
  • the temperature sensor 82 is installed in the air of the target space 80.
  • the plurality of temperature sensors 82 are installed at the same height. The height is, for example, 100 cm to 120 cm from the floor.
  • four temperature sensors 82 are installed as an example.
  • the temperature sensor 82 measures the temperature at the installed position.
  • the set of temperatures measured by the plurality of temperature sensors 82 will be referred to as a temperature measurement value TM.
  • the temperature measurement value TM is represented as an N-dimensional vector.
  • the temperature measurement value TM acquired by the temperature distribution learning device 100 in the temperature distribution learning process is described as the temperature measurement value TM1.
  • the temperature measurement value TM estimated by the temperature distribution estimation device 200 in the temperature distribution estimation process is referred to as a temperature measurement value TM2.
  • a plane at the same height as the temperature sensor 82 divided by a two-dimensional grid is referred to as a grid plane GP.
  • the grid lines of the grid plane GP are omitted.
  • the grid plane GP is configured such that at most one temperature sensor 82 exists in each square divided by the grid lines.
  • FIG. 6 is a diagram showing an example of the grid plane GP.
  • the temperature sensor 82 is indicated by a circle.
  • each mass of the grid plane GP includes at most one temperature sensor 82.
  • the person detection camera 83 is installed on the ceiling of the target space 80.
  • the person detection camera 83 of the present embodiment is an omnidirectional camera.
  • the person detection camera 83 detects the position of a person in the target space 80, and outputs the coordinates as position data 831.
  • the person detection camera 83 is used to detect the position of the person in the target space 80.
  • a depth sensor or LiDAR Light Detection and Ringing
  • the position may be detected.
  • the temperature distribution learning device 100 learns the temperature distribution TD including the temperature of at least the first point in the air of the target space 80.
  • the temperature distribution TD is the temperature of a representative point in the mass where the temperature sensor 82 is present in the grid plane GP.
  • the temperature of the representative point at the time of learning is a measured value of the corresponding temperature sensor 82.
  • the temperature calculated by simulation may be used.
  • the mass in which the temperature of the representative point is measured by the temperature sensor 82 may be referred to as “a mass in which the temperature is defined”. Further, the temperature of the representative point in the mass may be described as "the temperature of the mass”.
  • the temperature distribution TD is the temperature distribution of the cells whose temperature is defined for learning.
  • the temperature distribution TD learned by the temperature distribution learning device 100 is the temperature of a plurality of representative points in the air of the target space 80.
  • the temperature distribution TD learned by the temperature distribution learning device 100 is the temperature measured value TM1 of the plurality of temperature sensors 82.
  • the process of creating the learning model LM described later by the temperature distribution learning device 100 will be referred to as a temperature distribution learning process.
  • the temperature distribution learning device 100 mainly includes a learning unit 10.
  • the temperature distribution learning device 100 includes a control calculation device and a storage device.
  • a processor such as a CPU or GPU can be used as the control arithmetic unit.
  • the control arithmetic unit reads out a program stored in the storage device, and performs predetermined image processing and arithmetic processing according to this program. Further, the control arithmetic unit can write the arithmetic result to the storage device and read the information stored in the storage device according to the program.
  • the learning unit 10 is various functional blocks realized by the control arithmetic unit.
  • the temperature distribution learning device 100 includes a learning model LM.
  • the learning unit 10 creates a learning model LM that learns by associating the temperature distribution TD, which is the objective variable, with the thermal image HI1 regarding the target space 80, which is the explanatory variable.
  • the learning unit 10 creates a learning model LM using the correspondence between the temperature distribution TD and the thermal image HI1 as teacher data.
  • FIG. 2 is a block diagram of the temperature distribution learning process.
  • the learning unit 10 acquires the thermal image HI1 from the thermo camera 81 shown in FIG. 4 as an explanatory variable of the learning data 11.
  • the thermal image HI1 is a thermal image HI1 of the target space 80 at a predetermined time interval in a predetermined period.
  • the predetermined period is, for example, one month.
  • the predetermined time interval is, for example, 5 minutes.
  • the learning unit 10 may acquire the thermal image HI1 in real time at predetermined time intervals, or may acquire the thermal images HI1 collectively for a predetermined period.
  • the learning unit 10 acquires the temperature measurement value TM1 from the plurality of temperature sensors 82 shown in FIG. 4 as the objective variable of the learning data 11.
  • the learning unit 10 acquires the temperature measurement value TM1 at the same time as the thermal image HI1 acquired above.
  • the learning unit 10 When the learning unit 10 acquires the learning data 11, it creates a learning model LM as shown in FIG.
  • the learning model LM is a normal neural network.
  • the learning model LM is not limited to a normal neural network, and other learning model LMs may be used.
  • a three-layer neural network was used as the learning model LM.
  • a thermal image HI1 having a resolution of 80 ⁇ 80 is transformed into 6400 dimensions and input.
  • the temperature measurement value TM1 which is a 38-dimensional vector is output to the output layer.
  • the input layer, intermediate layer and output layer are fully connected.
  • FIGS. 7 and 8 are diagrams showing the verification results of learning accuracy.
  • 7 and 8 are verification results for one temperature sensor 82.
  • the vertical axis of FIGS. 7 and 8 is the absolute error between the predicted temperature and the measured temperature.
  • the absolute error is the absolute value of the difference between the predicted temperature and the measured temperature.
  • the horizontal axis of FIGS. 7 and 8 is a part of the period of the test data. As shown in FIG. 7, between May 1, 2020 and May 5, 2020, the absolute error was at most 1.5 ° C. On the other hand, as shown in FIG. 8, between May 9, 2020 and May 12, 2020, the absolute error is at most 1 ° C as a whole, but partly on May 11, 2020. Around 12:00, the absolute error became about 2.5 ° C.
  • Temperature distribution estimation device 200 estimates the temperature in the air of the target space 80 by using a learning model LM or the like. In other words, the temperature distribution estimation device 200 creates a temperature map HM of the target space 80.
  • the temperature corresponding to each cell is input to each cell of the grid plane GP.
  • the temperature map HM can express the temperature level of each cell as, for example, an image expressed by shades of gray scale. Further, the temperature map HM can be expressed as a pseudo-color display image in which the temperature of each cell is represented by red, yellow, and blue in descending order of temperature, for example, by regarding each cell as a pixel.
  • the temperature distribution estimation device 200 outputs the temperature map HM4 as a temperature map HM that reflects the influence of a person in the target space 80. Further, the temperature distribution estimation device 200 outputs the temperature map HM1 as a temperature map HM that does not reflect the influence of a person in the target space 80.
  • the case of reflecting the influence of a person in the target space 80 is a case where it can be considered that the person stays in the same square on the grid plane GP for a predetermined time.
  • the process of outputting the temperature map HM by the temperature distribution estimation device 200 will be referred to as a temperature distribution estimation process.
  • the temperature distribution estimation device 200 mainly includes an acquisition unit 20, a temperature distribution estimation unit 30, a heat source position specifying unit 40, a heat source effect estimation unit 50, and a heat source effect reflection unit 60. Be prepared.
  • the temperature distribution estimation device 200 includes a control calculation device and a storage device.
  • a processor such as a CPU or GPU can be used as the control arithmetic unit.
  • the control arithmetic unit reads out a program stored in the storage device, and performs predetermined image processing and arithmetic processing according to this program. Further, the control arithmetic unit can write the arithmetic result to the storage device and read the information stored in the storage device according to the program.
  • the acquisition unit 20, the temperature distribution estimation unit 30, the heat source position specifying unit 40, the heat source effect estimation unit 50, and the heat source effect reflection unit 60 are various functional blocks realized by the control arithmetic unit.
  • the acquisition unit 20 acquires the thermal image HI2 from the thermo camera 81 shown in FIG.
  • the acquisition unit 20 acquires the thermal image HI2 at predetermined time intervals.
  • the predetermined time interval is, for example, 5 minutes.
  • Temperature distribution estimation unit 30 estimates the temperature distribution TD from the thermal image HI2 using the learning model LM created by the temperature distribution learning device 100.
  • the estimated temperature distribution TD is the temperature measured value TM2 of the plurality of temperature sensors 82.
  • the temperature distribution estimation unit 30 inputs the thermal image HI2 to the learning model LM and outputs the temperature measurement value TM2.
  • the temperature distribution estimation unit 30 estimates the temperature in the air of the target space 80, which is not included in the estimated temperature distribution TD, based on the estimated temperature distribution TD. In other words, the temperature distribution estimation unit 30 creates the temperature map HM1 from the temperature measurement value TM2 as shown in FIG.
  • the temperature map HM1 is a temperature map HM that does not reflect the influence of a person in the target space 80.
  • 9 and 10 are diagrams showing an example of the grid plane GP in the process of creating the temperature map HM1.
  • the temperature distribution estimation unit 30 inputs the corresponding temperature measurement value TM2 to the mass (temperature sensor mass 82m) including the temperature sensor 82 among the masses of the grid plane GP.
  • the mass temperature sensor mass 82m
  • the temperature distribution estimation unit 30 inputs the corresponding temperature measurement value TM2 to the mass (temperature sensor mass 82m) including the temperature sensor 82 among the masses of the grid plane GP.
  • the temperature sensor masses 82m1 to 82m4 are shown on a 5 ⁇ 5 grid plane GP.
  • the temperature distribution estimation unit 30 performs an interpolation process of interpolating the temperature into a cell in which the temperature is not input.
  • the temperature distribution estimation unit 30 inputs the temperature of the temperature sensor mass 82 m closest to the interpolated mass Im into the interpolated mass (interpolated mass Im).
  • the average value of these plurality of temperatures is input to the interpolated mass Im.
  • the temperature sensor mass 82m closest to the interpolated mass Im is the temperature sensor mass 82 m having the smallest number of traced cells when the mass of the grid plane GP is traced vertically, horizontally or diagonally from the interpolated mass Im. Is.
  • the temperature sensor mass 82m closest to the interpolation mass Im1 in FIG. 10 is the temperature sensor mass 82m2, “22 ° C”, which is the temperature of the temperature sensor mass 82m2, is input to the interpolation mass Im1.
  • the temperature sensor mass 82m closest to the interpolation mass Im2 is the temperature sensor mass 82m1, 82m2, “21 ° C.”, which is the average temperature of the temperature sensor mass 82m1, 82m2, is input to the interpolation mass Im2.
  • the temperature sensor mass 82m closest to the interpolation mass Im3 is the temperature sensor mass 82m1 to 82m4, "22.8 ° C.”, which is the average value of the temperatures of the temperature sensor mass 82m1 to 82m4, is input to the interpolation mass Im3.
  • the interpolation process is not limited to that of the present embodiment, and other interpolation processes such as a bilinear method, a nearest neighbor method, and a bicubic method may be performed.
  • the temperature distribution estimation device 200 outputs the temperature map HM1 when the influence of the person in the target space 80 is not reflected in the temperature map HM.
  • FIG. 11 is a diagram showing an example of the temperature map HM1.
  • the high and low temperatures of each square are represented by shades of gray scale.
  • the heat source position specifying unit 40 specifies the position of the heat source HS in the target space 80. In the present embodiment, the heat source position specifying unit 40 specifies the position of a person as the position of the heat source HS. Further, the heat source position specifying unit 40 specifies the position of the heat source HS by a camera or a depth sensor. In the present embodiment, the heat source position specifying unit 40 identifies the position of a person by the person detection camera 83.
  • the heat source position specifying unit 40 acquires position data 831 of a person (heat source HS) in the target space 80 from the person detection camera 83 shown in FIG.
  • the heat source position specifying unit 40 further acquires the temperature map HM1 and compares the position data 831 with the temperature map HM1 to identify the mass (human mass HSm) in which the person of the temperature map HM1 exists.
  • the heat source position specifying unit 40 distinguishes the person and identifies the mass HSm of the person.
  • the heat source position specifying unit 40 creates a temperature map HM2 as shown in FIG.
  • the temperature map HM2 identifies the mass HSm of a person in the temperature map HM1.
  • Heat source influence estimation unit 50 estimates the temperature change around the heat source HS due to the influence of the heat source HS.
  • the heat source influence estimation unit 50 updates the temperature map HM2 and creates the temperature map HM3 as shown in FIG.
  • the temperature map HM3 is a temperature map HM that estimates the temperature change around a person with respect to the temperature map HM2.
  • the heat source influence estimation unit 50 may consider that the same person stays in the same square of the person's square HSm for a predetermined time. Update the temperature of. This is because if the same person stays in the same square for a predetermined time, it is considered that the temperature around the person changes depending on the amount of heat released from the person.
  • the heat source influence estimation unit 50 compares the temperature map HM2 acquired last time with the temperature map HM2 acquired this time, and when the same person is in the same square, the same person is in the same square. It is considered that it has stayed for a predetermined time.
  • 12 and 13 are diagrams showing an example of the grid plane GP in the process of creating the temperature map HM3.
  • the heat source influence estimation unit 50 updates the temperature of the human mass HSm on the temperature map HM2 to the temperature of the human.
  • the human temperature is 36 ° C.
  • "36 ° C.” is input to the human mass HSm.
  • the heat source influence estimation unit 50 updates the temperature of the heat radiation mass TRm.
  • the amount of heat released from a person is even in all directions when there is no air flow.
  • the amount of heat released from a person is inversely proportional to the square of the distance from the person.
  • the temperature change in the vicinity region of a person is caused by the distance from the person to the vicinity region and the temperature before the update of the vicinity region.
  • the conversion from the applied heat quantity to the temperature change is performed by a non-linear conversion by a sigmoid function or the like so as not to exceed the human temperature.
  • the heat source HS human
  • it has Markov property, and the region where the heat is applied further releases the heat, and the temperature of the region where the heat is released decreases, but the temperature of the original heat source HS (human). Does not decrease.
  • parameters for determining the conduction heat amount in the 4 or 8 directions which are the objective variables, are calculated and used as teacher data.
  • the conduction heat amount is estimated from the control parameters of the air conditioner, the number of residences, and the residence time, and the temperature from the steady state can be corrected.
  • the unlearned mass by obtaining multiple estimated values when the above explanatory variables are input to the surrounding learned cells and interpolating them, the parameters for calculating the conduction heat amount can be obtained and the conduction heat amount can be determined. , Temperature correction is possible.
  • the temperature of the temperature map HM2 is updated by the heat propagation model considering the above conditions.
  • the mass whose temperature is displayed in white is defined as the neighboring mass NRm, and for the sake of simplicity, only the temperature of the neighboring mass NRm is updated.
  • Heat source influence reflection unit The heat source influence reflection unit 60 estimates the temperature change around the heat source HS estimated by the heat source influence estimation unit 50, and the target space 80 estimated by the temperature distribution estimation unit 30. Reflected in the temperature in the air. Specifically, as shown in FIG. 3, the heat source influence reflecting unit 60 updates the temperature map HM3 to create the temperature map HM4.
  • the temperature map HM4 is a temperature map HM that reflects the influence of a person in the target space 80.
  • 14 and 15 are diagrams showing an example of the grid plane GP in the process of creating the temperature map HM4.
  • the heat source influence reflection unit 60 regards the cells other than the “temperature sensor mass 82 m and the mass whose temperature has been updated by the heat source effect estimation unit 50” of the temperature map HM3 as the interpolation mass Im, and performs the interpolation process again.
  • the heat source influence reflecting unit 60 performs the same interpolation processing as the interpolation processing performed by the temperature distribution estimation unit 30.
  • FIG. 14 among the cells of the temperature map HM3 of FIG. 13, cells other than “temperature sensor cells 82m1 to 82m4, human cells HSm, and neighboring cells NRm” are regarded as interpolated cells Im and emptied.
  • the interpolation mass Im is filled by the interpolation processing.
  • the temperature distribution estimation device 200 outputs the temperature map HM4 when the influence of a person in the target space 80 is reflected in the temperature map HM.
  • FIG. 16 is a diagram showing an example of the temperature map HM4.
  • the high and low temperatures of each square are represented by shades of gray scale.
  • the temperature distribution learning device 100 acquires the thermal image HI1 from the thermo camera 81 shown in FIG.
  • the thermal image HI1 is a thermal image HI1 of the target space 80 at a predetermined time interval in a predetermined period.
  • the temperature distribution learning device 100 acquires the thermal image HI1, as shown in step S2, the temperature distribution learning device 100 acquires the temperature measurement value TM1 from the plurality of temperature sensors 82 shown in FIG.
  • the temperature measurement value TM1 is at the same time as the acquired thermal image HI1.
  • the temperature distribution learning device 100 acquires the temperature measured value TM1, as shown in step S3, the temperature distribution learning device 100 creates a learning model LM using the thermal image HI1 as an explanatory variable and the temperature measured value TM1 as an objective variable.
  • the temperature distribution estimation device 200 acquires the thermal image HI2 from the thermo camera 81 shown in FIG.
  • the temperature distribution estimation device 200 acquires the thermal image HI2, as shown in step S12, the temperature measurement value TM2 is estimated from the thermal image HI2 using the learning model LM created by the temperature distribution learning device 100.
  • the temperature distribution estimation device 200 estimates the temperature measurement value TM2, as shown in step S13, the temperature distribution estimation device 200 creates a temperature map HM1 that does not reflect the influence of a person in the target space 80 by interpolation processing.
  • the temperature distribution estimation device 200 When the temperature distribution estimation device 200 creates the temperature map HM1, as shown in step S14, the temperature distribution estimation device 200 acquires the position data 831 of the person in the target space 80 from the person detection camera 83 shown in FIG.
  • the temperature distribution estimation device 200 acquires the position data 831 of a person in the target space 80, it creates a temperature map HM2 that specifies the position of a person in the temperature map HM1 as shown in step S15.
  • the temperature map HM2 created last time is compared with the temperature map HM2 created this time, and whether or not the same person is in the same mass. Judge.
  • the temperature distribution estimation device 200 proceeds to step S17 when the same person is in the same square. If the same person is not in the same square, the temperature distribution estimation device 200 proceeds to step S20.
  • the temperature distribution estimation device 200 When proceeding from step S16 to step S17, the temperature distribution estimation device 200 creates a temperature map HM3 that estimates the temperature change around the person in the target space 80.
  • the temperature distribution estimation device 200 creates the temperature map HM3, as shown in step S18, the temperature distribution estimation device 200 creates a temperature map HM4 that reflects the influence of a person in the target space 80.
  • the temperature distribution estimation device 200 When the temperature distribution estimation device 200 creates the temperature map HM4, it outputs the temperature map HM4 as shown in step S19.
  • the temperature distribution estimation device 200 outputs the temperature map HM1 assuming that there is no change in the ambient temperature due to the influence of a person.
  • the temperature distribution estimation process is performed every time the acquisition unit 20 acquires the thermal image HI2. Therefore, the temperature distribution estimation device 200 outputs the temperature map HM1 or the temperature map HM4 at predetermined time intervals in which the acquisition unit 20 acquires the thermal image HI2.
  • thermo camera measures the temperature of the surface of the object from the radiant heat of the surface of the object. Therefore, for example, there is a technique for learning the temperature distribution of the target space by using the thermal image of the target space and the information of the outlet of the air conditioner.
  • the learning model LM learns by associating the temperature distribution TD, which is the objective variable, with the thermal image HI regarding the target space 80, which is the explanatory variable.
  • the temperature distribution learning device 100 can learn the temperature distribution TD of the target space 80 even if the target space 80 does not have an air conditioner. Even if the target space 80 has an air conditioner, the temperature distribution learning device 100 does not use the information about the air conditioner or also uses the information about the air conditioner in combination with the temperature distribution TD of the target space 80. Can be learned.
  • the temperature distribution TD is a temperature measurement value TM1 at a plurality of points in the air of the target space 80.
  • the temperature distribution learning device 100 can learn the learning model LM that estimates the temperature measurement values TM of a plurality of points in the air of the target space 80 from the thermal image HI relating to the target space 80.
  • the accuracy of the estimated temperature distribution depends on the number of temperature sensors to be installed, so it is necessary to install a large number of temperature sensors in order to estimate the temperature distribution with high accuracy. Therefore, in order to estimate the temperature distribution with high accuracy, there is a problem that the target space becomes an inconvenient space and the installation cost of the temperature sensor increases.
  • the temperature distribution estimation unit 30 estimates the temperature distribution TD from the thermal image HI using the learning model LM of the temperature distribution learning device 100.
  • the acquisition unit 20 acquires the thermal image HI2.
  • the temperature distribution estimation device 200 can estimate the temperature distribution TD from the thermal image HI2 without the temperature sensor 82.
  • the temperature distribution estimation unit 30 further estimates the temperature in the air of the target space 80, which is not included in the estimated temperature distribution TD, based on the estimated temperature distribution TD. As a result, the temperature distribution estimation device 200 can estimate the temperature in the air of the target space 80.
  • the heat source position specifying unit 40 specifies the position of the heat source HS in the target space 80.
  • the heat source influence estimation unit 50 estimates the temperature change around the heat source HS due to the influence of the heat source HS.
  • the heat source influence reflection unit 60 reflects the temperature change around the heat source HS estimated by the heat source influence estimation unit 50 in the air temperature of the target space 80 estimated by the temperature distribution estimation unit 30. As a result, the temperature distribution estimation device 200 can estimate the temperature in the air of the target space 80, which reflects the influence of the heat source HS.
  • the relationship between the structure and one point in the air is expressed only by the heat conduction of air, and can be determined from the surface temperatures of many structures with different distances.
  • the temperatures of many aerial target points can be estimated by relating them to each target point because the distance from the structure and the related heat conduction path are different.
  • the heat source position specifying unit 40 identifies the position of the heat source HS by a camera or a depth sensor.
  • the temperature distribution estimation device 200 can identify the position of the heat source HS by using a camera or a depth sensor.
  • the heat source position specifying unit 40 specifies the position of a person as the position of the heat source HS.
  • the temperature distribution estimation device 200 can estimate the temperature in the air of the target space 80, which reflects the influence of humans.
  • the temperature distribution learning device 100 has performed the temperature distribution learning process.
  • the temperature distribution learning process may be regarded as a temperature distribution learning method.
  • the temperature distribution learning method learns the temperature distribution TD including the temperature of at least the first point in the air of the target space 80.
  • the temperature distribution learning method comprises a learning step.
  • the temperature distribution TD which is the objective variable
  • the thermal image HI regarding the target space 80 which is the explanatory variable
  • learning is performed based on the teacher data including the temperature distribution TD and the thermal image HI.
  • the learning step corresponds to the function of the learning unit 10 of the temperature distribution learning process. Further, the learning step corresponds to steps S1 to S3 in FIG.
  • the temperature distribution learning method can be executed by any device.
  • the temperature distribution estimation device 200 has performed the temperature distribution estimation process.
  • the temperature distribution estimation process may be regarded as a temperature distribution estimation method.
  • the temperature distribution estimation method includes a temperature distribution estimation step and an acquisition step.
  • the temperature distribution estimation step estimates the temperature distribution TD from the thermal image HI by the temperature distribution learning method.
  • the temperature in the air of the target space 80 which is not included in the estimated temperature distribution TD, is further estimated based on the estimated temperature distribution TD.
  • the acquisition step acquires a thermal image HI.
  • the temperature distribution estimation method further includes a heat source position specifying step, a heat source influence estimation step, and a heat source influence reflection step.
  • the heat source position specifying step specifies the position of the heat source HS in the target space 80.
  • the heat source influence estimation step estimates the temperature change around the heat source HS due to the influence of the heat source HS.
  • the heat source influence reflection step reflects the temperature change around the heat source HS estimated by the heat source influence estimation step in the air temperature of the target space 80 estimated in the temperature distribution estimation step.
  • the acquisition step corresponds to the function of the acquisition unit 20 of the temperature distribution estimation process. Further, the acquisition step corresponds to step S11 in FIG.
  • the temperature distribution estimation step corresponds to the function of the temperature distribution estimation unit 30 of the temperature distribution estimation process. Further, the temperature distribution estimation step corresponds to step S12 and step S13 in FIG.
  • the heat source position specifying step corresponds to the function of the heat source position specifying unit 40 of the temperature distribution estimation process. Further, the heat source position specifying step corresponds to step S14 and step S15 in FIG.
  • the heat source effect estimation step corresponds to the function of the heat source effect estimation unit 50 of the temperature distribution estimation process. Further, the heat source influence estimation step corresponds to step S17 in FIG.
  • the heat source influence reflection step corresponds to the function of the heat source influence reflection unit 60 of the temperature distribution estimation process. Further, the heat source influence reflection step corresponds to step S18 in FIG.
  • the temperature distribution estimation method can be executed by any device.
  • the temperature distribution estimation unit 30 and the heat source influence reflection unit 60 perform interpolation processing in which the temperature is interpolated into the interpolation mass Im in which the temperature of the temperature map HM is not filled.
  • the temperature of the temperature sensor mass 82m which is the closest to the interpolation mass Im, is input to the interpolation mass Im.
  • the average value of these plurality of temperatures is input to the interpolated mass Im.
  • DCGAN Deep Convolutional GAN
  • SRGAN Super Resolution GAN
  • TecoGAN Temporal
  • GAN Geneative Adversarial Network
  • FIG. 19 is a diagram showing a comparison of interpolation processing results.
  • a 13 ⁇ 13 grid plane GP having 38 temperature sensor masses 82 m is shown.
  • the temperature sensor mass 82 m is indicated by a circle.
  • the temperature map HM created by performing the interpolation processing of the present embodiment based on the temperature measurement value TM of these temperature sensors 82 is the image on the upper right.
  • the temperature map HM created using TecoGAN is the lower right image. It can be seen that the lower right image is a higher definition image than the upper right image.
  • the learning model LM is a normal neural network.
  • the learning model LM may be, in particular, a convolutional neural network (CNN). Since CNN is effective when the input is an image, there is a possibility that a learning model LM with higher prediction accuracy can be created.
  • CNN convolutional neural network
  • ResNet Residal Network
  • a thermal image HI is input to the input layer.
  • the latter half of the intermediate layer is a fully connected layer.
  • the temperature measurement value TM is output as a vector on the output layer.
  • the temperature distribution learning device 100 learns by associating the thermal image HI1 acquired from the thermo camera 81 with the temperature measured value TM1 acquired from the plurality of temperature sensors 82.
  • the temperature distribution learning device 100 may first create a temperature map HM0 from the temperature measured value TM1 by interpolation processing, and then learn the temperature map HM0 and the thermal image HI1 in association with each other.
  • FIG. 20 is a block diagram of the temperature distribution learning process in this modified example.
  • the learning unit 10 creates the temperature map HM0 by interpolation processing when the temperature measurement value TM1 is acquired.
  • the learning unit 10 learns by associating the temperature map HM0 with the thermal image HI1 and creates a learning model LM.
  • the temperature distribution estimation device 200 directly outputs the temperature map HM1 that does not reflect the influence of the person in the target space 80 by inputting the thermal image HI2 into the created learning model LM. Can be done.
  • FIG. 21 is a block diagram of the temperature distribution estimation process in this modified example. As shown in FIG. 21, unlike FIG. 3, the temperature distribution estimation unit 30 inputs the thermal image HI2 into the learning model LM and outputs the temperature map HM1.
  • FIG. 22 is a diagram showing an example of the temperature distribution TD in the grid space GS.
  • the grid space GS is a space 80 divided into 4 ⁇ 4 ⁇ 4 blocks.
  • the unit that defines one temperature may be one in which blocks are linearly connected, for example, the unit block UB1.
  • the unit that defines one temperature may be a unit in which blocks are connected in a plane, for example, the unit block UB2.
  • the unit that defines one temperature may be, for example, a unit in which blocks are stacked in a cubic shape, such as the unit block UB3.
  • the temperature of the unit block UB may be defined as, for example, an average value of the temperatures measured by installing temperature sensors 82 in each block constituting the unit block UB. Further, for example, in the unit block UB3, a temperature sensor 82 may be installed at the center point of the unit block UB3, and the measured value of the temperature sensor 82 may be defined as the temperature of the unit block UB3.
  • the temperature on a straight line may be measured using ultrasonic US, and the measured temperature may be defined as the temperature of the unit block UB1.
  • FIG. 23 is a diagram showing an example of a method of measuring the temperature on a straight line.
  • FIG. 23 shows a method of measuring each temperature of four unit blocks UB1 stacked in the vertical direction in the grid space GS of FIG. 22.
  • FIG. 23 is a view of four unit blocks UB1 stacked in the vertical direction as viewed from the right.
  • the unit block UB1 is described as a unit block UB11, a unit block UB12, a unit block UB13, and a unit block UB14 from the top.
  • An ultrasonic wave generator 84 is installed in each unit block UB1. Specifically, the unit block UB11 is provided with ultrasonic wave generators 84a and 84b1 at the ends in the front-rear direction, respectively. An ultrasonic wave generator 84b2 is installed at the rear end of the unit block UB12. An ultrasonic wave generator 84b3 is installed at the rear end of the unit block UB13. The unit block UB14 is provided with an ultrasonic generator 84b4 at the rear end.
  • the ultrasonic wave generator 84 can transmit and receive linear ultrasonic waves US. Specifically, the ultrasonic wave generator 84a transmits ultrasonic waves US to the ultrasonic wave generators 84b1 to 84b4.
  • the ultrasonic wave generators 84b1 to 84b4 When the ultrasonic wave generators 84b1 to 84b4 receive the ultrasonic wave US from the ultrasonic wave generator 84a, the ultrasonic wave generators 84b1 to 84b4 transmit the ultrasonic wave US to the ultrasonic wave generator 84a.
  • the ultrasonic US that reciprocates between the ultrasonic wave generator 84a and the ultrasonic wave generator 84bi is referred to as an ultrasonic wave USi.
  • i is an integer from 1 to 4, and represents the type of ultrasonic waves US1 to US4.
  • v j (m / s) be the speed of the sound wave US
  • ⁇ i (s) be the time for the ultrasonic wave USi to reciprocate.
  • j is an integer from 1 to 4, and represents the type of unit blocks UB11 to UB14. At this time, the following number 1 holds from the relationship of distance, speed, and time.
  • Equation 1 the tau i, can be measured by the ultrasonic generator 84a. Further, lij can be measured from the arrangement of the ultrasonic wave generator 84 and the definition of the unit block UB. Therefore, equation 1 is a system of equations for v j. The number 1, for example, solving the least squares method or the like, v j is obtained. On the other hand, the speed v j of the ultrasonic waves US is affected by the temperature T j of the air in the unit block UB1j passing (degC). For example, it is considered that the following equation 2 holds between v j and T j.
  • T j can be obtained by substituting v j obtained in Equation 1 into Equation 2.
  • the T j can be defined as the temperature of the unit block UB1j.
  • the temperature distribution estimation device 200 estimates the temperature of the unit block UB in which the temperature is defined, and estimates (interpolates) the temperature of the surrounding blocks from the estimated temperature of the unit block UB, for example, in the same manner as in the present embodiment. )do.
  • Temperature distribution estimation part 20 Acquisition part 30 Temperature distribution estimation part 40 Heat source position identification part 50 Heat source influence estimation part 60 Heat source influence reflection part 80 Target space 100 Temperature distribution learning device 200 Temperature distribution estimation device HI Thermal image HS Heat source LM learning model TD Temperature distribution TM Temperature measurement Value (temperature distribution)

Abstract

対象空間に空気調和機がなければ、空気調和機の吹出口の情報が得られず、対象空間の温度分布を学習できない、という課題がある。温度分布学習装置(100)は、対象空間(80)の空中の少なくとも第1点の温度を含む温度分布(TD,TM)、を学習する。温度分布学習装置(100)は、学習モデル(LM)を備える。学習モデル(LM)は、目的変数である温度分布(TD,TM)と、説明変数である対象空間(80)に関する熱画像(HI)と、を関連づけて学習する。学習モデル(LM)は、温度分布(TD,TM)と熱画像(HI)とを含む教師データに基づいて学習する。

Description

温度分布学習装置
 温度分布学習装置に関する。
 特許文献1(国際公開第2020-075244号)に示されているように、対象空間の熱画像と、空気調和機の吹出口の情報とを用いて、対象空間の温度分布を学習する技術がある。
 特許文献1では、対象空間に空気調和機がなければ、空気調和機の吹出口の情報が得られず、対象空間の温度分布を学習できない、という課題がある。
 第1観点の温度分布学習装置は、対象空間の空中の少なくとも第1点の温度を含む温度分布、を学習する。温度分布学習装置は、学習モデルを備える。学習モデルは、目的変数である温度分布と、説明変数である対象空間に関する熱画像と、を関連づけて学習する。学習モデルは、温度分布と熱画像とを含む教師データに基づいて学習する。
 第1観点の温度分布学習装置では、学習モデルは、目的変数である温度分布と、説明変数である対象空間に関する熱画像と、を関連づけて学習する。その結果、温度分布学習装置は、対象空間に空気調和機がなくても、対象空間の温度分布を学習することができる。なお、温度分布学習装置は、対象空間に空気調和機がある場合でも、空気調和機に関する情報を用いずに、又は、空気調和機に関する情報を併用して、対象空間の温度分布を学習することができる。
 第2観点の温度分布学習装置は、第1観点の温度分布学習装置であって、温度分布は、対象空間の空中の複数点の温度である。
 第2観点の温度分布学習装置では、温度分布は、対象空間の空中の複数点の温度である。その結果、温度分布学習装置は、対象空間に関する熱画像から、対象空間の空中の複数点の温度を推定する学習モデル、を学習することができる。
 第3観点の温度分布推定装置は、温度分布推定部と、取得部と、を備える。温度分布推定部は、第1観点又は第2観点の温度分布学習装置の学習モデルを用いて、熱画像から、温度分布を推定する。取得部は、熱画像を取得する。
 第3観点の温度分布推定装置では、温度分布推定部は、温度分布学習装置の学習モデルを用いて、熱画像から、温度分布を推定する。取得部は、熱画像を取得する。その結果、温度分布推定装置は、温度センサがなくても、熱画像から、温度分布を推定することができる。推定した温度分布は、例えば、空気調和機を制御するための判断材料として用いられる。
 第4観点の温度分布推定装置は、第3観点の温度分布推定装置であって、温度分布推定部は、推定した温度分布に基づいて、当該推定した温度分布に含まれない、対象空間の空中の温度をさらに推定する。
 第4観点の温度分布推定装置は、このような構成により、対象空間の任意の空中の温度を推定することができる。
 第5観点の温度分布推定装置は、第4観点の温度分布推定装置であって、熱源位置特定部と、熱源影響推定部と、熱源影響反映部と、をさらに備える。熱源位置特定部は、対象空間内の熱源の位置を特定する。熱源影響推定部は、熱源の影響による、熱源の周囲の温度変化を推定する。熱源影響反映部は、熱源影響推定部によって推定された、熱源の周囲の温度変化を、温度分布推定部によって推定された、対象空間の空中の温度に反映する。
 第5観点の温度分布推定装置では、熱源位置特定部は、対象空間内の熱源の位置を特定する。熱源影響推定部は、熱源の影響による、熱源の周囲の温度変化を推定する。熱源影響反映部は、熱源影響推定部によって推定された、熱源の周囲の温度変化を、温度分布推定部によって推定された、対象空間の空中の温度に反映する。その結果、温度分布推定装置は、熱源の影響が反映された、対象空間の空中の温度、を推定することができる。
 第6観点の温度分布推定装置は、第5観点の温度分布推定装置であって、熱源位置特定部は、カメラ又は深度センサによって、熱源の位置を特定する。
 第6観点の温度分布推定装置では、熱源位置特定部は、カメラ又は深度センサによって、熱源の位置を特定する。その結果、温度分布推定装置は、カメラ又は深度センサを用いて、熱源の位置を特定することができる。
 第7観点の温度分布推定装置は、第5観点又は第6観点のいずれかの温度分布推定装置であって、熱源位置特定部は、人の位置を、熱源の位置として特定する。
 第7観点の温度分布推定装置では、熱源位置特定部は、人の位置を、熱源の位置として特定する。その結果、温度分布推定装置は、人の影響が反映された、対象空間の空中の温度、を推定することができる。
 第8観点の温度分布学習方法は、対象空間の空中の少なくとも第1点の温度を含む温度分布、を学習する。温度分布学習方法は、学習ステップを備える。学習ステップは、目的変数である温度分布と、説明変数である対象空間に関する熱画像と、を関連づけて学習する。学習ステップでは、温度分布と熱画像とを含む教師データに基づいて学習を行う。その結果、温度分布学習方法は、任意の装置で実行され得る。
 第9観点の温度分布推定方法は、温度分布推定ステップと、取得ステップと、を備える。温度分布推定ステップは、第8観点の温度分布学習方法により、熱画像から、温度分布を推定する。取得ステップは、熱画像を取得する。その結果、温度分布推定方法は、任意の装置で実行され得る。
 第10観点の温度分布推定方法は、第9観点の温度分布推定方法であって、温度分布推定ステップでは、推定した温度分布に基づいて、当該推定した温度分布に含まれない、対象空間の空中の温度をさらに推定する。その結果、温度分布推定方法は、任意の装置で実行され得る。
 第11観点の温度分布推定方法は、第10観点の温度分布推定方法であって、熱源位置特定ステップと、熱源影響推定ステップと、熱源影響反映ステップと、をさらに備える。熱源位置特定ステップは、対象空間内の熱源の位置を特定する。熱源影響推定ステップは、熱源の影響による、熱源の周囲の温度変化を推定する。熱源影響反映ステップは、熱源影響推定ステップによって推定された、熱源の周囲の温度変化を、温度分布推定ステップにおいて推定された、対象空間の空中の温度に反映する。その結果、温度分布推定方法は、任意の装置で実行され得る。
温度分布学習装置及び温度分布推定装置の構成図である。 温度分布学習処理の構成図である。 温度分布推定処理の構成図である。 温度分布学習処理時の対象空間の例を示す図である。 温度分布推定処理時の対象空間の例を示す図である。 グリッド平面の例を示す図である。 学習精度の検証結果を示す図である。 学習精度の検証結果を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップの例を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップを作成する過程のグリッド平面の例を示す図である。 温度マップの例を示す図である。 温度分布学習処理のフローチャートである。 温度分布推定処理のフローチャートである。 補間処理結果の比較を示す図である。 変形例1Eにおける温度分布学習処理の構成図である。 変形例1Eにおける温度分布推定処理の構成図である。 グリッド空間における温度分布の例を示す図である。 直線上の温度を測定する方法の例を示す図である。
 (1)全体構成
 図1は、温度分布学習装置100及び温度分布推定装置200の構成図である。図1に示すように、温度分布学習装置100と、温度分布推定装置200と、対象空間80の各機器81~83とは、ネットワーク90を介して、通信可能に接続されている。本実施形態では、ネットワーク90は、インターネットである。しかし、温度分布学習装置100と、温度分布推定装置200と、対象空間80の各機器81~83とが、通信可能に接続されてさえいれば、ネットワーク90は、インターネットに限定されない。例えば、温度分布学習装置100と、温度分布推定装置200とが、対象空間80と同一の建物内に設置されている場合、ネットワーク90は、有線又は無線LAN等であってもよい。また、温度分布学習装置100が、温度分布推定装置200に内蔵されている場合、温度分布学習装置100と、温度分布推定装置200とを接続するネットワーク90は、電子回路等であってもよい。
 (2)詳細構成
 (2-1)対象空間
 対象空間80は、例えば、オフィス空間である。図1に示すように、対象空間80には、サーモカメラ81、温度センサ82及び人検出カメラ83が設置されている。
 図4は、温度分布学習処理時の対象空間80の例を示す図である。また、図5は、温度分布推定処理時の対象空間80の例を示す図である。温度分布学習処理及び温度分布推定処理については、後述する。
 サーモカメラ81は、図4及び図5に示すように、対象空間80の天井から吊り上げるように設置されている。サーモカメラ81は、対象空間80の床、壁、窓、什器等の表面温度を疑似カラー表示した、熱画像HIを撮影する。熱画像HIは、グレースケール画像である。熱画像HIの各画素には、例えば、摂氏温度に関係する0から65535の整数が格納される。この整数は、例えば、少数第一位までの温度の数値を保持するために温度の実数値を10倍にしたものである。以下、温度分布学習処理において、温度分布学習装置100が取得する熱画像HIを、熱画像HI1と記載する。また、温度分布推定処理において、温度分布推定装置200が取得する熱画像HIを、熱画像HI2と記載する。
 温度センサ82は、図4に示すように、対象空間80の空中に設置されている。本実施形態では、複数の温度センサ82は、同じ高さに設置されている。当該高さは、例えば、床から100cm~120cmである。図4には、例として、4つの温度センサ82が設置されている。温度センサ82は、設置された位置の温度を測定する。以下、複数の温度センサ82が測定した温度の組を、温度測定値TMと記載する。例えば、温度センサ82がN個ある場合、温度測定値TMは、N次元ベクトルとして表される。また、温度分布学習処理において、温度分布学習装置100が取得する温度測定値TMを、温度測定値TM1と記載する。温度分布推定処理において、温度分布推定装置200が推定する温度測定値TMを、温度測定値TM2と記載する。また、図4に示すように、温度センサ82と同じ高さにある平面を、2次元グリッドで分割したものを、グリッド平面GPと記載する。図4では、グリッド平面GPのグリッド線は、省略されている。本実施形態では、グリッド平面GPは、グリッド線によって分割された各マスに、高々1つの温度センサ82が存在するように構成される。図6は、グリッド平面GPの例を示す図である。図6では、温度センサ82は、丸印で示されている。図6に示すように、グリッド平面GPの各マスには、高々1つの温度センサ82が含まれている。
 人検出カメラ83は、図5に示すように、対象空間80の天井に設置される。本実施形態の人検出カメラ83は、全方位カメラである。人検出カメラ83は、対象空間80内の人の位置を検出し、その座標を位置データ831として出力する。本実施形態では、対象空間80内の人の位置を検出するために、人検出カメラ83を用いるが、例えば、深度センサやLiDAR(Light Detection and Ranging)を用いて、対象空間80内の人の位置を検出してもよい。
 (2-2)温度分布学習装置
 温度分布学習装置100は、対象空間80の空中の少なくとも第1点の温度を含む温度分布TD、を学習する。本実施形態では、温度分布TDは、グリッド平面GPにおいて、温度センサ82が存在するマス内の代表点の温度である。学習時の代表点の温度は、対応する温度センサ82の測定値とする。学習時の代表点の温度は、例えば、シミュレーションによって算出した温度等を用いてもよい。以下、温度センサ82によって代表点の温度が測定されるマスを、「温度が定義されたマス」と記載することがある。また、マス内の代表点の温度を、「マスの温度」と記載することがある。そのため、温度分布TDは、学習のために温度が定義されたマス、の温度の分布である。本実施形態では、複数の温度センサ82が存在するため、温度分布学習装置100が学習する温度分布TDは、対象空間80の空中の複数の代表点の温度である。言い換えると、温度分布学習装置100が学習する温度分布TDは、複数の温度センサ82の温度測定値TM1である。
 以下、温度分布学習装置100が、後述する学習モデルLMを作成する処理を、温度分布学習処理と記載する。
 温度分布学習装置100は、図1に示すように、主として、学習部10を備える。
 温度分布学習装置100は、制御演算装置と記憶装置とを備える。制御演算装置には、CPU又はGPUといったプロセッサを使用できる。制御演算装置は、記憶装置に記憶されているプログラムを読み出し、このプログラムに従って所定の画像処理や演算処理を行う。さらに、制御演算装置は、プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。学習部10は、制御演算装置により実現される各種の機能ブロックである。
 (2-2-1)学習部
 温度分布学習装置100は、学習モデルLMを備える。学習部10は、目的変数である温度分布TDと、説明変数である対象空間80に関する熱画像HI1と、を関連づけて学習する、学習モデルLMを作成する。言い換えると、学習部10は、温度分布TDと熱画像HI1との対応を教師データとして、学習モデルLMを作成する。
 図2は、温度分布学習処理の構成図である。学習部10は、図2に示すように、学習データ11の説明変数として、図4に示すサーモカメラ81から、熱画像HI1を取得する。熱画像HI1は、所定期間における、所定の時間間隔での、対象空間80の熱画像HI1である。所定期間は、例えば、1か月である。所定の時間間隔は、例えば、5分である。学習部10は、熱画像HI1を、所定の時間間隔ごとにリアルタイムに取得してもよいし、所定期間分をまとめて取得してもよい。
 また、学習部10は、図2に示すように、学習データ11の目的変数として、図4に示す複数の温度センサ82から、温度測定値TM1を取得する。学習部10は、上記で取得した熱画像HI1と同時刻の温度測定値TM1を取得する。
 学習部10は、学習データ11を取得すると、図2に示すように、学習モデルLMを作成する。本実施形態では、学習モデルLMは、通常のニューラルネットワークである。しかし、学習モデルLMは、通常のニューラルネットワークに限定されず、他の学習モデルLMを用いてもよい。
 (2-2-2)検証
 ここでは、学習モデルLMを、通常のニューラルネットワークとしたときの、学習精度を検証した。本検証では、38個の温度センサ82を、対象空間80に設置した。学習データ11の内、訓練データは、2020年4月1日の0時から、2020年4月30日の24時までの、5分間隔のデータである。テストデータは、2020年5月1日の0時から、2020年5月12日の24時までの、5分間隔のデータである。
 また、本検証では、学習モデルLMとして、3層のニューラルネットワークを用いた。入力層には、解像度が80×80である熱画像HI1を、6400次元に変形したものが入力される。出力層には、38次元ベクトルである温度測定値TM1が出力される。入力層、中間層及び出力層は、全結合されている。
 図7及び図8は、学習精度の検証結果を示す図である。図7及び図8は、ある1つの温度センサ82についての検証結果である。図7及び図8の縦軸は、予測温度と実測温度との絶対誤差である。絶対誤差は、予測温度と実測温度との差、の絶対値である、図7及び図8の横軸は、テストデータの期間の一部である。図7に示すように、2020年5月1日から2020年5月5日の間では、絶対誤差は、高々1.5℃であった。一方、図8に示すように、2020年5月9日から2020年5月12日の間では、絶対誤差は、全体的には高々1℃であるが、一部、2020年5月11日12時頃に、絶対誤差が約2.5℃となった。
 (2-3)温度分布推定装置
 温度分布推定装置200は、学習モデルLM等を用いて、対象空間80の空中の温度を推定する。言い換えると、温度分布推定装置200は、対象空間80の温度マップHMを作成する。温度マップHMは、グリッド平面GPの各マスに、各マスに対応する温度を入力したものである。温度マップHMは、各マスを画素とみなすことで、各マスの温度の高低を、例えば、グレースケールの濃淡で表現した画像としても表せる。また、温度マップHMは、各マスを画素とみなすことで、各マスの温度の高低を、例えば、温度が高い順に赤、黄及び青で表現した、疑似カラー表示画像としても表せる。温度分布推定装置200は、対象空間80内の人の影響を反映した温度マップHMとして、温度マップHM4を出力する。また、温度分布推定装置200は、対象空間80内の人の影響を反映しない温度マップHMとして、温度マップHM1を出力する。対象空間80内の人の影響を反映する場合とは、グリッド平面GP上の同一マスに、人が所定時間留まっているとみなせる場合である。
 以下、温度分布推定装置200が、温度マップHMを出力する処理を、温度分布推定処理と記載する。
 温度分布推定装置200は、図1に示すように、主として、取得部20と、温度分布推定部30と、熱源位置特定部40と、熱源影響推定部50と、熱源影響反映部60と、を備える。
 温度分布推定装置200は、制御演算装置と記憶装置とを備える。制御演算装置には、CPU又はGPUといったプロセッサを使用できる。制御演算装置は、記憶装置に記憶されているプログラムを読み出し、このプログラムに従って所定の画像処理や演算処理を行う。さらに、制御演算装置は、プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。取得部20と、温度分布推定部30と、熱源位置特定部40と、熱源影響推定部50と、熱源影響反映部60とは、制御演算装置により実現される各種の機能ブロックである。
 (2-3-1)取得部
 取得部20は、図3に示すように、図5に示すサーモカメラ81から、熱画像HI2を取得する。取得部20は、所定の時間間隔で、熱画像HI2を取得する。所定の時間間隔は、例えば、5分である。
 (2-3-2)温度分布推定部
 温度分布推定部30は、温度分布学習装置100が作成した学習モデルLMを用いて、熱画像HI2から、温度分布TDを推定する。推定する温度分布TDは、複数の温度センサ82の温度測定値TM2である。温度分布推定部30は、図3に示すように、熱画像HI2を学習モデルLMに入力し、温度測定値TM2を出力する。
 さらに、温度分布推定部30は、推定した温度分布TDに基づいて、当該推定した温度分布TDに含まれない、対象空間80の空中の温度を推定する。言い換えると、温度分布推定部30は、図3に示すように、温度測定値TM2から、温度マップHM1を作成する。温度マップHM1は、対象空間80内の人の影響を反映していない温度マップHMである。図9及び図10は、温度マップHM1を作成する過程のグリッド平面GP、の例を示す図である。
 まず、温度分布推定部30は、グリッド平面GPのマスの内、温度センサ82が含まれているマス(温度センサマス82m)に、対応する温度測定値TM2を入力する。図9には、例として、5×5のグリッド平面GPに、4つの温度センサマス82m1~82m4が記載されている。
 次に、温度分布推定部30は、温度が入力されていないマスに温度を補間する、補間処理を行う。本実施形態の補間処理では、温度分布推定部30は、補間されるマス(補間マスIm)に、当該補間マスImに最も近い温度センサマス82m、の温度を入力する。当該補間マスImに最も近い温度センサマス82m、が複数ある場合、当該補間マスImには、これらの複数の温度の平均値を入力する。ここでいう、補間マスImに最も近い温度センサマス82mとは、グリッド平面GPのマスを、補間マスImから、縦、横又は斜めに辿ったときに、辿ったマスの数が最も少ない温度センサマス82mである。例えば、図10の補間マスIm1に最も近い温度センサマス82mは、温度センサマス82m2であるため、補間マスIm1には、温度センサマス82m2の温度である「22℃」が入力されている。また、補間マスIm2に最も近い温度センサマス82mは、温度センサマス82m1,82m2であるため、補間マスIm2には、温度センサマス82m1,82m2の温度の平均値である「21℃」が入力されている。また、補間マスIm3に最も近い温度センサマス82mは、温度センサマス82m1~82m4であるため、補間マスIm3には、温度センサマス82m1~82m4の温度の平均値である「22.8℃」が入力されている。なお、補間処理は、本実施形態のものに限定されず、例えば、バイリニア法、ニアレストネイバー法、バイキュービック法等、他の補間処理を行ってもよい。
 温度分布推定装置200は、温度マップHMに、対象空間80内の人の影響を反映しない場合、温度マップHM1を出力する。
 図11は、温度マップHM1の例を示す図である。図11では、各マスの温度の高低を、グレースケールの濃淡で表現している。
 (2-3-3)熱源位置特定部
 熱源位置特定部40は、対象空間80内の熱源HSの位置を特定する。本実施形態では、熱源位置特定部40は、人の位置を、熱源HSの位置として特定する。また、熱源位置特定部40は、カメラ又は深度センサによって、熱源HSの位置を特定する。本実施形態では、熱源位置特定部40は、人検出カメラ83によって、人の位置を特定する。
 熱源位置特定部40は、図3に示すように、図5に示す人検出カメラ83から、対象空間80内の人(熱源HS)の位置データ831を取得する。熱源位置特定部40は、さらに温度マップHM1を取得し、位置データ831と温度マップHM1とを照らし合わせて、温度マップHM1の人が存在するマス(人のマスHSm)を特定する。このとき、熱源位置特定部40は、人を区別して、人のマスHSmを特定する。
 熱源位置特定部40は、図3に示すように、温度マップHM2を作成する。温度マップHM2は、温度マップHM1内の人のマスHSmを特定したものである。
 (2-3-4)熱源影響推定部
 熱源影響推定部50は、熱源HSの影響による、熱源HSの周囲の温度変化を推定する。
 具体的には、熱源影響推定部50は、図3に示すように、温度マップHM2を更新して、温度マップHM3を作成する。温度マップHM3は、温度マップHM2に対して、人の周囲の温度変化を推定した温度マップHMである。
 熱源影響推定部50は、同一人が、温度マップHM2の同一のマスに、所定時間留まっているとみなせる場合、人のマスHSmの温度に基づいて、人の近傍領域のマス(近傍マスNRm)の温度を更新する。これは、同一人が、同一のマスに所定時間留まっていれば、当該人から放出される熱量によって、当該人の周囲の温度が変化すると考えられるためである。本実施形態では、熱源影響推定部50は、前回取得した温度マップHM2と、今回取得した温度マップHM2とを比較し、同一人が、同一のマスにいる場合に、同一人が、同一のマスに所定時間留まっているとみなす。図12及び図13は、温度マップHM3を作成する過程のグリッド平面GP、の例を示す図である。
 まず、熱源影響推定部50は、温度マップHM2の人のマスHSmの温度を、人の温度に更新する。本実施形態では、人の温度は、36℃である。図12では、人のマスHSmに、「36℃」が入力されている。
 次に、熱源影響推定部50は、熱放射マスTRmの温度を更新する。ここで、人から放出される熱量は、空気の流れが無い場合、全方位に対して均等であるとする。また、人から放出される熱量は、人からの距離の2乗に反比例させる。また、人の近傍領域の温度変化は、人から近傍領域までの距離と、近傍領域の更新前の温度と、によって生じさせる。また、近傍領域において、加わった熱量から温度変化への変換は、人の温度を超えないように、シグモイド関数等で非線形変換を行う。また、熱源HS(人)は独立なので、マルコフ性があり、熱量が加わった領域からさらに熱量が放出され、熱量を放出した領域は、温度が低下するが、元の熱源HS(人)の温度は低下しないとする。
 実際のオフィスでは、空気調和機が作動している場合、気流が発生し、全方位に均等な熱伝導にはならない。気流は、空気調和機の設置位置、オフィスの什器及び風量等によって変化する。しかし、定常状態では、気流が安定するため、熱伝導の異方性を事前に学習できる。異方性のパラメータを推定するモデルの事前学習の具体例は、人が一定時間以上滞留している場合において、空気調和機の制御パラメータと、滞留人数と、滞留時間とを説明変数とし、4または8方向の伝導熱量を決定するパラメータを目的変数として、推定モデルを訓練することである。人が現れる直前の温度の分布と、滞留後の温度の分布とから、目的変数である4または8方向の伝導熱量を決定するためのパラメータを算出し、教師データとする。学習したマスでは、人の滞留が検出されたとき、空気調和機の制御パラメータ、滞留人数及び滞留時間によって、伝導熱量が推定され、定常時からの温度を修正することができる。学習していないマスでは、周辺の学習したマスに上記説明変数を入力したときの推定値を複数求め、内挿することで、伝導熱量を算出するためのパラメータを得て、伝導熱量を決定でき、温度修正が可能になる。
 図13では、上記の条件を考慮した熱伝搬モデルによって、温度マップHM2の温度を更新している。図13では、白抜きで温度を表示しているマスを近傍マスNRmとし、簡単のため、近傍マスNRmの温度だけを更新している。
 (2-3-5)熱源影響反映部
 熱源影響反映部60は、熱源影響推定部50によって推定された、熱源HSの周囲の温度変化を、温度分布推定部30によって推定された、対象空間80の空中の温度に反映する。具体的には、熱源影響反映部60は、図3に示すように、温度マップHM3を更新して、温度マップHM4を作成する。温度マップHM4は、対象空間80内の人の影響を反映した温度マップHMである。図14及び図15は、温度マップHM4を作成する過程のグリッド平面GP、の例を示す図である。
 熱源影響反映部60は、温度マップHM3の「温度センサマス82m、及び、熱源影響推定部50によって温度が更新されたマス」以外のマスを、補間マスImとみなして、再度補間処理を行う。本実施形態では、熱源影響反映部60は、温度分布推定部30が行った補間処理と同様の補間処理を行う。図14では、図13の温度マップHM3のマスの内、「温度センサマス82m1~82m4、人のマスHSm、及び、近傍マスNRm」以外のマスを、補間マスImとみなして空にしている。図15では、補間処理によって、補間マスImが埋められている。
 温度分布推定装置200は、温度マップHMに、対象空間80内の人の影響を反映する場合、温度マップHM4を出力する。
 図16は、温度マップHM4の例を示す図である。図16では、各マスの温度の高低を、グレースケールの濃淡で表現している。
 (3)処理
 (3-1)温度分布学習処理
 温度分布学習処理を、図17のフローチャートを用いて説明する。
 温度分布学習装置100は、ステップS1に示すように、図4に示すサーモカメラ81から、熱画像HI1を取得する。熱画像HI1は、所定期間における、所定の時間間隔での対象空間80の熱画像HI1である。
 温度分布学習装置100は、熱画像HI1を取得すると、ステップS2に示すように、図4に示す複数の温度センサ82から、温度測定値TM1を取得する。温度測定値TM1は、取得した熱画像HI1と同時刻のものである。
 温度分布学習装置100は、温度測定値TM1を取得すると、ステップS3に示すように、熱画像HI1を説明変数とし、温度測定値TM1を目的変数として、学習モデルLMを作成する。
 (3-2)温度分布推定処理
 温度分布推定処理を、図18のフローチャートを用いて説明する。
 温度分布推定装置200は、ステップS11に示すように、図5に示すサーモカメラ81から、熱画像HI2を取得する。
 温度分布推定装置200は、熱画像HI2を取得すると、ステップS12に示すように、温度分布学習装置100が作成した学習モデルLMを用いて、熱画像HI2から、温度測定値TM2を推定する。
 温度分布推定装置200は、温度測定値TM2を推定すると、ステップS13に示すように、補間処理によって、対象空間80内の人の影響を反映していない温度マップHM1、を作成する。
 温度分布推定装置200は、温度マップHM1を作成すると、ステップS14に示すように、図5に示す人検出カメラ83から、対象空間80内の人の位置データ831を取得する。
 温度分布推定装置200は、対象空間80内の人の位置データ831を取得すると、ステップS15に示すように、温度マップHM1内の人の位置を特定した温度マップHM2、を作成する。
 温度分布推定装置200は、温度マップHM2を作成すると、ステップS16に示すように、前回作成した温度マップHM2と、今回作成した温度マップHM2とを比較し、同一人が、同一のマスにいるか否かを判断する。
 温度分布推定装置200は、同一人が、同一のマスにいる場合、ステップS17に進む。温度分布推定装置200は、同一人が、同一のマスにいない場合、ステップS20に進む。
 ステップS16からステップS17に進んだ場合、温度分布推定装置200は、対象空間80内の人の周囲の温度変化を推定した温度マップHM3を作成する。
 温度分布推定装置200は、温度マップHM3を作成すると、ステップS18に示すように、対象空間80内の人の影響を反映した温度マップHM4、を作成する。
 温度分布推定装置200は、温度マップHM4を作成すると、ステップS19に示すように、温度マップHM4を出力する。
 ステップS16からステップS20に進んだ場合、温度分布推定装置200は、人の影響による周囲の温度変化はないとして、温度マップHM1を出力する。
 図18に示すように、温度分布推定処理は、取得部20が、熱画像HI2を取得する度に行われる。そのため、温度分布推定装置200は、取得部20が、熱画像HI2を取得する所定の時間間隔ごとに、温度マップHM1又は温度マップHM4を出力する。
 (4)特徴
 (4-1)
 対象空間に設置されたサーモカメラによる熱画像から、直接対象空間の温度分布を知ることはできない。サーモカメラは、物体表面の輻射熱から、当該物体表面の温度を測定するためである。そのため、例えば、対象空間の熱画像と、空気調和機の吹出口の情報とを用いて、対象空間の温度分布を学習する技術がある。
 しかし、対象空間に空気調和機がなければ、空気調和機の吹出口の情報が得られず、対象空間の温度分布を学習できない、という課題がある。
 本実施形態の温度分布学習装置100では、学習モデルLMは、目的変数である温度分布TDと、説明変数である対象空間80に関する熱画像HIと、を関連づけて学習する。その結果、温度分布学習装置100は、対象空間80に空気調和機がなくても、対象空間80の温度分布TDを学習することができる。なお、温度分布学習装置100は、対象空間80に空気調和機がある場合でも、空気調和機に関する情報を用いずに、又は、空気調和機に関する情報を併用して、対象空間80の温度分布TDを学習することができる。
 (4-2)
 本実施形態の温度分布学習装置100では、温度分布TDは、対象空間80の空中の複数点の温度測定値TM1である。その結果、温度分布学習装置100は、対象空間80に関する熱画像HIから、対象空間80の空中の複数点の温度測定値TMを推定する学習モデルLM、を学習することができる。
 (4-3)
 従来、対象空間に複数の温度センサを設置し、これらの温度センサに基づいて、対象空間の温度分布を推定する技術がある。推定された温度分布は、空気調和機の制御等に利用される。
 しかし、推定する温度分布の精度は、設置する温度センサの数量によるため、高精度な温度分布を推定するには、多数の温度センサの設置が必要である。そのため、高精度な温度分布を推定するには、対象空間が不便な空間となり、温度センサの設置コストも増加する、という課題がある。
 本実施形態の温度分布推定装置200では、温度分布推定部30は、温度分布学習装置100の学習モデルLMを用いて、熱画像HIから、温度分布TDを推定する。取得部20は、熱画像HI2を取得する。その結果、温度分布推定装置200は、温度センサ82がなくても、熱画像HI2から、温度分布TDを推定することができる。
 (4-4)
 本実施形態の温度分布推定装置200では、温度分布推定部30は、推定した温度分布TDに基づいて、当該推定した温度分布TDに含まれない、対象空間80の空中の温度をさらに推定する。その結果、温度分布推定装置200は、対象空間80の任意の空中の温度を推定することができる。
 (4-5)
 本実施形態の温度分布推定装置200では、熱源位置特定部40は、対象空間80内の熱源HSの位置を特定する。熱源影響推定部50は、熱源HSの影響による、熱源HSの周囲の温度変化を推定する。熱源影響反映部60は、熱源影響推定部50によって推定された、熱源HSの周囲の温度変化を、温度分布推定部30によって推定された、対象空間80の空中の温度に反映する。その結果、温度分布推定装置200は、熱源HSの影響が反映された、対象空間80の空中の温度、を推定することができる。
 対象空間80内の気流が一定である場合、構造物と空中の対象である一点の関係は、空気の熱伝導だけで表現され、距離の異なる多数の構造物表面温度から決定できる。また、多数の空中対象点の温度は、構造物からの距離、関係付ける熱伝導経路が異なるため、対象点ごとに関係付けることで推定可能となる。
 (4-6)
 本実施形態の温度分布推定装置200では、熱源位置特定部40は、カメラ又は深度センサによって、熱源HSの位置を特定する。その結果、温度分布推定装置200は、カメラ又は深度センサを用いて、熱源HSの位置を特定することができる。
 (4-7)
 本実施形態の温度分布推定装置200では、熱源位置特定部40は、人の位置を、熱源HSの位置として特定する。その結果、温度分布推定装置200は、人の影響が反映された、対象空間80の空中の温度、を推定することができる。
 (5)変形例
 (5-1)変形例1A
 本実施形態では、温度分布学習装置100は、温度分布学習処理を行った。しかし、温度分布学習処理は、温度分布学習方法として捉えてもよい。
 具体的には、温度分布学習方法は、対象空間80の空中の少なくとも第1点の温度を含む温度分布TD、を学習する。温度分布学習方法は、学習ステップを備える。学習ステップは、目的変数である温度分布TDと、説明変数である対象空間80に関する熱画像HIと、を関連づけて学習する。学習ステップでは、温度分布TDと熱画像HIとを含む教師データに基づいて学習を行う。
 学習ステップは、温度分布学習処理の学習部10の機能に相当する。また、学習ステップは、図17のステップS1~ステップS3に相当する。
 その結果、温度分布学習方法は、任意の装置で実行され得る。
 (5-2)変形例1B
 本実施形態では、温度分布推定装置200は、温度分布推定処理を行った。しかし、温度分布推定処理は、温度分布推定方法として捉えてもよい。
 具体的には、温度分布推定方法は、温度分布推定ステップと、取得ステップと、を備える。温度分布推定ステップは、温度分布学習方法により、熱画像HIから、温度分布TDを推定する。温度分布推定ステップでは、推定した温度分布TDに基づいて、当該推定した温度分布TDに含まれない、対象空間80の空中の温度をさらに推定する。取得ステップは、熱画像HIを取得する。
 温度分布推定方法は、熱源位置特定ステップと、熱源影響推定ステップと、熱源影響反映ステップと、をさらに備える。熱源位置特定ステップは、対象空間80内の熱源HSの位置を特定する。熱源影響推定ステップは、熱源HSの影響による、熱源HSの周囲の温度変化を推定する。熱源影響反映ステップは、熱源影響推定ステップによって推定された、熱源HSの周囲の温度変化を、温度分布推定ステップにおいて推定された、対象空間80の空中の温度に反映する。
 取得ステップは、温度分布推定処理の取得部20の機能に相当する。また、取得ステップは、図18のステップS11に相当する。
 温度分布推定ステップは、温度分布推定処理の温度分布推定部30の機能に相当する。また、温度分布推定ステップは、図18のステップS12及びステップS13に相当する。
 熱源位置特定ステップは、温度分布推定処理の熱源位置特定部40の機能に相当する。また、熱源位置特定ステップは、図18のステップS14及びステップS15に相当する。
 熱源影響推定ステップは、温度分布推定処理の熱源影響推定部50の機能に相当する。また、熱源影響推定ステップは、図18のステップS17に相当する。
 熱源影響反映ステップは、温度分布推定処理の熱源影響反映部60の機能に相当する。また、熱源影響反映ステップは、図18のステップS18に相当する。
 その結果、温度分布推定方法は、任意の装置で実行され得る。
 (5-3)変形例1C
 本実施形態では、温度分布推定部30及び熱源影響反映部60は、温度マップHMの温度が埋められていない補間マスImに温度を補間する、補間処理を行った。本実施形態の補間処理では、補間マスImに、当該補間マスImに最も近い温度センサマス82m、の温度を入力した。当該補間マスImに最も近い温度センサマス82m、が複数ある場合、当該補間マスImには、これらの複数の温度の平均値を入力した。
 しかし、補間処理には、GAN(Generative Adversarial Network、敵対的生成ネットワーク)を応用した、DCGAN(Deep Convolutional GAN)、SRGAN(Super Resolution GAN)、TecoGAN(Temporally Coherent GAN)等を用いてもよい。その結果、温度分布推定部30及び熱源影響反映部60は、本実施形態の補間処理よりも、高精細な温度マップHMを作成することができる。
 図19は、補間処理結果の比較を示す図である。図19の左側には、38個の温度センサマス82mを有した、13×13のグリッド平面GPを記載している。温度センサマス82mは、丸印で示されている。これらの温度センサ82の温度測定値TMに基づき、本実施形態の補間処理を行って作成した温度マップHMが、右上の画像である。これに対し、TecoGANを用いて作成した温度マップHMが、右下の画像である。右下の画像は、右上の画像よりも、高精細な画像であることがわかる。
 (5-4)変形例1D
 本実施形態では、学習モデルLMは、通常のニューラルネットワークであった。しかし、学習モデルLMは、特に、畳み込みニューラルネットワーク(CNN)であってもよい。CNNは、入力が画像である場合に効果を発揮するため、より予測精度の高い学習モデルLMを作成できる可能性がある。
 CNNは、例えば、ResNet(Residual Network)等を用いる。入力層には、熱画像HIが入力される。中間層の後半は、全結合層とする。出力層には、温度測定値TMが、ベクトルとして出力される。
 (5-5)変形例1E
 本実施形態では、温度分布学習装置100は、サーモカメラ81から取得した熱画像HI1と、複数の温度センサ82から取得した温度測定値TM1と、を関連付けて学習した。
 しかし、温度分布学習装置100は、まず、温度測定値TM1から、補間処理によって温度マップHM0を作成し、次に、温度マップHM0と、熱画像HI1と、を関連付けて学習してもよい。
 図20は、本変形例における温度分布学習処理の構成図である。図20に示すように、学習部10は、図2と異なり、温度測定値TM1を取得すると、補間処理によって、温度マップHM0を作成する。学習部10は、温度マップHM0と、熱画像HI1と、を関連付けて学習し、学習モデルLMを作成する。
 その結果、温度分布推定装置200は、作成された学習モデルLMに、熱画像HI2を入力することで、直接、対象空間80内の人の影響を反映していない温度マップHM1、を出力することができる。
 図21は、本変形例における温度分布推定処理の構成図である。図21に示すように、温度分布推定部30は、図3と異なり、熱画像HI2を学習モデルLMに入力し、温度マップHM1を出力する。
 (5-6)
 本実施形態では、グリッド平面GPにおいて、マス単位で1つの温度を定義した。しかし、一般には、グリッド空間GSにおいて、任意の単位で1つの温度を定義してもよい。図22は、グリッド空間GSにおける温度分布TDの例を示す図である。グリッド空間GSは、対象空間80を、4×4×4のブロックに分割したものである。この場合、1つの温度を定義する単位は、例えば、単位ブロックUB1のように、直線状にブロックをつなげたものであってもよい。また、1つの温度を定義する単位は、例えば、単位ブロックUB2のように、平面状にブロックをつなげたものであってもよい。また、1つの温度を定義する単位は、例えば、単位ブロックUB3のように、立方体状にブロックを積み上げたものであってもよい。
 単位ブロックUBの温度は、例えば、単位ブロックUBを構成するそれぞれのブロックに温度センサ82を設置し、それらが測定した温度の平均値として定義してもよい。また、例えば、単位ブロックUB3においては、単位ブロックUB3の中心点に温度センサ82を設置し、当該温度センサ82の測定値を、単位ブロックUB3の温度として定義してもよい。
 また、例えば、単位ブロックUB1においては、超音波USを用いて直線上の温度を測定し、測定した温度を、単位ブロックUB1の温度として定義してもよい。図23は、直線上の温度を測定する方法の例を示す図である。図23は、図22のグリッド空間GSにおいて、上下方向に積まれた4つの単位ブロックUB1の各温度を測定する方法を示している。図23には、上下方向に積まれた4つの単位ブロックUB1を、右方向から見た図が描かれている。単位ブロックUB1は、上から、単位ブロックUB11、単位ブロックUB12、単位ブロックUB13、及び単位ブロックUB14と記載する。各単位ブロックUB1には、超音波生成装置84が設置されている。具体的には、単位ブロックUB11には、前後方向の端に、それぞれ超音波生成装置84a,84b1が設置されている。単位ブロックUB12には、後方向の端に、超音波生成装置84b2が設置されている。単位ブロックUB13には、後方向の端に、超音波生成装置84b3が設置されている。単位ブロックUB14には、後方向の端に、超音波生成装置84b4が設置されている。超音波生成装置84は、直線状の超音波USを送受信することができる。具体的には、超音波生成装置84aは、超音波生成装置84b1~84b4に対し、超音波USを送信する。超音波生成装置84b1~84b4は、超音波生成装置84aから超音波USを受信すると、超音波生成装置84aに対し、超音波USを送信する。超音波生成装置84aと、超音波生成装置84biとの間を往復する超音波USを超音波USiとする。iは1から4の整数であり、超音波US1~US4の種類を表す。また、超音波USiが単位ブロックUB1jを通過するときの片道の距離をlij(m)(図23には、代表してl41~l44を記載している。)、単位ブロックUB1jにおける超音波USの速さをv(m/s)、超音波USiが往復する時間をτ(s)、とする。jは、1から4の整数であり、単位ブロックUB11~UB14の種類を表す。このとき、距離、速さ、及び時間の関係から、以下の数1が成り立つ。
Figure JPOXMLDOC01-appb-M000001
 数1において、τは、超音波生成装置84aによって測定可能である。また、lijは、超音波生成装置84の配置と、単位ブロックUBの定義とから、測定可能である。そのため、数1は、vについての連立方程式である。数1を、例えば、最小二乗法等によって解くと、vが求まる。一方、超音波USの速さvは、通過する単位ブロックUB1j内の空気の温度T(degC)の影響を受ける。例えば、vと、Tとの間には、以下の数2が成り立つと考えられる。
Figure JPOXMLDOC01-appb-M000002
 そのため、数1で求めたvを、数2に代入することにより、Tが求まる。このTを、単位ブロックUB1jの温度として定義することができる。
 温度分布推定装置200は、例えば、本実施形態と同様にして、温度が定義された単位ブロックUBの温度を推定し、推定された単位ブロックUBの温度から、周りのブロックの温度を推定(補間)する。
 (5-7)
 以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
 20  取得部
 30  温度分布推定部
 40  熱源位置特定部
 50  熱源影響推定部
 60  熱源影響反映部
 80  対象空間
 100 温度分布学習装置
 200 温度分布推定装置
 HI  熱画像
 HS  熱源
 LM  学習モデル
 TD  温度分布
 TM  温度測定値(温度分布)
国際公開第2020-075244号

Claims (11)

  1.  対象空間(80)の空中の少なくとも第1点の温度を含む温度分布(TD,TM)、を学習する温度分布学習装置(100)であって、
     目的変数である前記温度分布と、説明変数である前記対象空間に関する熱画像(HI)と、を関連づけて学習する、学習モデル(LM)、
    を備え、
     前記学習モデルは、前記温度分布と前記熱画像とを含む教師データに基づいて学習する、
    温度分布学習装置(100)。
  2.  前記温度分布は、前記対象空間の空中の複数点の温度である、
    請求項1に記載の温度分布学習装置(100)。
  3.  請求項1又は2に記載の温度分布学習装置(100)の前記学習モデルを用いて、前記熱画像から、前記温度分布を推定する、温度分布推定部(30)と、
     前記熱画像を取得する、取得部(20)と、
    を備える、
    温度分布推定装置(200)。
  4.  前記温度分布推定部は、推定した前記温度分布に基づいて、当該推定した前記温度分布に含まれない、前記対象空間の空中の温度をさらに推定する、
    請求項3に記載の温度分布推定装置。
  5.  前記対象空間内の熱源(HS)の位置を特定する、熱源位置特定部(40)と、
     前記熱源の影響による、前記熱源の周囲の温度変化を推定する、熱源影響推定部(50)と、
     前記熱源影響推定部によって推定された、前記熱源の周囲の温度変化を、前記温度分布推定部によって推定された、前記対象空間の空中の温度に反映する、熱源影響反映部(60)と、
    をさらに備える、
    請求項4に記載の温度分布推定装置(200)。
  6.  前記熱源位置特定部は、カメラ又は深度センサによって、前記熱源の位置を特定する、
    請求項5に記載の温度分布推定装置(200)。
  7.  前記熱源位置特定部は、人の位置を、前記熱源の位置として特定する、
    請求項5又は6に記載の温度分布推定装置(200)。
  8.  対象空間(80)の空中の少なくとも第1点の温度を含む温度分布(TD,TM)、を学習する温度分布学習方法であって、
     目的変数である前記温度分布と、説明変数である前記対象空間に関する熱画像(HI)と、を関連づけて学習する、学習ステップ、
    を備え、
     前記学習ステップでは、前記温度分布と前記熱画像とを含む教師データに基づいて学習を行う、
    温度分布学習方法。
  9.  請求項8に記載の温度分布学習方法により、前記熱画像から、前記温度分布を推定する、温度分布推定ステップと、
     前記熱画像を取得する、取得ステップと、
    を備える、
    温度分布推定方法。
  10.  前記温度分布推定ステップでは、推定した前記温度分布に基づいて、当該推定した前記温度分布に含まれない、前記対象空間の空中の温度をさらに推定する、
    請求項9に記載の温度分布推定方法。
  11.  前記対象空間内の熱源(HS)の位置を特定する、熱源位置特定ステップと、
     前記熱源の影響による、前記熱源の周囲の温度変化を推定する、熱源影響推定ステップと、
     前記熱源影響推定ステップによって推定された、前記熱源の周囲の温度変化を、前記温度分布推定ステップにおいて推定された、前記対象空間の空中の温度に反映する、熱源影響反映ステップと、
    をさらに備える、
    請求項10に記載の温度分布推定方法。
PCT/JP2021/024712 2020-06-30 2021-06-30 温度分布学習装置 WO2022004777A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/012,821 US20230258503A1 (en) 2020-06-30 2021-06-30 Temperature distribution learning apparatus
EP21832921.7A EP4174482A1 (en) 2020-06-30 2021-06-30 Temperature distribution learning device
CN202180046090.6A CN115735120A (zh) 2020-06-30 2021-06-30 温度分布学习装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020-112634 2020-06-30
JP2020112634 2020-06-30
JP2021082694A JP6962484B1 (ja) 2020-06-30 2021-05-14 温度分布学習装置
JP2021-082694 2021-05-14

Publications (1)

Publication Number Publication Date
WO2022004777A1 true WO2022004777A1 (ja) 2022-01-06

Family

ID=78409831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024712 WO2022004777A1 (ja) 2020-06-30 2021-06-30 温度分布学習装置

Country Status (5)

Country Link
US (1) US20230258503A1 (ja)
EP (1) EP4174482A1 (ja)
JP (1) JP6962484B1 (ja)
CN (1) CN115735120A (ja)
WO (1) WO2022004777A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024051604A (ja) * 2022-09-30 2024-04-11 ダイキン工業株式会社 環境計測装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05312381A (ja) * 1992-05-06 1993-11-22 Res Dev Corp Of Japan 空気調和システム
JP2009257617A (ja) * 2008-04-14 2009-11-05 Daikin Ind Ltd 空調システム及びその制御方法
JP2018049390A (ja) * 2016-09-20 2018-03-29 株式会社東芝 特性値推定装置および特性値推定方法
WO2020075244A1 (ja) 2018-10-10 2020-04-16 三菱電機株式会社 空気調和機、空気調和機制御方法及びプログラム
US20200200423A1 (en) * 2018-12-19 2020-06-25 Distech Controls Inc. Computing device and method for inferring via a neural network a two-dimensional temperature mapping of an area

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05312381A (ja) * 1992-05-06 1993-11-22 Res Dev Corp Of Japan 空気調和システム
JP2009257617A (ja) * 2008-04-14 2009-11-05 Daikin Ind Ltd 空調システム及びその制御方法
JP2018049390A (ja) * 2016-09-20 2018-03-29 株式会社東芝 特性値推定装置および特性値推定方法
WO2020075244A1 (ja) 2018-10-10 2020-04-16 三菱電機株式会社 空気調和機、空気調和機制御方法及びプログラム
US20200200423A1 (en) * 2018-12-19 2020-06-25 Distech Controls Inc. Computing device and method for inferring via a neural network a two-dimensional temperature mapping of an area

Also Published As

Publication number Publication date
CN115735120A (zh) 2023-03-03
JP6962484B1 (ja) 2021-11-05
EP4174482A1 (en) 2023-05-03
JP2022022977A (ja) 2022-02-07
US20230258503A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
CN108416805B (zh) 一种基于深度学习的本征图像分解方法及装置
US9218690B2 (en) Method for simulating hyperspectral imagery
KR102130402B1 (ko) 열화상 카메라를 이용한 실내 온열 환경 평가 장치 및 그 방법
JPH10124658A (ja) 神経回路網を利用したカメラの映像歪補正方法
JP2020042503A (ja) 三次元表象生成システム
WO2022012276A1 (zh) 一种温度校准方法、装置、设备及存储介质
JP6878361B2 (ja) 断熱性能診断装置
WO2022004777A1 (ja) 温度分布学習装置
CN113989699A (zh) 基于单目视觉和深度学习的结构全场位移稠密测量方法、装置、设备及存储介质
CN114549611A (zh) 一种基于神经网络及少量点测量的水下绝对距离估计方法
JP7316855B2 (ja) 温度分布推定装置及び温度分布推定方法
CN112750155A (zh) 基于卷积神经网络的全景深度估计方法
CN115830143A (zh) 联合标定参数调整方法、装置、计算机设备和存储介质
Zhao et al. Nodes2STRNet for structural dense displacement recognition by deformable mesh model and motion representation
Do On the neural computation of the scale factor in perspective transformation camera model
JP5140699B2 (ja) 表面状態分類装置、表面状態分類方法及び表面状態分類プログラム
WO2024043119A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム
JP6831969B2 (ja) 表面色経年変化シミュレーション装置
JP4369951B2 (ja) 画像生成方法、画像生成装置及び画像生成プログラム
JP7395076B2 (ja) 機器制御装置及び機器制御方法
TWI753382B (zh) 對一影像中的人體進行三維人體骨架估測的方法、三維人體骨架估測器、及估測器之訓練方法
Cotrim et al. Neural network meta-models for FPSO motion prediction from environmental data
WO2024071377A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022264604A1 (ja) ガス濃度特徴量推定装置、ガス濃度特徴量推定方法、プログラム、およびガス濃度特徴量推論モデル生成装置
JP5010013B2 (ja) オプティカルフロー推定装置及びオプティカルフロー推定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21832921

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021832921

Country of ref document: EP

Effective date: 20230130