WO2022172643A1 - 推定システム、人監視システム、推定方法及びプログラム - Google Patents

推定システム、人監視システム、推定方法及びプログラム Download PDF

Info

Publication number
WO2022172643A1
WO2022172643A1 PCT/JP2021/048945 JP2021048945W WO2022172643A1 WO 2022172643 A1 WO2022172643 A1 WO 2022172643A1 JP 2021048945 W JP2021048945 W JP 2021048945W WO 2022172643 A1 WO2022172643 A1 WO 2022172643A1
Authority
WO
WIPO (PCT)
Prior art keywords
estimation
people
persons
estimation unit
target space
Prior art date
Application number
PCT/JP2021/048945
Other languages
English (en)
French (fr)
Inventor
良太 須藤
延亮 島本
祐一 山本
貴之 原田
泰史 坂下
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US18/263,836 priority Critical patent/US20240344888A1/en
Priority to JP2022581240A priority patent/JPWO2022172643A1/ja
Publication of WO2022172643A1 publication Critical patent/WO2022172643A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V9/00Prospecting or detecting by methods not provided for in groups G01V1/00 - G01V8/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present disclosure generally relates to an estimation system, person monitoring system, estimation method and program, and more particularly to an estimation system, person monitoring system, estimation method and program for estimating states of multiple people in a target space.
  • Patent Document 1 describes a congestion degree detection system (estimation system) that detects a human body in an internal space (target space) such as a train or building and determines the degree of congestion in that space.
  • the congestion level detection system described in Patent Literature 1 uses the ratio of the human presence area to the detection area of the infrared sensor as the congestion level of the space.
  • An object of the present disclosure is to provide an estimation system, a person monitoring system, an estimation method, and a program capable of accurately estimating whether or not multiple people are in close proximity in a target space.
  • An estimation system includes a first estimation unit and a second estimation unit.
  • the first estimator estimates three-dimensional positions of the heads of a plurality of people in a target space based on a heat distribution including a plurality of heat sources detected by the infrared sensor.
  • the second estimation unit estimates whether or not the plurality of people are in close proximity based on the three-dimensional position data estimated by the first estimation unit.
  • a person monitoring system includes the estimation system and the infrared sensor.
  • An estimation method includes a first estimation step and a second estimation step.
  • the first estimation step is a step of estimating three-dimensional positions of a plurality of human heads in the target space based on a heat distribution including a plurality of heat sources detected by the infrared sensor.
  • the second estimation step is a step of estimating whether or not the plurality of people are in close proximity based on the data of the three-dimensional positions estimated in the first estimation step.
  • a program according to one aspect of the present disclosure is a program for causing one or more processors to execute the estimation method.
  • FIG. 1 is a block diagram showing configurations of an estimation system and a person monitoring system according to an embodiment.
  • FIG. 2 is a schematic configuration diagram showing an application example of the human monitoring system.
  • FIG. 3 is a flow chart showing an operation example of the human monitoring system.
  • FIG. 4 is a graph showing changes in the pollution level when estimating the pollution level of the air in the target space in the estimation system according to Modification 1 of the embodiment.
  • FIG. 1 An estimation system 1 and a person monitoring system 10 according to an embodiment will be described below with reference to FIGS. 1 to 4.
  • FIG. 1 An estimation system 1 and a person monitoring system 10 according to an embodiment will be described below with reference to FIGS. 1 to 4.
  • FIG. 1 An estimation system 1 and a person monitoring system 10 according to an embodiment will be described below with reference to FIGS. 1 to 4.
  • FIG. 1 An estimation system 1 and a person monitoring system 10 according to an embodiment will be described below with reference to FIGS. 1 to 4.
  • the human monitoring system 10 is a system for monitoring a plurality of (two in the illustrated example) people 4 present in a target space 100 using an infrared sensor 2.
  • the target space 100 is, for example, the interior space of a building. Buildings include, for example, residential units such as detached houses or collective housing units (for example, condominiums), and non-residential buildings such as hospitals, schools, shops, and office buildings.
  • the human monitoring system 10 includes an estimation system 1 and an infrared sensor 2, as shown in FIG. In this embodiment, the people monitoring system 10 has one infrared sensor 2 .
  • the estimation system 1 is a system for estimating whether or not a plurality of people 4 existing in the target space 100 are in close proximity based on the detection results of the infrared sensor 2 .
  • the estimation system 1 includes a first estimation unit 12 and a second estimation unit 13, as shown in FIG.
  • the estimation system 1 further includes an acquisition unit 11 , an output unit 14 and a measurement unit 15 .
  • the first estimating unit 12 Based on a thermal image (heat distribution) 200 (see FIG. 2) including a plurality of heat sources 6 (see FIG. 2) detected by the infrared sensor 2, the first estimating unit 12 detects the number of people 4 in the target space 100.
  • Estimate the three-dimensional position of the head 5 see FIG. 2).
  • the second estimation unit 13 estimates whether or not the plurality of persons 4 are in close proximity based on the data of the three-dimensional positions of the heads 5 of the persons 4 estimated by the first estimation unit 12 .
  • the acquisition unit 11 acquires the thermal image 200 that is the detection result of the infrared sensor 2 .
  • the output unit 14 outputs the estimation result of the second estimation unit 13 .
  • the measuring unit 15 measures the staying time of each of the plurality of heat sources 6 in the target space 100 .
  • the first estimation unit 12 estimates the heads of the plurality of persons 4 based on the thermal image (heat distribution) 200 including the plurality of heat sources 6. 5 are estimated in three dimensions. Therefore, the second estimating unit 13 can calculate the distance between the heads 5 of the plurality of persons 4 from the data of the three-dimensional positions of the heads 5 of the plurality of persons 4, and this distance is used as a reference value (threshold ), it becomes possible to estimate whether or not the plurality of people 4 are in close contact with each other. That is, according to the estimation system 1 and the person monitoring system 10 according to the embodiment, it is possible to accurately estimate whether or not the plurality of people 4 are in close proximity in the target space 100 .
  • the people monitoring system 10 includes the estimation system 1 and the infrared sensor 2, as described above.
  • the people monitoring system 10 has one infrared sensor 2 .
  • the infrared sensor 2 is, for example, a passive sensor (passive sensor).
  • the infrared sensor 2 detects an object by receiving infrared rays emitted from the object.
  • the objects are, for example, a plurality of people 4 present in the object space 100 .
  • the infrared sensor 2 detects a plurality of persons 4 by receiving infrared rays emitted from the plurality of persons 4 .
  • the infrared sensor 2 generates, for example, a thermal image (thermal distribution) 200 including multiple heat sources 6 .
  • the thermal image 200 is, for example, an image of 8 ⁇ 8 pixels (64 pixels).
  • a plurality of heat sources 6 correspond to a plurality of people 4 on a one-to-one basis.
  • Thermal image 200 also includes temperature information of the object.
  • the density of each pixel differs according to the temperature of the object.
  • the density of pixels with high temperature is high and the density of pixels with low temperature is low.
  • each heat source 6 varies depending on the distance to the infrared sensor 2. More specifically, the shorter the distance from the heat source 6 to the infrared sensor 2, the larger the heat source 6 becomes. For example, in the example shown in FIG. 2, the person 41 located on the left side of the plurality (two) persons 4 is closer to the infrared sensor 2 than the person 42 located on the right side. The size is larger than the heat source 62 corresponding to the person 42 .
  • the infrared sensor 2 is installed on the ceiling 101 facing the target space 100, as shown in FIG.
  • the target space 100 is, as described above, the interior space of the building (hereinafter also referred to as "interior space 100"). That is, in this embodiment, the infrared sensor 2 is installed on the ceiling 101 facing the internal space 100 of the building. More specifically, the infrared sensor 2 is installed substantially in the center of the ceiling 101 so that the entire floor surface of the target space 100 is the detection area R1 of the infrared sensor 2 (see FIG. 2).
  • the infrared sensor 2 is housed together with the estimation system 1 in a housing 110 (see FIG. 2). That is, in this embodiment, the infrared sensor 2 and the estimation system 1 are configured integrally.
  • the estimation system 1 according to the embodiment can be realized by, for example, a computer system having one or more processors and one or more memories. That is, one or more processors execute programs recorded in one or more memories of the computer system, thereby functioning as the estimation system 1 according to the embodiment.
  • the program may be pre-recorded in a memory, may be provided through an electric communication line such as the Internet, or may be provided by being recorded in a non-temporary recording medium such as a memory card.
  • the estimation system 1 includes a first estimation unit 12 and a second estimation unit 13, as shown in FIG.
  • the estimation system 1 according to the embodiment further includes an acquisition unit 11 , an output unit 14 and a measurement unit 15 .
  • the acquisition unit 11 acquires the thermal image 200 from the infrared sensor 2 at regular intervals (for example, 0.1 seconds).
  • the acquisition unit 11 sequentially outputs the thermal images 200 acquired from the infrared sensor 2 to the first estimation unit 12 .
  • the first estimation unit 12 estimates the three-dimensional position of the object based on the thermal image 200 acquired from the acquisition unit 11.
  • the objects are a plurality of people 4 present in the object space 100, as described above. That is, the first estimation unit 12 calculates the three-dimensional positions of the heads 5 of the people 4 in the target space 100 based on the thermal image (heat distribution) 200 including the heat sources 6 detected by the infrared sensor 2. presume.
  • the plurality of people 4 and the plurality of heat sources 6 correspond one-to-one. ) is also higher. Therefore, the first estimation unit 12 can estimate the height to the head 5 of the corresponding person 4 from the size of each heat source 6 .
  • the first estimation unit 12 has a database that defines the relationship between the size of the heat source 6 and the height of the head 5 of the person 4. Based on this database, the size of the heat source 6 , the height to the head 5 of the corresponding person 4 is estimated. The database also defines the relationship between the position of the heat source 6 in the thermal image 200 and the position of the person 4 in the target space 100 . Therefore, the first estimating unit 12 can acquire the position data in the X-axis direction, the position data in the Y-axis direction, and the position data in the Z-axis direction as the three-dimensional position data of the person 4. be. The first estimation unit 12 outputs the data of the three-dimensional positions of the heads 5 of the people 4 to the second estimation unit 13 .
  • the second estimation unit 13 estimates whether or not a plurality of people 4 existing in the target space 100 are in close proximity based on the data of the three-dimensional positions estimated by the first estimation unit 12 . More specifically, the second estimation unit 13 calculates the distance between the heads 5 of the people 4 from the data of the three-dimensional positions of the people 4 . For example, in the example shown in FIG. 2, let the three-dimensional position data of the head 51 of the person 41 located on the left be (X1, Y1, Z1), and the three-dimensional position of the head 52 of the person 42 located on the right. Let the data be (X2, Y2, Z2). In this case, the distance L1 between the head 51 of the person 41 and the head 52 of the person 42 is obtained from equation (1).
  • the second estimation unit 13 compares the distance L1 calculated by the formula (1) with a preset reference value (threshold value) to determine whether the person 41 and the person 42 are in close contact with each other. to estimate More specifically, the second estimation unit 13 estimates that the person 41 and the person 42 are not in close contact when the distance L1 is equal to or greater than the reference value, and determines that the distance L1 is less than the reference value. Assume that 41 and person 42 are in close proximity.
  • “persons are in close contact” means not only cases where people are in close contact with each other without gaps, but also cases where the distance at which they can touch the other person’s body is a predetermined distance (for example, , 1m) or less.
  • the predetermined distance is, for example, a distance shorter than the height of the person 4, and is stored in advance in the storage unit. Therefore, the reference value with which the distance L1 is compared is set to 1 m, for example.
  • the output unit 14 outputs the estimation result of the second estimation unit 13 .
  • the output unit 14 includes, for example, a communication interface. More specifically, the output unit 14 includes a communication interface capable of communicating with the external device 3 .
  • the external device 3 is, for example, a smartphone possessed by each of the plurality of persons 4 .
  • the output unit 14 outputs the estimation result of the second estimation unit 13 to the external device 3 .
  • the output unit 14 outputs the two external devices 3 possessed by the person 41 and the person 42, respectively. outputs (sends) a notification that the This makes it possible to urge each of the persons 41 and 42 not to come into close contact with each other.
  • the measurement unit 15 measures the length of stay of each of the plurality of people 4 in the target space 100 .
  • the measurement unit 15 includes a timer. For example, the measurement unit 15 receives a measurement start instruction from the first estimation unit 12 to start measuring (counting) the stay time, and receives a measurement end instruction from the first estimation unit 12 to end measurement of the stay time. do.
  • the measurement unit 15 outputs the measurement result (residence time of each heat source 6 ) to the second estimation unit 13 .
  • the second estimation unit 13 when estimating whether or not the plurality of people 4 present in the target space 100 are in close proximity, the second estimation unit 13 simply compares the distance L1 between the heads 5 with a reference value. Instead, it is preferable to consider the staying time of the plurality of people 4 in the target space 100 . More specifically, for example, even if the distance L1 between the heads 5 is less than the reference value, the second estimation unit 13 determines that at least one of the plurality of stay times corresponding to each of the plurality of people 4 is longer than the predetermined time. If less than, it may be assumed that the people 4 are not in close proximity.
  • the second estimating unit 13 if all of the plurality of stay times corresponding to the plurality of people 4 are equal to or longer than the predetermined time, It may be estimated that a plurality of persons 4 are in close proximity. That is, the second estimating unit 13 estimates that the plurality of people 4 are not in close contact when the residence time of the plurality of heat sources 6 in the target space 100 is less than the predetermined time, and the residence time is longer than the predetermined time. In some cases, multiple people 4 may be inferred to be in close proximity based on the 3D location data.
  • the second estimation unit 13 not only determines whether or not the distance L1 between the heads 5 is equal to or greater than the reference value, but also determines whether or not the stay time is equal to or greater than the predetermined time.
  • the predetermined time is, for example, 3 to 4 minutes.
  • the predetermined time is not limited to the above time. The predetermined time may be longer or shorter than the above time.
  • the human monitoring system 10 senses the inside of the target space 100 using the infrared sensor 2 (step ST1).
  • the infrared sensor 2 detects the object (step ST2).
  • the infrared sensor 2 detects a plurality of people 4 as objects.
  • the first estimation unit 12 of the estimation system 1 estimates the three-dimensional positions of the heads 5 of the plurality of people 4 based on the thermal image 200 acquired from the infrared sensor 2 via the acquisition unit 11 (first estimation step ST3).
  • the second estimation unit 13 of the estimation system 1 determines whether or not the plurality of persons 4 are in close proximity based on the data of the three-dimensional positions of the heads 5 of the plurality of persons 4, which is the estimation result of the first estimation unit 12. is estimated (second estimation step ST4).
  • the output unit 14 of the estimation system 1 outputs (transmits) the estimation result of the second estimation unit 13 to the plurality of external devices 3 possessed by the plurality of people 4 (step ST5). This makes it possible to notify the plurality of persons 4 that the plurality of persons 4 are in close contact with each other.
  • the first estimation unit 12 calculates the head 5 of each person 4 based on the heat distribution (thermal image) 200 including the heat sources 6 It is possible to estimate the three-dimensional position of Then, the second estimating unit 13 can calculate the distance between the heads 5 of the plurality of persons 4 from the data of the three-dimensional positions of the heads 5 of the plurality of persons 4, and this distance is used as a reference value (threshold ), it becomes possible to estimate whether or not the plurality of people 4 are in close contact with each other. That is, according to the estimation system 1 according to the embodiment, it is possible to accurately estimate whether or not the plurality of people 4 are in close contact with each other in the target space 100 .
  • the estimation system 1 further includes the output unit 14 as described above. This makes it possible to output (transmit) the estimation result of the second estimation unit 13 to the outside (external device 3).
  • the estimation system 1 based on the staying time of the plurality of heat sources 6 (people 4) in the target space 100, it is estimated whether or not the plurality of people 4 are in close contact with each other. there is This makes it possible to improve the estimation accuracy when estimating whether or not the plurality of people 4 are in close contact with each other, compared to the case where the length of stay is not considered.
  • An estimation method includes a first estimation step ST3 and a second estimation step ST4.
  • the first estimation step ST3 estimates the three-dimensional positions of the heads 5 of the people 4 in the target space 100 based on the heat distribution (thermal image) 200 including the heat sources 6 detected by the infrared sensor 2. is a step.
  • the second estimation step ST4 is a step of estimating whether or not the plurality of people 4 are in close proximity based on the three-dimensional position data estimated in the first estimation step ST3.
  • a program according to one aspect is a program for causing one or more processors to execute the estimation method described above.
  • the estimation system 1 according to Modification 1 is different from the estimation system 1 according to the above-described embodiment in that the second estimation unit 13 further estimates the degree of pollution of the air in the target space 100 .
  • Other configurations are the same as those of the estimation system 1 according to the above-described embodiment, and the same components are denoted by the same reference numerals and descriptions thereof are omitted.
  • the second estimation unit 13 is configured to be able to estimate the contamination level of the air within the target space 100 .
  • the count value indicating the degree of pollution of the air in the target space 100 increases by "2" every minute
  • the target space 100 1 shows a case where the count value is decreased by "3" every minute in the air purifier provided in .
  • the number of people 4 present in the target space 100 can be detected by the first estimator 12 based on the thermal image 200 from the infrared sensor 2 .
  • the count value indicating the degree of contamination of the air in the target space 100 remains "0".
  • the output unit 14 outputs a notification that the air in the target space 100 is dirty during the notification period T1. This makes it possible to notify the person 4 existing in the target space 100 that the air in the target space 100 is dirty.
  • the count value indicating the degree of contamination of the air in the target space 100 decreases toward "0" by "3" every minute.
  • the estimation system 1 According to the estimation system 1 according to Modification 1, it is possible not only to estimate whether or not a plurality of people 4 are in close proximity in the target space 100, but also to estimate the degree of pollution of the air in the target space 100. It is possible to estimate
  • the first estimation unit 12 further estimates the movement directions of the plurality of people 4 based on the movement trajectories of the plurality of heat sources 6, and the estimation system 1 according to the above-described embodiment different from 1. Further, in the estimation system 1 according to Modification 2, the second estimation unit 13 further estimates the orientations of the heads 5 of the plurality of persons 4 from the moving directions of the plurality of persons 4 estimated by the first estimation unit 12. However, it differs from the estimation system 1 according to the above-described embodiment in that it estimates whether or not the plurality of people 4 are in close contact based on this estimation result.
  • Other configurations are the same as those of the estimation system 1 according to the above-described embodiment, and the same components are denoted by the same reference numerals and descriptions thereof are omitted.
  • the first estimation unit 12 estimates the movement directions of the plurality of people 4 along with the three-dimensional positions based on the movement trajectories of the plurality of heat sources 6 . Since the first estimation unit 12 acquires the thermal images 200 at regular intervals as described above, it is possible to detect the movement trajectories of the plurality of heat sources 6 based on the plurality of thermal images 200 . As described above, since the plurality of heat sources 6 and the plurality of persons 4 correspond one-to-one, the first estimating unit 12 determines the moving directions of the plurality of persons 4 from the movement trajectories of the plurality of heat sources 6. It is possible to estimate
  • the second estimation unit 13 estimates the directions of the heads 5 of the people 4 from the movement directions of the people 4, which are the estimation results of the first estimation unit 12. More specifically, the second estimation unit 13 estimates the orientations of the heads 5 of the people 4 on the assumption that the people 4 are moving in the direction of movement. The second estimation unit 13 also estimates whether or not the plurality of people 4 are in close proximity based on the three-dimensional position data and the directions of the heads 5 of the plurality of people 4 . More specifically, for example, in the example shown in FIG. 2, the distance L1 between the head 51 of the person 41 located on the left side and the head 52 of the person 42 located on the right side was greater than or equal to the reference value.
  • the second estimation unit 13 may estimate that the person 41 and the person 42 are in close proximity. Moreover, even if the distance L1 between the head 51 of the person 41 and the head 52 of the person 42 is less than the reference value, the head 51 of the person 41 and the head 52 of the person 42 face different directions. In this case, the second estimation unit 13 may estimate that the person 41 and the person 42 are not in close contact with each other.
  • the estimation accuracy when estimating whether or not the plurality of people 4 are in close proximity is improved compared to the case where the orientations of the heads 5 of the plurality of people 4 are not considered. It is possible to
  • the first estimation unit 12 further estimates the body temperature of the plurality of people 4 based on the thermal image 200 including the plurality of heat sources 6. It differs from System 1. Further, in the estimation system 1 according to Modification 3, the second estimation unit 13 further determines whether or not the plurality of persons 4 are in close contact based on the body temperature of the plurality of persons 4 estimated by the first estimation unit 12. It is different from the estimation system 1 according to the above-described embodiment in that it estimates whether Other configurations are the same as those of the estimation system 1 according to the above-described embodiment, and the same components are denoted by the same reference numerals and descriptions thereof are omitted.
  • the first estimator 12 estimates the body temperature of multiple people 4 based on a thermal image 200 including multiple heat sources 6 .
  • thermal image 200 includes temperature information, as described above. Therefore, the first estimator 12 can estimate the body temperatures of the plurality of people 4 from the thermal image 200 .
  • the first distance is preferably longer than the second distance. The first distance is the distance between the persons 4 when the second estimating unit 13 estimates that the plurality of persons 4 are in close contact when at least one of the plurality of body temperatures corresponding to the plurality of persons 4 is equal to or higher than a predetermined temperature. and person 4.
  • the second distance is the distance between the person 4 and the person when the second estimating unit 13 estimates that the plurality of people 4 are in close contact when all of the plurality of body temperatures corresponding to each of the plurality of persons 4 are below the predetermined temperature.
  • 4 is the distance between In this case, if a person 4 whose body temperature is equal to or higher than the predetermined temperature is included in the plurality of persons 4, even if the distance L1 between the heads 5 of the plurality of persons 4 is equal to or longer than the second distance, the If the distance is one distance or less, the second estimation unit 13 estimates that the plurality of people 4 are in close proximity.
  • the predetermined temperature is 37.5 degrees as an example, but the predetermined temperature may be higher or lower than 37.5 degrees.
  • the estimation system 1 according to Modification 3 it is possible to improve the estimation accuracy when estimating whether or not the plurality of people 4 are in close contact with each other, compared to the case where the body temperature of the plurality of people 4 is not considered. becomes.
  • the estimation system 1 according to Modification 4 differs from the estimation system 1 according to the above-described embodiment in that the wall 102 facing the target space (internal space of the building) 100 is included in the detection area of the infrared sensor 2. do.
  • Other configurations are the same as those of the estimation system 1 according to the above-described embodiment, and the same components are denoted by the same reference numerals and descriptions thereof are omitted.
  • a case is assumed in which a window 103 is provided on a wall 102 facing a target space 100 .
  • the window 103 when the window 103 is closed, the heat distribution of the wall 102 including the window 103 is uniform.
  • the window 103 is open, ventilation is performed inside and outside the target space 100, so that the heat distribution in the area of the window 103 changes to the area of the wall 102 other than the area of the window 103 different from the heat distribution of More specifically, for example, when the outside air temperature is higher than the room temperature, the temperature of the area of the window 103 is higher than the temperature of the area of the wall 102 other than the area of the window 103 . Also, for example, when the outside air temperature is lower than the room temperature, the temperature of the area of the window 103 is lower than the temperature of the area of the wall 102 other than the area of the window 103 .
  • the first estimation unit 12 determines that the target space 100 is in a ventilated state. It is possible to estimate that That is, the first estimating unit 12 determines that, in a region estimated to be the wall 102 facing the target space 100 in the heat distribution including the plurality of heat sources 6, a region having a different heat distribution from other regions (for example, the window 103) is included, it is estimated that the target space 100 is in a ventilated state. And, in this case, the third distance is preferably shorter than the fourth distance.
  • the third distance is the distance between the persons 4 when the second estimation unit 13 estimates that the plurality of persons 4 are in close contact when the target space 100 is estimated to be in a ventilated state. be.
  • the fourth distance is the distance between the persons 4 when the second estimating unit 13 estimates that the plurality of persons 4 are in close contact when the target space 100 is estimated not to be in a ventilated state. be. In this case, when the target space 100 is estimated to be in a ventilated state, even if the distance L1 between the heads 5 of the plurality of people 4 is the third distance shorter than the fourth distance, the second estimation unit 13 assumes that the people 4 are not in close proximity.
  • the estimation accuracy when estimating whether or not a plurality of people 4 are in close proximity is increased compared to the case where it is not considered whether or not the target space 100 is in a ventilated state. can be improved.
  • the estimation system 1 according to Modification 5 is different from the estimation system 1 according to the above-described embodiment in that the second estimation unit 13 can further estimate the congestion degree of the target space 100 .
  • Other configurations are the same as those of the estimation system 1 according to the above-described embodiment, and the same components are denoted by the same reference numerals and descriptions thereof are omitted.
  • the second estimation unit 13 can also estimate the congestion degree of the target space 100 . More specifically, the second estimation unit 13 can estimate the degree of congestion of the target space 100 from, for example, the ratio (ratio) of the sum of the volumes of the plurality of people 4 to the volume of the target space 100 . Then, when the degree of congestion of the target space 100 exceeds the specified value, the output unit 14, for example, outputs information to the plurality of external devices 3 possessed by the plurality of people 4, indicating that the target space 100 is congested. Outputs (sends) a notification to the effect that This makes it possible to notify (transmit) a notification to the effect that the target space 100 is congested to a plurality of people 4 .
  • the output unit 14 includes, for example, a lamp provided in the housing 110 (see FIG. 2) of the person monitoring system 10.
  • the output unit 14 turns off the lamp when the plurality of people 4 are not in close contact, and turns on the lamp when the plurality of people 4 is in close contact. This makes it possible to notify the plurality of persons 4 present in the target space 100 whether or not the plurality of persons 4 are in close contact with each other.
  • the output unit 14 may be configured to output a voice message indicating that the window 103 should be opened. For example, when a plurality of people 4 are in close proximity in the target space 100, by outputting a voice message to the effect that the windows 103 should be opened to the plurality of people 4 existing in the target space 100, the window 103 can be closed. It is possible to prompt a plurality of people 4 to open.
  • the output unit 14 may be configured to output an open/close signal to the window 103 .
  • the output unit 14 outputs an open signal for opening the window 103 to the window 103 .
  • the target space 100 can be ventilated by automatically opening the window 103.
  • the output unit 14 may output an open signal for opening the window 103 or a close signal for closing the window 103, or output You don't have to.
  • the output unit 14 is not limited to the configuration described above, and may be, for example, a display or a printer.
  • the output unit 14 is a display, displaying the estimation result of the second estimation unit 13 makes it possible to notify that the plurality of people 4 are in close proximity in the target space 100 .
  • the output unit 14 is a printer, it is possible to notify that the plurality of people 4 are in close proximity in the target space 100 by printing the estimation result of the second estimation unit 13 .
  • the estimation system 1 in the present disclosure includes a computer system.
  • a computer system is mainly composed of a processor and a memory as hardware.
  • the functions of the estimation system 1 in the present disclosure are realized by the processor executing a program recorded in the memory of the computer system.
  • the program may be recorded in advance in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-temporary recording medium such as a computer system-readable memory card, optical disk, or hard disk drive. may be provided.
  • a processor in a computer system consists of one or more electronic circuits including semiconductor integrated circuits (ICs) or large scale integrated circuits (LSIs).
  • the integrated circuit such as IC or LSI referred to here is called differently depending on the degree of integration, and includes integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration).
  • an FPGA Field-Programmable Gate Array
  • a plurality of electronic circuits may be integrated into one chip, or may be distributed over a plurality of chips.
  • a plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.
  • a computer system includes a microcontroller having one or more processors and one or more memories. Accordingly, the microcontroller also consists of one or more electronic circuits including semiconductor integrated circuits or large scale integrated circuits.
  • estimation system 1 it is not an essential configuration of the estimation system 1 that the multiple functions of the estimation system 1 are integrated into one housing 110 (see FIG. 2).
  • the constituent elements of the estimation system 1 may be distributed over a plurality of housings.
  • at least part of the functions of the estimation system 1 may be implemented by, for example, a server device and a cloud (cloud computing).
  • all functions of the estimation system 1 may be integrated into one housing 110 as in the above-described embodiment.
  • the person monitoring system 10 includes one infrared sensor 2 in the above-described embodiment, the person monitoring system 10 may include multiple infrared sensors 2 .
  • all of the multiple infrared sensors 2 are preferably installed on the ceiling 101 facing the target space (internal space of the building) 100 .
  • the plurality of infrared sensors 2 are preferably installed at different positions on the ceiling 101 so that the detection regions of the plurality of infrared sensors 2 partially overlap each other. This makes it possible to reduce the blind spots of the infrared sensor 2 and improve the detection accuracy of the person 4 compared to the case where one infrared sensor 2 is installed on the ceiling 101 .
  • At least one of the plurality of infrared sensors 2 is installed on the ceiling 101 facing the target space (internal space of the building) 100, and at least one of the plurality of infrared sensors 2 is installed on the wall 102 facing the target space 100.
  • the multiple infrared sensors 2 include the infrared sensor 2 installed on the ceiling 101 facing the target space 100 and the infrared sensor 2 installed on the wall 102 facing the target space 100 .
  • the plurality of infrared sensors 2 are preferably installed on the ceiling 101 and the wall 102 so that the detection regions of the plurality of infrared sensors 2 partially overlap each other. This makes it possible to reduce the blind spots of the infrared sensor 2 and improve the detection accuracy of the person 4 compared to the case where one infrared sensor 2 is installed on the ceiling 101 .
  • the first estimator 12 and the second estimator 13 are provided separately. good.
  • the target space 100 is the interior space of a building, but the target space 100 may be the interior space of a moving body, for example.
  • Mobile objects are, for example, trains, buses, automobiles, airplanes, and ships.
  • the infrared sensor 2 is a passive sensor in the above-described embodiment, the infrared sensor 2 is not limited to a passive sensor and may be an active sensor (active sensor). In this case, the infrared sensor 2 irradiates an object (for example, a person 4) with infrared rays and detects the object by receiving reflected light from the object.
  • an object for example, a person 4
  • An estimation system (1) includes a first estimation section (12) and a second estimation section (13).
  • a first estimating unit (12) detects the heads of a plurality of persons (4) in a target space (100) based on a heat distribution (200) including a plurality of heat sources (6) detected by an infrared sensor (2). Estimate the three-dimensional position of (5).
  • a second estimation unit (13) estimates whether or not a plurality of people (4) are in close proximity based on the data of the three-dimensional positions estimated by the first estimation unit (12).
  • the estimation system (1) in the first aspect, further comprises an output unit (14).
  • An output unit (14) outputs the estimation result of the second estimation unit (13).
  • the second estimating unit (13) determines that the residence time of the plurality of heat sources (6) in the target space (100) is less than the predetermined time. , then it is estimated that the people (4) are not in close proximity.
  • a second estimation unit (13) estimates that a plurality of people (4) are in close proximity based on the three-dimensional position data when the staying time is equal to or longer than a predetermined time.
  • the estimation accuracy is improved when estimating whether or not the plurality of people (4) are in close proximity. becomes possible.
  • the first estimation unit (12) generates a plurality of heat sources (6) based on the movement trajectories.
  • the direction of movement of the person (4) is estimated along with the 3D position.
  • a second estimation unit (13) estimates orientations of heads (5) of the plurality of people (4) from moving directions of the plurality of people (4), Based on the orientation of the head (5), it is estimated whether a plurality of people (4) are in close proximity.
  • the first estimating unit (12) determines the heat distribution (200) including the plurality of heat sources (6) Estimate the body temperature of a plurality of people (4) based on.
  • the first distance is longer than the second distance.
  • the first distance is the number of people when the second estimation unit (13) estimates that the plurality of people (4) are in close contact when at least one of the body temperatures of the plurality of people (4) is equal to or higher than a predetermined temperature. It is the distance between (4) and person (4).
  • the second distance is the distance between the persons (4) when the second estimation unit (13) estimates that the plurality of persons (4) are in close contact when all the body temperatures of the persons (4) are below the predetermined temperature. ) and the person (4).
  • the target space (100) is the interior space (100) of a building or a moving object.
  • a first estimating unit (12) calculates a heat distribution in a region estimated to be a wall (102) facing an internal space (100) in a heat distribution (200) including a plurality of heat sources (6).
  • the third distance is shorter than the fourth distance.
  • the third distance is the person (4) when the second estimation unit (13) estimates that the plurality of people (4) are in close proximity when the interior space (100) is estimated to be in a ventilated state. It is the distance between the person (4).
  • the fourth distance is the person (4) when the second estimation unit (13) estimates that the plurality of people (4) are in close contact when it is estimated that the internal space (100) is not in a ventilated state. It is the distance between the person (4).
  • a person monitoring system (10) according to a seventh aspect comprises an estimation system (1) according to any one of the first to sixth aspects and an infrared sensor (2).
  • the person monitoring system (10) includes a plurality of infrared sensors (2) in the seventh aspect.
  • a target space (100) is an internal space (100) of a building or a moving body.
  • a plurality of infrared sensors (2) are installed at different positions on a ceiling (101) facing an internal space (100).
  • the person monitoring system (10) includes a plurality of infrared sensors (2) in the seventh aspect.
  • a target space (100) is an internal space (100) of a building or a moving body.
  • a plurality of infrared sensors (2) are installed on the ceiling (101) facing the internal space (100) and on the wall (102) facing the internal space (100). an infrared sensor (2).
  • the estimation method has a first estimation step (ST3) and a second estimation step (ST4).
  • the first estimation step (ST3) based on the heat distribution (200) including the plurality of heat sources (6) detected by the infrared sensor (2), the heads of the plurality of persons (4) in the target space (100) This is the step of estimating the three-dimensional position of (5).
  • the second estimation step (ST4) is a step of estimating whether or not the plurality of people (4) are in close proximity based on the three-dimensional position data estimated in the first estimation step (ST3).
  • a program according to the eleventh aspect is a program for causing one or more processors to execute the estimation method according to the tenth aspect.
  • the configurations according to the second to sixth aspects are not essential configurations for the estimation system (1), and can be omitted as appropriate.
  • the configurations according to the eighth and ninth aspects are not essential configurations for the human monitoring system (10), and can be omitted as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

本開示の課題は、対象空間において複数の人が密接しているか否かを正確に推定することである。推定システム(1)は、第1推定部(12)と、第2推定部(13)と、を備える。第1推定部(12)は、赤外線センサ(2)で検出された複数の熱源を含む熱分布に基づいて、対象空間における複数の人の頭部の3次元位置を推定する。第2推定部(13)は、第1推定部(12)で推定された3次元位置のデータに基づいて、複数の人が密接しているか否かを推定する。

Description

推定システム、人監視システム、推定方法及びプログラム
 本開示は、一般に推定システム、人監視システム、推定方法及びプログラムに関し、より詳細には、対象空間における複数の人の状態を推定するための推定システム、人監視システム、推定方法及びプログラムに関する。
 特許文献1には、電車や建物等の内部の空間(対象空間)の人体を検知し、その空間の混雑度を判定する混雑度検知システム(推定システム)が記載されている。特許文献1に記載の混雑度検知システムは、赤外線センサの検知領域に対する人体存在領域の割合をその空間の混雑度とする。
 特許文献1に記載の混雑度検知システムでは、対象空間を2次元平面として捉えて判断するため、上記空間において複数の人が密接しているか否かを正確に推定(判定)することができなかった。
特開平8-161292号公報
 本開示の目的は、対象空間において複数の人が密接しているか否かを正確に推定することが可能な推定システム、人監視システム、推定方法及びプログラムを提供することにある。
 本開示の一態様に係る推定システムは、第1推定部と、第2推定部と、を備える。前記第1推定部は、赤外線センサで検出された複数の熱源を含む熱分布に基づいて、対象空間における複数の人の頭部の3次元位置を推定する。前記第2推定部は、前記第1推定部で推定された前記3次元位置のデータに基づいて、前記複数の人が密接しているか否かを推定する。
 本開示の一態様に係る人監視システムは、前記推定システムと、前記赤外線センサと、を備える。
 本開示の一態様に係る推定方法は、第1推定ステップと、第2推定ステップと、を有する。前記第1推定ステップは、赤外線センサで検出された複数の熱源を含む熱分布に基づいて、対象空間における複数の人の頭部の3次元位置を推定するステップである。前記第2推定ステップは、前記第1推定ステップで推定した前記3次元位置のデータに基づいて、前記複数の人が密接しているか否かを推定するステップである。
 本開示の一態様に係るプログラムは、前記推定方法を、1以上のプロセッサに実行させるためのプログラムである。
図1は、実施形態に係る推定システム及び人監視システムの構成を示すブロック図である。 図2は、同上の人監視システムの適用例を示す概略構成図である。 図3は、同上の人監視システムの動作例を示すフローチャートである。 図4は、実施形態の変形例1に係る推定システムにおいて対象空間の空気の汚れ度を推定する際の汚れ度の変化を示すグラフである。
 (実施形態)
 以下、実施形態に係る推定システム1及び人監視システム10について、図1~図4を参照して説明する。
 (1)概要
 まず、実施形態に係る推定システム1及び人監視システム10の概要について、図1及び図2を参照して説明する。
 実施形態に係る人監視システム10は、図2に示すように、赤外線センサ2を用いて、対象空間100内に存在する複数(図示例では2人)の人4を監視するためのシステムである。対象空間100は、例えば、建物の内部空間である。建物は、例えば、戸建住宅又は集合住宅(例えば、マンション)の各住戸等の住宅、及び、病院、学校、店舗、オフィスビル等の非住宅を含む。人監視システム10は、図1に示すように、推定システム1と、赤外線センサ2と、を備えている。本実施形態では、人監視システム10は、1つの赤外線センサ2を備えている。
 推定システム1は、赤外線センサ2の検出結果に基づいて、対象空間100内に存在する複数の人4が密接しているか否かを推定するためのシステムである。推定システム1は、図1に示すように、第1推定部12と、第2推定部13と、を備えている。また、推定システム1は、取得部11と、出力部14と、計測部15と、を更に備えている。第1推定部12は、赤外線センサ2で検出された複数の熱源6(図2参照)を含む熱画像(熱分布)200(図2参照)に基づいて、対象空間100における複数の人4の頭部5(図2参照)の3次元位置を推定する。第2推定部13は、第1推定部12で推定された複数の人4の頭部5の3次元位置のデータに基づいて、複数の人4が密接しているか否かを推定する。
 取得部11は、赤外線センサ2の検出結果である熱画像200を取得する。出力部14は、第2推定部13の推定結果を出力する。計測部15は、対象空間100における複数の熱源6の各々の滞在時間を計測する。
 実施形態に係る推定システム1及び人監視システム10では、上述したように、第1推定部12は、複数の熱源6を含む熱画像(熱分布)200に基づいて、複数の人4の頭部5の3次元位置を推定している。そのため、第2推定部13は、複数の人4の頭部5の3次元位置のデータから複数の人4の頭部5間の距離を算出することが可能となり、この距離を基準値(閾値)と比較することで複数の人4が密接しているか否かを推定することが可能となる。すなわち、実施形態に係る推定システム1及び人監視システム10によれば、対象空間100において複数の人4が密接しているか否かを正確に推定することが可能となる。
 (2)詳細
 次に、実施形態に係る推定システム1及び人監視システム10の構成について、図1及び図2を参照して説明する。人監視システム10は、上述したように、推定システム1と、赤外線センサ2と、を備えている。本実施形態では、人監視システム10は、1つの赤外線センサ2を備えている。
 (2.1)赤外線センサ
 赤外線センサ2は、例えば、パッシブセンサ(受動型センサ)である。赤外線センサ2は、対象物から放射される赤外線を受光することで対象物を検出する。対象物は、例えば、対象空間100内に存在する複数の人4である。本実施形態では、赤外線センサ2は、複数の人4から放射される赤外線を受光することで複数の人4を検出する。
 赤外線センサ2は、例えば、複数の熱源6を含む熱画像(熱分布)200を生成する。熱画像200は、例えば、8×8画素(64画素)の画像である。複数の熱源6は、複数の人4と一対一に対応している。また、熱画像200は、対象物の温度情報を含む。熱画像200では、例えば、対象物の温度に応じて各画素の濃度が異なる。一例として、熱画像200において、温度が高い画素の濃度は高く、温度が低い画素の濃度は低い。このように、赤外線センサ2から出力される熱画像200によれば、対象物の温度(体温)を検出することも可能である。
 ここで、各熱源6の大きさ(面積)は、赤外線センサ2までの距離によって異なる。より詳細には、熱源6から赤外線センサ2までの距離が短くなるほど、熱源6の大きさは大きくなる。例えば、図2に示す例では、複数(2人)の人4のうち左側に位置する人41は、右側に位置する人42よりも赤外線センサ2に近いため、人41に対応する熱源61の大きさは人42に対応する熱源62よりも大きい。
 本実施形態では、赤外線センサ2は、図2に示すように、対象空間100に面する天井101に設置されている。対象空間100は、上述したように、建物の内部空間(以下、「内部空間100」ともいう)である。すなわち、本実施形態では、赤外線センサ2は、建物の内部空間100に面する天井101に設置されている。より詳細には、赤外線センサ2は、対象空間100の床面全体が赤外線センサ2の検出領域R1(図2参照)となるように、天井101のほぼ中央に設置されている。本実施形態では、赤外線センサ2は、推定システム1と共に筐体110(図2参照)内に収納されている。すなわち、本実施形態では、赤外線センサ2と推定システム1とが一体に構成されている。
 (2.2)推定システム
 実施形態に係る推定システム1は、例えば、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステムにより実現され得る。すなわち、コンピュータシステムの1以上のメモリに記録されたプログラムを、1以上のプロセッサが実行することにより、実施形態に係る推定システム1として機能する。プログラムは、メモリに予め記録されていてもよく、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。
 実施形態に係る推定システム1は、図1に示すように、第1推定部12と、第2推定部13と、を備えている。また、実施形態に係る推定システム1は、取得部11と、出力部14と、計測部15と、を更に備えている。
 取得部11は、赤外線センサ2から一定間隔(例えば、0.1秒)で熱画像200を取得する。取得部11は、赤外線センサ2から取得した熱画像200を第1推定部12に順次出力する。
 第1推定部12は、取得部11から取得した熱画像200に基づいて、対象物の3次元位置を推定する。対象物は、上述したように、対象空間100内に存在する複数の人4である。すなわち、第1推定部12は、赤外線センサ2で検出された複数の熱源6を含む熱画像(熱分布)200に基づいて、対象空間100における複数の人4の頭部5の3次元位置を推定する。また、上述したように、複数の人4と複数の熱源6とは一対一に対応しており、熱画像200における熱源6の大きさ(面積)が大きくなるほど対応する人4の高さ(身長)も高くなる。したがって、第1推定部12は、各熱源6の大きさから、対応する人4の頭部5までの高さを推定することが可能となる。より詳細には、第1推定部12は、熱源6の大きさと人4の頭部5までの高さとの関係を規定したデータベースを有しており、このデータベースに基づいて、熱源6の大きさから、対応する人4の頭部5までの高さを推定する。また、データベースには、熱画像200における熱源6の位置と対象空間100における人4の位置との関係についても規定されている。したがって、第1推定部12は、人4の3次元位置のデータとして、X軸方向における位置データと、Y軸方向における位置データと、Z軸方向における位置データと、を取得することが可能である。第1推定部12は、複数の人4の頭部5の3次元位置のデータを第2推定部13に出力する。
 第2推定部13は、第1推定部12で推定された3次元位置のデータに基づいて、対象空間100内に存在する複数の人4が密接しているか否かを推定する。より詳細には、第2推定部13は、複数の人4の3次元位置のデータから、複数の人4の頭部5間の距離を算出する。例えば、図2に示す例において、左側に位置する人41の頭部51の3次元位置のデータを(X1,Y1,Z1)とし、右側に位置する人42の頭部52の3次元位置のデータを(X2,Y2,Z2)とする。この場合、人41の頭部51と人42の頭部52との距離L1は、式(1)から求められる。
Figure JPOXMLDOC01-appb-M000001
 そして、第2推定部13は、式(1)にて算出した距離L1を、予め設定されている基準値(閾値)と比較することによって、人41と人42とが密接しているか否かを推定する。より詳細には、第2推定部13は、距離L1が基準値以上である場合に、人41と人42とが密接していないと推定し、距離L1が基準値未満である場合に、人41と人42とが密接していると推定する。本開示において「人と人とが密接している」とは、人と人とが隙間のない状態でぴったりくっついている場合だけでなく、相手の身体に触れることのできる距離が所定距離(例えば、1m)以下である場合も含む。所定距離は、例えば、人4の身長よりも短い距離であり、予め記憶部に記憶されている。したがって、距離L1の比較対象である基準値は、例えば、1mに設定される。
 出力部14は、第2推定部13の推定結果を出力する。出力部14は、例えば、通信インターフェースを含む。より詳細には、出力部14は、外部機器3と通信可能な通信インターフェースを含む。外部機器3は、例えば、複数の人4の各々が所持しているスマートフォンである。出力部14は、外部機器3に対して第2推定部13の推定結果を出力する。具体的には、出力部14は、人41と人42とが密接している場合には、人41,42がそれぞれ所持している2つの外部機器3に対して、人41と人42とが密接している旨の通知を出力(送信)する。これにより、人41,42の各々に対して、密接しないように促すことが可能となる。
 計測部15は、対象空間100における複数の人4の各々の滞在時間を計測する。計測部15は、タイマを含む。計測部15は、例えば、第1推定部12からの計測開始指示を受けて滞在時間の計測(カウント)を開始し、第1推定部12からの計測終了指示を受けて滞在時間の計測を終了する。計測部15は、計測結果(各熱源6の滞在時間)を第2推定部13に出力する。
 ここで、第2推定部13は、対象空間100内に存在する複数の人4が密接しているか否かを推定する際に、頭部5間の距離L1と基準値とを比較するだけでなく、対象空間100における複数の人4の滞在時間を考慮することが好ましい。より詳細には、第2推定部13は、例えば、頭部5間の距離L1が基準値未満であったとしても、複数の人4にそれぞれ対応する複数の滞在時間のうち少なくとも1つが所定時間未満である場合、複数の人4が密接していないと推定してもよい。また、第2推定部13は、例えば、頭部5間の距離L1が基準値以上であったとしても、複数の人4にそれぞれ対応する複数の滞在時間のすべてが所定時間以上である場合、複数の人4が密接していると推定してもよい。すなわち、第2推定部13は、対象空間100における複数の熱源6の滞在時間が所定時間未満である場合に、複数の人4が密接していないと推定し、上記滞在時間が所定時間以上である場合に、3次元位置のデータに基づいて、複数の人4が密接していると推定してもよい。これにより、頭部5間の距離L1と基準値との比較のみで複数の人4が密接しているか否かを推定する場合に比べて、推定精度を向上させることが可能となる。この場合、第2推定部13は、頭部5間の距離L1が基準値以上であるか否かを判定するだけでなく、滞在時間が所定時間以上であるか否かについても判定する。ここで、所定時間(閾値時間)は、一例として、3~4分である。ただし、所定時間は、上記の時間に限定されない。所定時間は、上記の時間よりも長くてもよいし、短くてもよい。
 (3)動作
 次に、実施形態に係る人監視システム10(推定システム1)の動作例について、図3を参照して説明する。
 まず、人監視システム10は、赤外線センサ2を用いて対象空間100内をセンシングする(ステップST1)。対象空間100内に対象物が存在する場合、赤外線センサ2は、対象物を検出する(ステップST2)。図2に示す例では、赤外線センサ2は、対象物として複数の人4を検出する。
 推定システム1の第1推定部12は、取得部11を介して赤外線センサ2から取得した熱画像200に基づいて、複数の人4の頭部5の3次元位置を推定する(第1推定ステップST3)。推定システム1の第2推定部13は、第1推定部12の推定結果である複数の人4の頭部5の3次元位置のデータに基づいて、複数の人4が密接しているか否かを推定する(第2推定ステップST4)。
 そして、推定システム1の出力部14は、複数の人4がそれぞれ所持している複数の外部機器3に対して、第2推定部13の推定結果を出力(送信)する(ステップST5)。これにより、複数の人4が密接している旨を複数の人4に通知することが可能となる。
 (4)効果
 実施形態に係る推定システム1では、上述したように、第1推定部12は、複数の熱源6を含む熱分布(熱画像)200に基づいて、複数の人4の頭部5の3次元位置を推定することが可能である。そして、第2推定部13は、複数の人4の頭部5の3次元位置のデータから複数の人4の頭部5間の距離を算出することが可能となり、この距離を基準値(閾値)と比較することで複数の人4が密接しているか否かを推定することが可能となる。すなわち、実施形態に係る推定システム1によれば、対象空間100において複数の人4が密接しているか否かを正確に推定することが可能となる。
 また、実施形態に係る推定システム1は、上述したように、出力部14を更に備えている。これにより、第2推定部13の推定結果を外部(外部機器3)に出力(送信)することが可能となる。
 また、実施形態に係る推定システム1では、上述したように、対象空間100における複数の熱源6(人4)の滞在時間に基づいて、複数の人4が密接しているか否かを推定している。これにより、滞在時間を考慮しない場合に比べて、複数の人4が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 (5)変形例
 上述の実施形態は、本開示の様々な実施形態の一つにすぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、推定システム1と同様の機能は、推定方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。
 一態様に係る推定方法は、第1推定ステップST3と、第2推定ステップST4と、を有する。第1推定ステップST3は、赤外線センサ2で検出された複数の熱源6を含む熱分布(熱画像)200に基づいて、対象空間100における複数の人4の頭部5の3次元位置を推定するステップである。第2推定ステップST4は、第1推定ステップST3で推定した3次元位置のデータに基づいて、複数の人4が密接しているか否かを推定するステップである。また、一態様に係るプログラムは、上述の推定方法を、1以上のプロセッサに実行させるためのプログラムである。
 以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
 (5.1)変形例1
 変形例1に係る推定システム1について、図4を参照して説明する。
 変形例1に係る推定システム1では、第2推定部13が、更に、対象空間100内の空気の汚れ度を推定する点で、上述の実施形態に係る推定システム1と相違する。なお、それ以外の構成については上述の実施形態に係る推定システム1と同様であり、同一の構成要素には同一の符号を付して説明を省略する。
 変形例1に係る推定システム1では、上述したように、第2推定部13は、対象空間100内の空気の汚れ度を推定可能に構成されている。ここで、図4は、例えば、対象空間100内の人4が1人増加するごとに、対象空間100内の空気の汚れ度を示すカウント値が毎分「2」ずつ増加し、対象空間100に設けられている空気清浄機にて上記カウント値が毎分「3」ずつ減少する場合を示している。なお、対象空間100内に存在する人4の人数については、赤外線センサ2からの熱画像200に基づいて第1推定部12が検出可能である。
 時刻0~時刻t1の第1期間では、対象空間100内に存在する人4が0人又は1人であり、人4によるカウント値の増加分(「0」又は「+2」)よりも空気清浄機によるカウント値の減少分(「-3」)の方が大きい。そのため、第1期間では、対象空間100内の空気の汚れ度を示すカウント値は「0」のままである。
 時刻t1~時刻t2の第2期間では、対象空間100内に存在する人4が2人であり、人4によるカウント値の増加分(「+4」)よりも空気清浄機によるカウント値の減少分(「-3」)の方が小さい。そのため、第2期間では、対象空間100内の空気の汚れ度を示すカウント値は毎分「1」ずつ増加する。
 時刻t2~時刻t3の第3期間では、対象空間100内に存在する人4が3人であり、人4によるカウント値の増加分(「+6」)よりも空気清浄機能によるカウント値の減少分(「-3」)の方が小さい。そのため、第3期間では、対象空間100内の空気の汚れ度を示すカウント値は毎分「3」ずつ増加する。
 時刻t3~時刻t4の第4期間では、対象空間100内に存在する人4は2人であり、第2期間と同様、対象空間100内の空気の汚れ度を示すカウント値は毎分「1」ずつ増加する。
 時刻t4~時刻t5の第5期間では、対象空間100内に存在する人4は1人であり、人4によるカウント値の増加分(「+2」)よりも空気清浄機能によるカウント値の減少分(「-3」)の方が大きい。そのため、第5期間では、対象空間100内の空気の汚れ度を示すカウント値は毎分「1」ずつ減少する。
 ここで、第4期間と第5期間との両方に跨る通知期間T1では、対象空間100内の空気の汚れ度を示すカウント値が閾値Th1を超えており、対象空間100内の空気が汚れている。したがって、通知期間T1では、対象空間100内の空気が汚れている旨の通知を出力部14から出力するように構成されていることが好ましい。これにより、対象空間100内に存在する人4に対して、対象空間100内の空気が汚れていることを通知することが可能となる。
 時刻t5以降の第6期間では、対象空間100内に存在する人4が0人であり、人4によるカウント値の増加分(「0」)よりも空気清浄機によるカウント値の減少分(「-3」)の方が大きい。そのため、第6期間では、対象空間100内の空気の汚れ度を示すカウント値は、「0」に向かって毎分「3」ずつ減少する。
 変形例1に係る推定システム1によれば、対象空間100において複数の人4が密接しているか否かを推定することが可能であるだけでなく、対象空間100内の空気の汚れ度についても推定することが可能である。
 (5.2)変形例2
 変形例2に係る推定システム1について、図2を参照して説明する。
 変形例2に係る推定システム1では、第1推定部12が、更に、複数の熱源6の移動軌跡に基づいて複数の人4の移動方向を推定する点で、上述の実施形態に係る推定システム1と相違する。また、変形例2に係る推定システム1では、第2推定部13が、更に、第1推定部12で推定された複数の人4の移動方向から複数の人4の頭部5の向きを推定し、この推定結果を踏まえて複数の人4が密接しているか否かを推定する点で、上述の実施形態に係る推定システム1と相違する。なお、それ以外の構成については上述の実施形態に係る推定システム1と同様であり、同一の構成要素には同一の符号を付して説明を省略する。
 変形例2に係る推定システム1では、第1推定部12は、複数の熱源6の移動軌跡に基づいて複数の人4の移動方向を3次元位置と共に推定する。第1推定部12は、上述したように、一定間隔で熱画像200を取得するので、複数枚の熱画像200に基づいて複数の熱源6の移動軌跡を検出することが可能である。そして、上述したように、複数の熱源6と複数の人4とが一対一に対応しているので、第1推定部12は、複数の熱源6の移動軌跡から複数の人4の移動方向を推定することが可能である。
 第2推定部13は、第1推定部12の推定結果である複数の人4の移動方向から複数の人4の頭部5の向きを推定する。より詳細には、第2推定部13は、複数の人4が移動方向を向いて移動していることを前提として、複数の人4の頭部5の向きを推定する。また、第2推定部13は、3次元位置のデータ及び複数の人4の頭部5の向きに基づいて、複数の人4が密接しているか否かを推定する。より詳細には、例えば、図2に示す例において、左側に位置している人41の頭部51と右側に位置している人42の頭部52との距離L1が基準値以上であったとしても、人41の頭部51と人42の頭部52とが向かい合っている場合には、第2推定部13は、人41と人42とが密接していると推定してもよい。また、人41の頭部51と人42の頭部52との距離L1が基準値未満であったとしても、人41の頭部51と人42の頭部52とが異なる方向を向いている場合には、第2推定部13は、人41と人42とが密接していないと推定してもよい。
 変形例2に係る推定システム1によれば、複数の人4の頭部5の向きを考慮しない場合に比べて、複数の人4が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 (5.3)変形例3
 変形例3に係る推定システム1について説明する。
 変形例3に係る推定システム1では、第1推定部12が、更に、複数の熱源6を含む熱画像200に基づいて複数の人4の体温を推定する点で、上述の実施形態に係る推定システム1と相違する。また、変形例3に係る推定システム1では、第2推定部13が、更に、第1推定部12で推定された複数の人4の体温を踏まえて、複数の人4が密接しているか否かを推定する点で、上述の実施形態に係る推定システム1と相違する。なお、それ以外の構成については上述の実施形態に係る推定システム1と同様であり、同一の構成要素には同一の符号を付して説明を省略する。
 第1推定部12は、複数の熱源6を含む熱画像200に基づいて、複数の人4の体温を推定する。ここで、熱画像200は、上述したように、温度情報を含む。そのため、第1推定部12は、熱画像200から、複数の人4の体温を推定することが可能である。この場合において、第1距離は、第2距離よりも長いのが好ましい。第1距離は、複数の人4にそれぞれ対応する複数の体温のうち少なくとも1つが所定温度以上である場合に複数の人4が密接していると第2推定部13が推定する際の人4と人4との間の距離である。第2距離は、複数の人4にそれぞれ対応する複数の体温のすべてが所定温度未満である場合に複数の人4が密接していると第2推定部13が推定する際の人4と人4との間の距離である。この場合、体温が所定温度以上である人4が複数の人4の中に含まれていると、複数の人4の頭部5間の距離L1が第2距離以上であったとしても、第1距離以下であれば、第2推定部13は、複数の人4が密接していると推定する。ここで、所定温度は、一例として、37.5度であるが、所定温度は、37.5度よりも高くてもよいし、低くてもよい。
 変形例3に係る推定システム1によれば、複数の人4の体温を考慮しない場合に比べて、複数の人4が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 (5.4)変形例4
 変形例4に係る推定システム1について、図2を参照して説明する。
 変形例4に係る推定システム1では、対象空間(建物の内部空間)100に面する壁102が赤外線センサ2の検出領域に含まれている点で、上述の実施形態に係る推定システム1と相違する。なお、それ以外の構成については上述の実施形態に係る推定システム1と同様であり、同一の構成要素には同一の符号を付して説明を省略する。
 例えば、図2に示すように、対象空間100に面する壁102に窓103が設けられている場合を想定する。この場合、窓103が閉じられている状態では、窓103を含む壁102の熱分布は一様である。これに対して、窓103が開けられている状態では、対象空間100の内外で換気が行われることにより、窓103の領域の熱分布は、壁102の領域のうち窓103の領域以外の領域の熱分布と異なる。より詳細には、例えば、外気温が室温よりも高い場合には、窓103の領域の温度は、壁102の領域のうち窓103の領域以外の領域の温度よりも高くなる。また、例えば、外気温が室温よりも低い場合には、窓103の領域の温度は、壁102の領域のうち窓103の領域以外の領域の温度よりも低くなる。
 したがって、第1推定部12は、壁102の領域のうち窓103の領域の熱分布が、壁102のうち窓103の領域以外の領域の熱分布と異なっている場合、対象空間100が換気状態にあると推定することが可能となる。すなわち、第1推定部12は、複数の熱源6を含む熱分布のうち対象空間100に面する壁102であると推定される領域において他の領域と熱分布の異なる領域(例えば、窓103)が含まれている場合に、対象空間100が換気状態にあると推定する。そして、この場合には、第3距離は、第4距離よりも短いのが好ましい。第3距離は、対象空間100が換気状態にあると推定される場合に複数の人4が密接していると第2推定部13が推定する際の人4と人4との間の距離である。第4距離は、対象空間100が換気状態にないと推定される場合に複数の人4が密接していると第2推定部13が推定する際の人4と人4との間の距離である。この場合、対象空間100が換気状態にあると推定されると、複数の人4の頭部5間の距離L1が第4距離よりも短い第3距離であったとしても、第2推定部13は、複数の人4が密接していないと推定する。
 変形例4に係る推定システム1によれば、対象空間100が換気状態にあるか否かを考慮しない場合に比べて、複数の人4が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 (5.5)変形例5
 変形例5に係る推定システム1について説明する。
 変形例5に係る推定システム1では、第2推定部13は、更に、対象空間100の混雑度を推定可能である点で、上述の実施形態に係る推定システム1と相違する。なお、それ以外の構成については上述の実施形態に係る推定システム1と同様であり、同一の構成要素には同一の符号を付して説明を省略する。
 変形例5に係る推定システム1では、第2推定部13は、対象空間100の混雑度についても推定可能である。より詳細には、第2推定部13は、例えば、対象空間100の体積に対する複数の人4の体積の和の比率(割合)から、対象空間100の混雑度を推定することが可能である。そして、対象空間100の混雑度が規定値を超えている場合、出力部14は、例えば、複数の人4がそれぞれ所持している複数の外部機器3に対して、対象空間100が混雑している旨の通知を出力(送信)する。これにより、対象空間100が混雑している旨の通知を複数の人4に通知(送信)することが可能となる。
 (5.6)変形例6
 変形例6に係る推定システム1について説明する。
 変形例6に係る推定システム1では、出力部14は、例えば、人監視システム10の筐体110(図2参照)に設けられているランプを含む。そして、出力部14は、複数の人4が密接していない場合にはランプを消灯させ、複数の人4が密接している場合にはランプを点灯させる。これにより、対象空間100内に存在する複数の人4に対して、複数の人4が密接しているか否かを通知することが可能となる。
 また、出力部14は、窓103を開ける旨の音声メッセージを出力するように構成されていてもよい。例えば、対象空間100において複数の人4が密接している場合には、対象空間100内に存在する複数の人4に対して窓103を開ける旨の音声メッセージを出力することで、窓103の開放を複数の人4に促すことが可能となる。
 さらに、窓103が自動的に開閉する構造であれば、出力部14は、窓103に対して開閉信号を出力するように構成されていてもよい。出力部14は、例えば、対象空間100において複数の人4が密接している場合には、窓103を開けるための開信号を窓103に出力する。これにより、対象空間100において複数の人4が密接している場合には、窓103を自動的に開けることで、対象空間100の換気を行うことが可能となる。なお、対象空間100において複数の人4が密接していない場合には、出力部14は、窓103を開けるための開信号又は窓103を閉じるための閉信号を出力してもよいし、出力しなくてもよい。
 また、出力部14は、上述の構成に限らず、例えば、ディスプレイであってもよいし、プリンタであってもよい。出力部14がディスプレイである場合、第2推定部13の推定結果を表示することで、対象空間100において複数の人4が密接している旨を通知することが可能となる。また、出力部14がプリンタである場合、第2推定部13の推定結果を印刷することで、対象空間100において複数の人4が密接している旨を通知することが可能となる。
 (5.7)その他の変形例
 本開示における推定システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における推定システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
 また、推定システム1における複数の機能が、1つの筐体110(図2参照)に集約されていることは推定システム1に必須の構成ではない。推定システム1の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、推定システム1の少なくとも一部の機能は、例えば、サーバ装置及びクラウド(クラウドコンピューティング)等によって実現されてもよい。反対に、上述の実施形態のように、推定システム1の全ての機能が、1つの筐体110に集約されていてもよい。
 上述の実施形態では、人監視システム10が1つの赤外線センサ2を備えているが、人監視システム10は複数の赤外線センサ2を備えていてもよい。この場合、複数の赤外線センサ2のすべてが、対象空間(建物の内部空間)100に面する天井101に設置されていることが好ましい。そして、複数の赤外線センサ2は、複数の赤外線センサ2の各々の検知領域の一部が互いに重なり合うように、天井101において互いに異なる位置に設置されていることが好ましい。これにより、赤外線センサ2の死角を低減することが可能となり、1つの赤外線センサ2が天井101に設置されている場合に比べて、人4の検知精度を向上させることが可能となる。
 また、複数の赤外線センサ2の少なくとも1つが、対象空間(建物の内部空間)100に面する天井101に設置され、複数の赤外線センサ2の少なくとも1つが、対象空間100に面する壁102に設置されていてもよい。言い換えると、複数の赤外線センサ2は、対象空間100に面する天井101に設置されている赤外線センサ2と、対象空間100に面する壁102に設置されている赤外線センサ2と、を含む。この場合においても、複数の赤外線センサ2は、複数の赤外線センサ2の各々の検知領域の一部が互いに重なり合うように、天井101及び壁102に設置されていることが好ましい。これにより、赤外線センサ2の死角を低減することが可能となり、1つの赤外線センサ2が天井101に設置されている場合に比べて、人4の検知精度を向上させることが可能となる。
 上述の実施形態では、第1推定部12と第2推定部13とが別々に設けられているが、第1推定部12と第2推定部13とが1つの推定部で構成されていてもよい。
 上述の実施形態では、対象空間100が建物の内部空間であるが、対象空間100は、例えば、移動体の内部空間であってもよい。移動体は、例えば、電車、バス、自動車、飛行機、船舶である。
 上述の実施形態では、赤外線センサ2がパッシブセンサであるが、赤外線センサ2は、パッシブセンサに限らず、アクティブセンサ(能動型センサ)であってもよい。この場合、赤外線センサ2は、対象物(例えば、人4)に対して赤外線を照射して、対象物からの反射光を受光することで対象物を検出する。
 (態様)
 本明細書には、以下の態様が開示されている。
 第1の態様に係る推定システム(1)は、第1推定部(12)と、第2推定部(13)と、を備える。第1推定部(12)は、赤外線センサ(2)で検出された複数の熱源(6)を含む熱分布(200)に基づいて、対象空間(100)における複数の人(4)の頭部(5)の3次元位置を推定する。第2推定部(13)は、第1推定部(12)で推定された3次元位置のデータに基づいて、複数の人(4)が密接しているか否かを推定する。
 この態様によれば、対象空間(100)において複数の人(4)が密接しているか否かを正確に推定することが可能となる。
 第2の態様に係る推定システム(1)は、第1の態様において、出力部(14)を更に備える。出力部(14)は、第2推定部(13)の推定結果を出力する。
 この態様によれば、第2推定部(13)の推定結果を出力することが可能となる。
 第3の態様に係る推定システム(1)では、第1又は第2の態様において、第2推定部(13)は、対象空間(100)における複数の熱源(6)の滞在時間が所定時間未満である場合に、複数の人(4)が密接していないと推定する。第2推定部(13)は、滞在時間が所定時間以上である場合に、3次元位置のデータに基づいて、複数の人(4)が密接していると推定する。
 この態様によれば、対象空間(100)における複数の人(4)の滞在時間を考慮することで、複数の人(4)が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 第4の態様に係る推定システム(1)では、第1~第3の態様のいずれか1つにおいて、第1推定部(12)は、複数の熱源(6)の移動軌跡に基づいて複数の人(4)の移動方向を3次元位置と共に推定する。第2推定部(13)は、複数の人(4)の移動方向から複数の人(4)の頭部(5)の向きを推定し、3次元位置のデータ及び複数の人(4)の頭部(5)の向きに基づいて、複数の人(4)が密接しているか否かを推定する。
 この態様によれば、複数の人(4)の頭部(5)の向きを考慮することで、複数の人(4)が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 第5の態様に係る推定システム(1)では、第1~第4の態様のいずれか1つにおいて、第1推定部(12)は、複数の熱源(6)を含む熱分布(200)に基づいて複数の人(4)の体温を推定する。第1距離は、第2距離よりも長い。第1距離は、複数の人(4)の体温のうち少なくとも1つが所定温度以上である場合に複数の人(4)が密接していると第2推定部(13)が推定する際の人(4)と人(4)との間の距離である。第2距離は、複数の人(4)の体温のすべてが所定温度未満である場合に複数の人(4)が密接していると第2推定部(13)が推定する際の人(4)と人(4)との間の距離である。
 この態様によれば、複数の人(4)の体温を考慮することで、複数の人(4)が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 第6の態様に係る推定システム(1)では、第1~第5の態様のいずれか1つにおいて、対象空間(100)は、建物又は移動体の内部空間(100)である。第1推定部(12)は、複数の熱源(6)を含む熱分布(200)のうち内部空間(100)に面する壁(102)であると推定される領域において他の領域と熱分布の異なる領域(窓103)が含まれている場合に、内部空間(100)が換気状態にあると推定する。第3距離は、第4距離よりも短い。第3距離は、内部空間(100)が換気状態にあると推定される場合に複数の人(4)が密接していると第2推定部(13)が推定する際の人(4)と人(4)との間の距離である。第4距離は、内部空間(100)が換気状態にないと推定される場合に複数の人(4)が密接していると第2推定部(13)が推定する際の人(4)と人(4)との間の距離である。
 この態様によれば、対象空間(100)の換気状態を考慮することで、複数の人(4)が密接しているか否かを推定する際の推定精度を向上させることが可能となる。
 第7の態様に係る人監視システム(10)は、第1~第6の態様のいずれか1つの推定システム(1)と、赤外線センサ(2)と、を備える。
 この態様によれば、対象空間(100)において複数の人(4)が密接しているか否かを正確に推定することが可能となる。
 第8の態様に係る人監視システム(10)は、第7の態様において、赤外線センサ(2)を複数備える。対象空間(100)は、建物又は移動体の内部空間(100)である。複数の赤外線センサ(2)は、内部空間(100)に面する天井(101)において互いに異なる位置に設置されている。
 この態様によれば、1つの赤外線センサ(2)が天井(101)に設置されている場合に比べて、人(4)の検出精度を向上させることが可能となる。
 第9の態様に係る人監視システム(10)は、第7の態様において、赤外線センサ(2)を複数備える。対象空間(100)は、建物又は移動体の内部空間(100)である。複数の赤外線センサ(2)は、内部空間(100)に面する天井(101)に設置されている赤外線センサ(2)と、内部空間(100)に面する壁(102)に設置されている赤外線センサ(2)と、を含む。
 この態様によれば、1つの赤外線センサ(2)が天井(101)に設置されている場合に比べて、人(4)の検出精度を向上させることが可能となる。
 第10の態様に係る推定方法は、第1推定ステップ(ST3)と、第2推定ステップ(ST4)と、を有する。第1推定ステップ(ST3)は、赤外線センサ(2)で検出された複数の熱源(6)を含む熱分布(200)に基づいて、対象空間(100)における複数の人(4)の頭部(5)の3次元位置を推定するステップである。第2推定ステップ(ST4)は、第1推定ステップ(ST3)で推定した3次元位置のデータに基づいて、複数の人(4)が密接しているか否かを推定するステップである。
 この態様によれば、対象空間(100)において複数の人(4)が密接しているか否かを正確に推定することが可能となる。
 第11の態様に係るプログラムは、第10の態様に係る推定方法を、1以上のプロセッサに実行させるためのプログラムである。
 この態様によれば、対象空間(100)において複数の人(4)が密接しているか否かを正確に推定することが可能となる。
 第2~第6の態様に係る構成については、推定システム(1)に必須の構成ではなく、適宜省略可能である。
 第8及び第9の態様に係る構成については、人監視システム(10)に必須の構成ではなく、適宜省略可能である。
1 推定システム
2 赤外線センサ
4,41,42 人
5,51,52 頭部
6,61,62 熱源
10 人監視システム
12 第1推定部
13 第2推定部
14 出力部
100 対象空間
200 熱画像(熱分布)
ST3 第1推定ステップ
ST4 第2推定ステップ

Claims (11)

  1.  赤外線センサで検出された複数の熱源を含む熱分布に基づいて、対象空間における複数の人の頭部の3次元位置を推定する第1推定部と、
     前記第1推定部で推定された前記3次元位置のデータに基づいて、前記複数の人が密接しているか否かを推定する第2推定部と、を備える、
     推定システム。
  2.  前記第2推定部の推定結果を出力する出力部を更に備える、
     請求項1に記載の推定システム。
  3.  前記第2推定部は、
      前記対象空間における前記複数の熱源の滞在時間が所定時間未満である場合に、前記複数の人が密接していないと推定し、
      前記滞在時間が前記所定時間以上である場合に、前記3次元位置のデータに基づいて、前記複数の人が密接していると推定する、
     請求項1又は2に記載の推定システム。
  4.  前記第1推定部は、前記複数の熱源の移動軌跡に基づいて前記複数の人の移動方向を前記3次元位置と共に推定し、
     前記第2推定部は、前記複数の人の前記移動方向から前記複数の人の前記頭部の向きを推定し、前記3次元位置のデータ及び前記複数の人の前記頭部の向きに基づいて、前記複数の人が密接しているか否かを推定する、
     請求項1~3のいずれか1項に記載の推定システム。
  5.  前記第1推定部は、前記複数の熱源を含む前記熱分布に基づいて前記複数の人の体温を推定し、
     前記複数の人の前記体温のうち少なくとも1つが所定温度以上である場合に前記複数の人が密接していると前記第2推定部が推定する際の人と人との間の第1距離は、前記複数の人の前記体温のすべてが前記所定温度未満である場合に前記複数の人が密接していると前記第2推定部が推定する際の人と人との間の第2距離よりも長い、
     請求項1~4のいずれか1項に記載の推定システム。
  6.  前記対象空間は、建物又は移動体の内部空間であって、
     前記第1推定部は、前記複数の熱源を含む前記熱分布のうち前記内部空間に面する壁であると推定される領域において他の領域と熱分布の異なる領域が含まれている場合に、前記内部空間が換気状態にあると推定し、
     前記内部空間が換気状態にあると推定される場合に前記複数の人が密接していると前記第2推定部が推定する際の人と人との間の第3距離は、前記内部空間が換気状態にないと推定される場合に前記複数の人が密接していると前記第2推定部が推定する際の人と人との間の第4距離よりも短い、
     請求項1~5のいずれか1項に記載の推定システム。
  7.  請求項1~6のいずれか1項に記載の推定システムと、
     前記赤外線センサと、を備える、
     人監視システム。
  8.  前記赤外線センサを複数備え、
     前記対象空間は、建物又は移動体の内部空間であって、
     前記複数の赤外線センサは、前記内部空間に面する天井において互いに異なる位置に設置されている、
     請求項7に記載の人監視システム。
  9.  前記赤外線センサを複数備え、
     前記対象空間は、建物又は移動体の内部空間であって、
     前記複数の赤外線センサは、
      前記内部空間に面する天井に設置されている赤外線センサと、
      前記内部空間に面する壁に設置されている赤外線センサと、を含む、
     請求項7に記載の人監視システム。
  10.  赤外線センサで検出された複数の熱源を含む熱分布に基づいて、対象空間における複数の人の頭部の3次元位置を推定する第1推定ステップと、
     前記第1推定ステップで推定した前記3次元位置のデータに基づいて、前記複数の人が密接しているか否かを推定する第2推定ステップと、を有する、
     推定方法。
  11.  請求項10に記載の推定方法を、1以上のプロセッサに実行させるためのプログラム。
PCT/JP2021/048945 2021-02-09 2021-12-28 推定システム、人監視システム、推定方法及びプログラム WO2022172643A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/263,836 US20240344888A1 (en) 2021-02-09 2021-12-28 Estimation system, human monitoring system, estimation method, and program
JP2022581240A JPWO2022172643A1 (ja) 2021-02-09 2021-12-28

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-019357 2021-02-09
JP2021019357 2021-02-09

Publications (1)

Publication Number Publication Date
WO2022172643A1 true WO2022172643A1 (ja) 2022-08-18

Family

ID=82837582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048945 WO2022172643A1 (ja) 2021-02-09 2021-12-28 推定システム、人監視システム、推定方法及びプログラム

Country Status (3)

Country Link
US (1) US20240344888A1 (ja)
JP (1) JPWO2022172643A1 (ja)
WO (1) WO2022172643A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2016222353A (ja) * 2015-05-27 2016-12-28 株式会社日立製作所 画像認識機能を備えたエレベータ
JP2019101664A (ja) * 2017-11-30 2019-06-24 富士通株式会社 推定プログラム、推定システム、及び推定方法
JP2020184252A (ja) * 2019-05-09 2020-11-12 パナソニックIpマネジメント株式会社 ストレス推定システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2016222353A (ja) * 2015-05-27 2016-12-28 株式会社日立製作所 画像認識機能を備えたエレベータ
JP2019101664A (ja) * 2017-11-30 2019-06-24 富士通株式会社 推定プログラム、推定システム、及び推定方法
JP2020184252A (ja) * 2019-05-09 2020-11-12 パナソニックIpマネジメント株式会社 ストレス推定システム

Also Published As

Publication number Publication date
JPWO2022172643A1 (ja) 2022-08-18
US20240344888A1 (en) 2024-10-17

Similar Documents

Publication Publication Date Title
US11087888B2 (en) Monitoring direct and indirect transmission of infections in a healthcare facility using a real-time locating system
US11184968B2 (en) Occupancy sensor calibration and occupancy estimation
CN111247593B (zh) 使用实时定位系统和下一代测序在健康护理机构中预测、预防和控制感染传播
JP6033695B2 (ja) エレベータ監視装置及びエレベータ監視方法
Azimi et al. Fit-for-purpose: Measuring occupancy to support commercial building operations: A review
US9685065B2 (en) Dual sensor system and related data manipulation methods and uses
US10634380B2 (en) System for monitoring occupancy and activity in a space
EP2971987A1 (en) Energy saving heating, ventilation, air conditioning control system
Gunay et al. Detecting occupants’ presence in office spaces: a case study
US20210208002A1 (en) Scanning Motion Average Radiant Temperature Sensor Applications
US20220254509A1 (en) Systems and methods for detecting and tracking infectious diseases using sensor data
US10205891B2 (en) Method and system for detecting occupancy in a space
US11776342B1 (en) Occupancy analysis system using depth sensing to determine the movement of people or objects
US12050303B1 (en) Occupancy sensing systems and methods
WO2022172643A1 (ja) 推定システム、人監視システム、推定方法及びプログラム
KR20170093446A (ko) 자동 환기 공조 장치 및 그 제어 방법
JP6139806B1 (ja) 人数推定装置、人数推定プログラム及び通過数推定装置
JP7228767B2 (ja) センサシステム、空気調和システム、物体検知方法及びプログラム
US11281899B2 (en) Method and system for determining occupancy from images
US20230160598A1 (en) Distributed people counting system and methods
Erickson et al. ThermoSense: thermal array sensor networks in building management
Fan et al. WinSet: the first multi-modal window dataset for heterogeneous window states
US11914025B1 (en) Trajectory determination system using positional sensing to determine the movement of people or objects
WO2020066748A1 (ja) 通過管理システム、通過管理方法、及びプログラム
US20240005767A1 (en) System and method for monitoring human activity

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21925885

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022581240

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21925885

Country of ref document: EP

Kind code of ref document: A1