WO2021176553A1 - 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム - Google Patents

人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム Download PDF

Info

Publication number
WO2021176553A1
WO2021176553A1 PCT/JP2020/008882 JP2020008882W WO2021176553A1 WO 2021176553 A1 WO2021176553 A1 WO 2021176553A1 JP 2020008882 W JP2020008882 W JP 2020008882W WO 2021176553 A1 WO2021176553 A1 WO 2021176553A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
unit
person
target space
area
Prior art date
Application number
PCT/JP2020/008882
Other languages
English (en)
French (fr)
Inventor
丈瑠 黒岩
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2022504808A priority Critical patent/JP7199593B2/ja
Priority to PCT/JP2020/008882 priority patent/WO2021176553A1/ja
Publication of WO2021176553A1 publication Critical patent/WO2021176553A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers

Definitions

  • This disclosure relates to a person detection device, a person detection system, an equipment system, a person detection method and a program.
  • Patent Document 1 discloses a method of determining the correctness of a detection result of a person existing in a target space. Specifically, in the person detection method disclosed in Patent Document 1, a person existing in the target space is detected from a thermal image acquired by an infrared sensor. Then, when the detected person appears or disappears near the doorway, it is determined that the detection result is correct.
  • Detection of a person in the target space may be erroneous due to the presence of something other than a person in the target space. Therefore, it is required to reduce detection errors caused by objects other than humans existing in the target space and improve the detection accuracy of humans in the target space.
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide a person detection device or the like capable of improving the detection accuracy of a person in the target space.
  • the person detection device is It is a person detection device that detects people existing in the target space.
  • An estimation means for estimating at least one region having characteristics similar to the characteristics of a predetermined image in the first captured image in which the target space is captured as an inaccessible region that cannot be entered by the person.
  • An identification means for identifying a candidate area that is a candidate for the area in which the person exists from the second photographed image in which the target space is photographed. When the positional relationship between the inaccessible region estimated by the estimation means and the candidate region identified by the identification means satisfies a predetermined condition, the person is located at a position corresponding to the candidate region in the target space. It is provided with a determination means for determining that is present.
  • At least one region having characteristics similar to the characteristics of a predetermined image in the first captured image in which the target space is captured is estimated as an inaccessible region that cannot be entered by a person, and the target space is estimated to be an inaccessible region.
  • the target space is used. It is determined that a person exists at a position corresponding to the candidate area. Therefore, according to the present disclosure, it is possible to improve the detection accuracy of a person in the target space.
  • Block diagram showing the overall configuration of the equipment system according to the embodiment The figure which shows the example of the indoor space in embodiment
  • the figure which shows the example of the floor layout of the interior space in embodiment Block diagram showing the hardware configuration of the photographing apparatus according to the embodiment
  • Block diagram showing the hardware configuration of the person detection device according to the embodiment Block diagram showing the functional configuration of the equipment system according to the embodiment
  • the figure which shows the example of the estimation data of the inaccessible area in embodiment The figure which shows the example of the 2nd photographed image photographed at the time of operation in an embodiment.
  • the figure which shows the display example of the person detection result in embodiment A sequence diagram showing a flow of estimation processing of an inaccessible area executed at the time of initial setting in the equipment system according to the embodiment.
  • FIG. 1 shows the overall configuration of the equipment system 1 according to the embodiment.
  • the equipment system 1 is a system including equipment installed in the target space.
  • the equipment is an air conditioner 40 that air-conditions the target space
  • the equipment system 1 is an air-conditioning system including the air conditioner 40.
  • the air conditioning is to adjust the temperature, humidity, cleanliness, air flow, etc. of the air in the space to be air-conditioned, and specifically, heating, cooling, dehumidifying, humidifying, air cleaning, and the like.
  • the equipment system 1 includes a photographing device 20, a human detection device 30, and a plurality of air conditioners 40.
  • the photographing device 20 and the person detection device 30 are collectively referred to as a person detection system 10.
  • Each of the plurality of air conditioners 40 includes an outdoor unit 41 installed outside the indoor space 2 and an indoor unit 42 installed inside the indoor space 2.
  • FIG. 2 shows an indoor space 2 which is an example of a target space air-conditioned by a plurality of air conditioners 40.
  • the indoor space 2 is, for example, one room in an office building, a factory, a house, or the like.
  • the photographing device 20 and the plurality of indoor units 42 are installed on the ceiling of the indoor space 2 as an example.
  • four indoor units 42 are dispersedly installed at substantially equal intervals so that each area of the indoor space 2 can be air-conditioned as uniformly as possible.
  • the photographing device 20 is installed substantially in the center of the four indoor units 42, and photographs an area air-conditioned by the four indoor units 42.
  • FIG. 3 shows the floor layout of the indoor space 2, that is, a view of the indoor space 2 from above.
  • the positions where the photographing device 20 and the plurality of indoor units 42 are installed are indicated by broken lines.
  • the areas N1 to N4 shown by diagonal lines in FIG. 3 are areas in the indoor space 2 where desks, shelves, etc. are arranged, and are usually areas where it is assumed that no one will enter.
  • the areas other than the areas N1 to N4 in the indoor space 2 are areas where a person is expected to be located.
  • the photographing device 20 includes an infrared camera, and acquires a thermal image showing the heat distribution in the indoor space 2 by photographing the indoor space 2 with the infrared camera.
  • one photographing device 20 is installed for each predetermined number of indoor units 42.
  • one photographing device 20 is installed at a position substantially at the center of the four indoor units 42 for the four indoor units 42, and the area air-conditioned by the four surrounding indoor units 42 is defined. Take a picture.
  • the photographing device 20 includes a control unit 21, a storage unit 22, a photographing unit 23, and a communication unit 25. Each of these parts is connected via a communication bus.
  • the control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the CPU is also called a central processing unit, a central processing unit, a processor, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like, and functions as a central processing unit that executes processing and calculations related to the control of the photographing device 20.
  • the CPU reads out the programs and data stored in the ROM, and uses the RAM as a work area to control the photographing device 20 in an integrated manner.
  • the storage unit 22 includes a non-volatile semiconductor memory such as a flash memory, EPROM (ErasableProgrammableROM), and EEPROM (ElectricallyErasableProgrammableROM), and plays a role as a so-called secondary storage device or auxiliary storage device.
  • the storage unit 22 stores programs and data used by the control unit 21 to perform various processes.
  • the storage unit 22 stores data generated or acquired by the control unit 21 performing various processes.
  • the photographing unit 23 is provided with an infrared camera that photographs the indoor space 2 with infrared rays, and photographs the indoor space 2 with infrared rays.
  • An infrared camera is an A / D (Analog / Digital) that converts an electric signal representing an image obtained by a lens that collects infrared rays, an image sensor arranged at the position where the lens collects the infrared light, and an image obtained by the image sensor into digital data. Includes a converter and.
  • the photographing unit 23 acquires a thermal image showing the heat distribution of the indoor space 2 by photographing the indoor space 2 with infrared rays.
  • the photographing unit 23 functions as a photographing means.
  • the communication unit 25 includes a communication interface for communicating with the human detection device 30.
  • the communication unit 25 is connected to the person detection device 30 so as to be able to communicate by wire or wirelessly, and communicates according to a well-known communication standard such as a wired LAN (Local Area Network) or a wireless LAN.
  • a wired LAN Local Area Network
  • a wireless LAN Wireless Local Area Network
  • the person detection device 30 is a device that detects a person existing in the indoor space 2.
  • the person detection device 30 is a part of the function of a remote controller that is operated by a resident in the indoor space 2 and transmits various commands to each air conditioner 40, and is indoors by a plurality of air conditioners 40. It has a function to control the air conditioning of the space 2.
  • the human detection device 30 includes a control unit 31, a storage unit 32, an input reception unit 33, a display unit 34, and a communication unit 35. Each of these parts is connected via a communication bus.
  • the control unit 31 includes a CPU, ROM, and RAM.
  • the CPU is also called a central processing unit, a central processing unit, a processor, a microprocessor, a microcomputer, a DSP, or the like, and functions as a central processing unit that executes processing and calculations related to the control of the human detection device 30.
  • the CPU reads out the programs and data stored in the ROM, uses the RAM as a work area, and controls the human detection device 30 in an integrated manner.
  • control unit 31 includes a processor for image processing such as a DSP and a GPU (Graphics Processing Unit), and a buffer memory for temporarily storing the processed image.
  • the control unit 31 processes the captured image captured by the photographing device 20 by using a well-known image processing method.
  • the storage unit 32 includes a non-volatile semiconductor memory such as a flash memory, EPROM, or EEPROM, and plays a role as a so-called secondary storage device or auxiliary storage device.
  • the storage unit 32 stores programs and data used by the control unit 31 to perform various processes. Further, the storage unit 32 stores data generated or acquired by the control unit 31 performing various processes.
  • the input receiving unit 33 is provided with input devices such as a touch panel, a switch, and a pressing button, and receives input from an operator. For example, the input receiving unit 33 receives an operation on the air conditioner 40.
  • the display unit 34 includes a display device such as an LCD (Liquid Crystal Display) panel and an organic EL (Electro-Luminescence).
  • the display unit 34 is driven by a display drive circuit (not shown) and displays various images under the control of the control unit 31.
  • the communication unit 35 includes a communication interface for communicating with an external device including a photographing device 20 and a plurality of air conditioners 40.
  • the communication unit 35 is connected to the photographing device 20 and the plurality of air conditioners 40 so as to be able to communicate by wire or wirelessly, and communicates according to a well-known communication standard such as a wired LAN or a wireless LAN.
  • each of the plurality of air conditioners 40 air-conditions the indoor space 2, which is the space to be air-conditioned.
  • each air conditioner 40 is a heat pump type air conditioner using CO 2 (carbon dioxide), HFC (hydrofluorocarbon), or the like as a refrigerant.
  • the outdoor unit 41 and the indoor unit 42 are connected via a refrigerant circuit through which a refrigerant flows.
  • the outdoor unit 41 is a compressor that compresses the refrigerant and circulates the refrigeration circuit, a four-way valve that switches the direction of the refrigerant flowing through the refrigerant circuit, and an outdoor unit that exchanges heat between the refrigerant flowing through the refrigerant circuit and the outdoor air. It includes a heat exchanger, an expansion valve that decompresses and expands the refrigerant flowing through the refrigerant circuit, and an outdoor fan that sends outdoor air to the outdoor heat exchanger.
  • the indoor unit 42 includes an indoor heat exchanger that exchanges heat between the refrigerant flowing through the refrigerant circuit and the air in the indoor space 2, and an indoor fan that sends the air in the indoor space 2 to the indoor heat exchanger.
  • Both the outdoor unit 41 and the indoor unit 42 are equipped with a CPU, ROM, RAM, a communication interface, and a readable / writable non-volatile semiconductor memory, and perform an emphasis operation according to a control signal transmitted from the human detection device 30. , Controls the entire air conditioner 40. Specifically, the outdoor unit 41 controls the drive frequency of the compressor, the switching of the four-way valve, the rotation speed of the outdoor fan, and the opening degree of the expansion valve. Further, the indoor unit 42 controls the rotation speed of the indoor fan. As a result, the indoor space 2 is air-conditioned.
  • the photographing device 20 functionally includes a captured image acquisition unit 210 and a transmission unit 220.
  • Each of these functions is realized by software, firmware, or a combination of software and firmware.
  • the software and firmware are described as a program and stored in the ROM or the storage unit 22. Then, the CPU realizes each of these functions by executing the program stored in the ROM or the storage unit 22.
  • the photographed image acquisition unit 210 acquires the photographed image in which the indoor space 2 is photographed by causing the photographing unit 23 to photograph the indoor space 2.
  • the captured image acquisition unit 210 can capture the movement of a person in the indoor space 2 by repeatedly photographing the indoor space 2 at a fixed cycle.
  • the captured image acquisition unit 210 is realized by the control unit 21 collaborating with the photographing unit 23.
  • the captured image acquisition unit 210 functions as a captured image acquisition means.
  • the captured image acquisition unit 210 acquires the captured image of the indoor space 2 in two scenes, (A) the initial setting of the equipment system 1 and (B) the operation of the equipment system 1. ..
  • the initial setting of the equipment system 1 is a scene in which the equipment system 1 is set so that the indoor space 2 can be appropriately air-conditioned before the equipment system 1 is installed in the indoor space 2 and operates for the first time. be.
  • the operation of the equipment system 1 is a scene in which the equipment system 1 is normally operated and the indoor space 2 is air-conditioned after the initial settings are made.
  • the initial setting of the equipment system 1 will be described.
  • the equipment system 1 estimates an inaccessible area, which is an area in the indoor space 2 that is not accessible to humans. Therefore, the captured image acquisition unit 210 acquires the first captured image by causing the photographing unit 23 to photograph the indoor space 2 in a state where no person exists in the indoor space 2.
  • FIG. 7 shows an example of the first captured image 51 acquired by the captured image acquisition unit 210 at the time of initial setting. Since the first captured image 51 is an image captured by infrared rays by the photographing device 20 installed on the ceiling of the indoor space 2, it represents a state in which the heat distribution of the indoor space 2 is viewed from above. Specifically, in the first photographed image 51, the areas N1 to N4 in which the desk, the shelf, etc. are arranged are photographed in an identifiable state.
  • the captured image acquisition unit 210 is air-conditioned by the four indoor units 42 installed around the photographing device 20 by causing the photographing unit 23 to take a picture in a state where no person exists in the indoor space 2.
  • the first photographed image 51 in which the area is photographed is acquired.
  • the transmission unit 220 transmits the first captured image 51 acquired by the captured image acquisition unit 210 to the human detection device 30. Specifically, the transmission unit 220 communicates with the person detection device 30 via the communication unit 25, and transmits the transmission information indicating the first photographed image 51 acquired by the photographed image acquisition unit 210 to the person detection device 30. Send.
  • the transmission unit 220 is realized by the control unit 21 cooperating with the communication unit 25.
  • the transmission unit 220 functions as a transmission means.
  • the human detection device 30 includes a reception unit 310, an estimation unit 320, a sample designation unit 330, a coordinate conversion unit 340, an identification unit 350, a determination unit 360, an equipment control unit 370, and a display output.
  • a unit 380 and a unit are provided.
  • Each of these functions is realized by software, firmware, or a combination of software and firmware.
  • the software and firmware are described as a program and stored in the ROM or the storage unit 32. Then, the CPU realizes each of these functions by executing the program stored in the ROM or the storage unit 32.
  • the receiving unit 310 receives the first captured image 51 transmitted from the photographing device 20 by communicating with the photographing device 20 via the communication unit 35.
  • the receiving unit 310 is realized by the control unit 31 cooperating with the communication unit 35.
  • the receiving unit 310 functions as a receiving means.
  • the estimation unit 320 estimates at least one inaccessible region from the first captured image 51 received by the reception unit 310.
  • the inaccessible area is an area in the indoor space 2 that is not accessible to people. More specifically, the inaccessible area is an area where a person cannot normally be located, such as an area such as a wall or a pillar and an area where equipment such as a desk or a shelf is arranged. In the floor layout shown in FIG. 3, areas N1 to N4 where desks, shelves, etc. are arranged correspond to inaccessible areas.
  • the estimation unit 320 estimates at least one region of the first captured image 51 in which the indoor space 2 is captured, which has characteristics similar to the characteristics of the image specified in advance, as an inaccessible region.
  • the image designated in advance is an image that serves as a sample of the inaccessible region, and is an image having the characteristics of the photographed image when the wall, the pillar, the desk, the shelf, or the like is photographed by the photographing apparatus 20.
  • an image of a sample region designated from among the first captured images 51 by the sample designation unit 330 is used as the image designated in advance.
  • the sample designation unit 330 designates a sample area as a sample of the inaccessible area from the first captured image 51. Specifically, the sample designation unit 330 displays the first captured image 51 captured by the photographing device 20 on the display unit 34. The operator operates the input receiving unit 33 to be an inaccessible area such as an area in which equipment such as a desk and a shelf is arranged in the first captured image 51 displayed on the display unit 34. By inputting the coordinates of a region that is known in advance, that region is selected as the sample region.
  • the operator when the first captured image 51 shown in FIG. 7 is displayed on the display unit 34, the operator is arranged with a desk, a shelf, or the like in the areas N1 to N4 included in the first captured image 51.
  • One area that is known to be an inaccessible area is selected as an inaccessible area.
  • the sample designation unit 330 designates one region selected by the operator from the regions N1 to N4 as the sample region.
  • the sample designation unit 330 designates the sample area according to the input received from the operator via the input reception unit 33.
  • the sample designation unit 330 is realized by the control unit 31 cooperating with the input reception unit 33.
  • the sample designation unit 330 functions as a sample designation means.
  • the estimation unit 320 estimates the sample region designated by the sample designation unit 330 and at least one region having characteristics similar to the characteristics of the image in the sample region in the first captured image 51 as an inaccessible region. .. Specifically, the estimation unit 320 derives the feature amount of the sample region designated by the sample designation unit 330.
  • the feature amount of the sample region is an index indicating the feature of the sample region, and is specifically determined by at least one parameter of the color, pattern, shape, size, etc. of the sample region. For example, when the region N1 is designated as the sample region by the sample designation unit 330, the estimation unit 320 obtains the color, pattern, shape, size, etc. of the region N1 by using a well-known image processing algorithm. , The feature amount of the region N1 is derived.
  • the estimation unit 320 When the feature amount of the sample region is derived, the estimation unit 320 further derives the feature amount of the region other than the sample region included in the first captured image 51. For example, when the sample region is the region N1, the estimation unit 320 derives the feature quantities of the regions N2 to N4 and the background region which is the other region in the same procedure as the region N1. Then, the estimation unit 320 calculates the degree of similarity between the feature amount of the sample region and the feature amount of the region other than the sample region.
  • the degree of similarity of the features of the two regions is the degree of similarity of the features of the two regions, and the closer the parameters such as the color, pattern, shape, and size of the two regions are, the larger the value is shown.
  • the estimation unit 320 calculates the difference in parameters such as color, pattern, shape, and size between the sample area and the area other than the sample area, and adds the calculated differences at a predetermined ratio. , Calculate the similarity. Then, when the similarity with the feature amount of the sample region is larger than a predetermined threshold value, the estimation unit 320 estimates that region as an inaccessible region.
  • the estimation unit 320 estimates the region N1 designated as the sample region and the regions N2 to N4 showing characteristics similar to the characteristics of the region N1 as the inaccessible region.
  • the estimation unit 320 is realized by the control unit 31 cooperating with the storage unit 32.
  • the estimation unit 320 functions as an estimation means.
  • the coordinate conversion unit 340 converts the coordinates of the inaccessible area estimated by the estimation unit 320 into the coordinates in the indoor space 2 according to a predetermined coordinate conversion formula.
  • the coordinates of the inaccessible region estimated by the estimation unit 320 are the coordinates in the first captured image 51 shown in FIG. 7, and are represented by the two-dimensional coordinate system (U, V).
  • the coordinates in the indoor space 2 are the coordinates in the floor layout shown in FIG. 3, and are represented by the two-dimensional coordinate system (X, Y).
  • the coordinate conversion formula that determines the relationship between the coordinate system (U, V) and the coordinate system (X, Y) is preset and stored in the storage unit 32. Specifically, the coordinate conversion formula can be expressed by using two functions F1 (U, V) and F2 (U, V) as in the following formulas (1) and (2).
  • X F1 (U, V) ...
  • Y F2 (U, V) ...
  • the relationship between the coordinate system (U, V) in the first captured image 51 and the coordinate system (X, Y) in the indoor space 2 is the position and height at which the photographing unit 23 is installed in the indoor space 2. It changes according to the orientation and the width of the angle of view of the photographing unit 23. For example, the higher the photographing unit 23 is installed from the floor surface and the wider the angle of view of the photographing unit 23, the wider the photographing range by the photographing unit 23. Therefore, the two functions F1 (U, V) and F2 (U, V) in the above equations (1) and (2) are the positions, heights, and orientations in which the photographing unit 23 is installed in the indoor space 2. , It is determined according to the width of the angle of view of the photographing unit 23.
  • the coordinate conversion unit 340 receives these parameters from the operator via the input reception unit 33, and sets the coordinate conversion formula in advance according to the received parameters.
  • the coordinate conversion unit 340 converts the coordinates of the inaccessible area estimated by the estimation unit 320 into the coordinates in the indoor space 2 according to the above equations (1) and (2). For example, when the regions N1 to N4 are estimated as the inaccessible region, the coordinate conversion unit 340 converts the coordinates of the four corners of the regions N1 to N4 into the coordinates in the indoor space 2. As a result, the coordinate conversion unit 340 obtains the position of the inaccessible region in the indoor space 2.
  • the coordinate conversion unit 340 is realized by the control unit 31 cooperating with the storage unit 32.
  • the coordinate conversion unit 340 functions as a coordinate conversion means.
  • the estimation unit 320 stores the data indicating the coordinates of the inaccessible area after conversion as the estimation data 60. It is stored in the part 32.
  • FIG. 8 shows an example of the estimated data 60.
  • the estimation data 60 sets the coordinates of the four corners represented by the coordinate system (X, Y) of the indoor space 2 for each of the areas N1 to N4 estimated as the inaccessible area by the estimation unit 320. It is stored.
  • the estimation unit 320 generates estimation data 60 indicating the coordinates of at least one region estimated as the inaccessible region, and stores the estimation data 60 in the storage unit 32.
  • the equipment system 1 air-conditions the indoor space 2 by a plurality of air conditioners 40 based on the estimation result of the inaccessible area estimated at the time of initial setting. Therefore, the captured image acquisition unit 210 acquires the second captured image by causing the photographing unit 23 to photograph the indoor space 2.
  • FIG. 9 shows an example of the second captured image 52 acquired by the captured image acquisition unit 210 during operation.
  • the second captured image 52 is an image in which the indoor space 2 is captured by the photographing unit 23 after the initial setting, that is, after the first captured image 51.
  • the second captured image 52 shown in FIG. 9 includes areas P1 to P3 in addition to areas N1 to N4 in which desks, shelves, and the like are arranged. These regions P1 to P3 are regions in which a person may exist and show different temperatures with respect to the surrounding regions.
  • the transmission unit 220 transmits the second photographed image 52 acquired by the photographed image acquisition unit 210 to the person detection device 30. Specifically, the transmission unit 220 communicates with the person detection device 30 via the communication unit 25, and transmits the transmission information indicating the second photographed image 52 acquired by the photographed image acquisition unit 210 to the person detection device 30. Send. In the human detection device 30, the receiving unit 310 receives the second captured image 52 transmitted from the photographing device 20.
  • the identification unit 350 identifies a candidate area that is a candidate for an area in which a person exists from the second captured image 52 received by the reception unit 310. Specifically, the identification unit 350 analyzes the second captured image 52 using a well-known image processing algorithm. Then, the identification unit 350 identifies at least one region having human characteristics from the second captured image 52 as a candidate region.
  • the characteristic of the person is the characteristic of the part where the person was photographed in the thermal image photographed by infrared rays.
  • a person's characteristics are determined by at least one parameter of temperature, shape, size, time-series change, and the like.
  • the identification unit 350 determines whether or not there is a region in the second captured image 52 in which at least one of the temperature, shape, size, and time-series change satisfies a predetermined standard.
  • the predetermined standard is a standard representing a typical human characteristic in a thermal image, is set in advance, and is stored in the storage unit 32.
  • the identification unit 350 analyzes the temperature, shape, size, and time-series change of each region included in the second captured image 52. Then, the identification unit 350 determines that the region of the second captured image 52 that shows the temperature, shape, size, and time-series change of a typical person is a region that satisfies a predetermined standard. Then, the area is identified as a candidate area. For example, as shown in FIG. 9, each of the regions P1 to P3 included in the second captured image 52 is identified as a candidate region.
  • the identification unit 350 is realized by the control unit 31 cooperating with the storage unit 32.
  • the identification unit 350 functions as an identification means.
  • the coordinate conversion unit 340 converts the coordinates of the candidate region identified by the identification unit 350 into the coordinates in the indoor space 2 according to a predetermined coordinate conversion formula.
  • the coordinates of the candidate region in the second captured image 52 are represented by the coordinate system (U, V) like the coordinates of the inaccessible region in the first captured image 51. Therefore, the coordinate conversion unit 340 sets the coordinates of the center position of the candidate area in the second captured image 52 according to the above equations (1) and (2) in the coordinate system (X,) in the same manner as the conversion of the inaccessible region. It is converted into the coordinates in the indoor space 2 represented by Y).
  • the determination unit 360 determines whether or not the positional relationship between the inaccessible area estimated by the estimation unit 320 and the candidate area identified by the identification unit 350 satisfies a predetermined condition. Then, when the positional relationship between the inaccessible area and the candidate area satisfies a predetermined condition, the determination unit 360 determines that a person exists at a position corresponding to the candidate area in the indoor space 2.
  • the position corresponding to the candidate area in the indoor space 2 is specifically a position determined by the coordinates converted from the coordinates of the candidate area in the second captured image 52 by the coordinate conversion unit 340.
  • the determination unit 360 refers to the estimation data 60 generated by the estimation unit 320 and stored in the storage unit 32. Then, the determination unit 360 calculates the distance between the coordinates converted from the coordinates of the candidate area by the coordinate conversion unit 340 and the coordinates of the inaccessible area stored in the estimation data 60. Based on the calculated distance, the determination unit 360 determines whether or not the candidate area after the coordinate conversion by the coordinate conversion unit 340 is located outside the inaccessible area after the coordinate conversion by the coordinate conversion unit 340.
  • the determination unit 360 determines that the positional relationship between the inaccessible area and the candidate area satisfies a predetermined condition, and corresponds to the candidate area in the indoor space 2. It is determined that a person exists at the position where the person is. For example, in the second captured image 52 shown in FIG. 9, the regions P1 and P2 identified as the candidate regions are located outside the regions N1 to N4 estimated as the inaccessible regions. In this case, the determination unit 360 determines that a person exists at a position corresponding to the areas P1 and P2 in the indoor space 2. When the candidate area is located in the range where a person can be located in the indoor space 2 in this way, the determination unit 360 determines that the person actually exists at the position corresponding to the candidate area.
  • the determination unit 360 determines whether or not the candidate area is located inside the inaccessible area longer than the predetermined threshold time. Further judgment. As a result of the determination, when the time that the candidate area is located inside the inaccessible area is longer than the threshold time, the determination unit 360 satisfies the condition that the positional relationship between the inaccessible area and the candidate area satisfies a predetermined condition. It is determined that there is no person at the position corresponding to the candidate area in the indoor space 2.
  • the region P3 identified as the candidate region is located inside the region N2 estimated as the inaccessible region.
  • the determination unit 360 does not actually have a person at the position corresponding to the region P3 in the indoor space 2, and the determination unit 360 tells the person. It is determined that there is something other than a person who shows similar characteristics.
  • examples of non-human objects showing characteristics similar to humans include devices such as printers and televisions that have heat, and notebook-type personal computers that are carried and moved by humans.
  • the determination unit 360 determines that the positional relationship between the inaccessible area and the candidate area does not satisfy a predetermined condition, and a person exists at a position corresponding to the candidate area in the indoor space 2. Judge that there is.
  • the determination unit 360 determines whether or not a person actually exists in the candidate region identified from the second captured image 52 based on the relative positional relationship of the candidate region with respect to the inaccessible region. do. Since the existence of a person is determined based on the positional relationship between the candidate area and the inaccessible area, it is possible to reduce the erroneous determination that an object showing characteristics similar to a person is a person.
  • the determination unit 360 is realized by the control unit 31 cooperating with the storage unit 32.
  • the determination unit 360 functions as a determination means.
  • the equipment control unit 370 controls a plurality of indoor units 42, which are equipment equipment installed in the indoor space 2, according to the determination result by the determination unit 360. First, when the equipment control unit 370 determines that a person exists at a position corresponding to the candidate area in the indoor space 2 by the determination unit 360, the equipment control unit 370 determines that a person exists in the indoor space 2 according to the position determined to exist. Controls a plurality of air conditioners 40.
  • the equipment control unit 370 selects the indoor unit 42 installed at the position closest to the area P1 among the plurality of indoor units 42 as the indoor unit 42 to be controlled. For example, when it is determined in the second captured image 52 that a person exists in the areas P1 and P2, the indoor unit 42 closest to the area P1 and the area P2 among the four indoor units 42 installed in the indoor space 2 The indoor unit 42 closest to the above is selected as the indoor unit 42 to be controlled.
  • the equipment control unit 370 adjusts the wind direction of the indoor unit 42 to be controlled. For example, when it is determined in the second captured image 52 that a person exists in the areas P1 and P2, the equipment control unit 370 sets the wind direction of the indoor unit 42 to be controlled to a direction other than the position corresponding to the areas P1 and P2. adjust. As a result, it is possible to prevent the person from being directly exposed to the conditioned air, which reduces the feeling of draft.
  • the equipment control unit 370 controls the indoor unit 42 to be controlled according to the number of people determined to exist in the indoor space 2. Specifically, the equipment control unit 370 sets the intensity of the air conditioning stronger because the larger the number of people determined to exist in the indoor space 2, the larger the heat load is required for the air conditioning.
  • setting the intensity of the air conditioner to be stronger means, for example, lowering the target temperature for cooling, increasing the air volume, and the like.
  • the equipment control unit 370 has a plurality of people when it is determined by the determination unit 360 that no person exists in the indoor space 2, in other words, when the number of people determined to exist in the indoor space 2 is 0.
  • the air conditioning is stopped in all of the indoor units 42. As a result, unnecessary air conditioning is suppressed and energy saving is improved.
  • the equipment control unit 370 causes the indoor unit 42 to be controlled to air-condition the indoor space 2 according to the determined control content. Specifically, the equipment control unit 370 transmits a control signal indicating the determined control content to the indoor unit 42 to be controlled via the communication unit 35. When the indoor unit 42 to be controlled receives the control signal, it determines the operation mode such as cooling and heating and the air conditioning parameters such as the target temperature, the wind direction, and the air volume according to the received control signal, and air-conditions the indoor space 2.
  • the equipment control unit 370 is realized by the control unit 31 cooperating with the communication unit 35.
  • the equipment control unit 370 functions as an equipment control means.
  • the display output unit 380 displays the determination result by the determination unit 360 on the display unit 34. Specifically, when the determination unit 360 determines that a person exists at a position corresponding to the candidate area in the indoor space 2, the display output unit 380 displays a display indicating a position where it is determined that a person exists in the indoor space 2. Display the image.
  • the display output unit 380 displays the display image shown in FIG. 10 on the display unit 34. Specifically, the display output unit 380 displays the floor layout of the indoor space 2 shown in FIG. 3 on the display unit 34. Further, the display output unit 380 displays a mark indicating the presence of a person at a position corresponding to the areas P1 and P2 determined to have a person in the floor layout of the indoor space 2. On the other hand, the display output unit 380 does not display anything at the position corresponding to the area P3 where it is determined that no person exists.
  • the display output unit 380 displays the indoor unit 42 to be controlled by the equipment control unit 370 among the plurality of indoor units 42 in a display mode different from that of the other indoor units 42. For example, in the display image shown in FIG. 10, when the two indoor units 42 on the right side close to the areas P1 and P2 where it is determined that a person exists are the indoor units 42 to be controlled, the display output unit 380 has two indoor units on the right side. The area where the machine 42 is installed is displayed with diagonal lines.
  • the display output unit 380 further displays the control content for the indoor unit 42 to be controlled.
  • the display output unit 380 displays information such as characters, symbols, and arrows indicating the operation mode, set temperature, air volume, wind direction, etc. determined as the control content of the indoor unit 42 to be controlled.
  • the display output unit 380 displays the position information of the person on the floor layout of the indoor space 2, the position information of the person in the indoor space 2 can be notified to the occupants in an easy-to-understand manner. Further, since the display output unit 380 further displays the indoor unit 42 to be controlled and the control content thereof, it is possible to notify the occupants of the room in an easy-to-understand manner of the state of air conditioning in the indoor space 2.
  • the display output unit 380 is realized by the control unit 31 cooperating with the display unit 34.
  • the display output unit 380 functions as a display output means.
  • the process shown in FIG. 11 is started by an instruction from the operator in a state where no person exists in the indoor space 2.
  • the control unit 21 functions as the photographed image acquisition unit 210 and photographs the indoor space 2 (step S11). Specifically, the control unit 21 causes the photographing unit 23 to take an image of the indoor space 2, so that, for example, as shown in FIG. 7, the control unit 21 represents the heat distribution when there is no person in the indoor space 2.
  • the captured image 51 is acquired.
  • the control unit 21 functions as a transmitting unit 220 and transmits the acquired first captured image 51 to the human detection device 30 (step S12).
  • the control unit 31 functions as the receiving unit 310 in the human detection device 30, and receives the transmitted first captured image 51.
  • the control unit 31 When the human detection device 30 receives the first captured image 51, the control unit 31 functions as the sample designation unit 330 and designates a sample area from the received first captured image 51 (step S13). .. Specifically, the control unit 31 designates a region of the first captured image 51 that is known to be an inaccessible region in advance as a sample region according to the input received from the operator.
  • control unit 31 functions as the estimation unit 320 and derives the feature amount of the sample area in the first captured image 51 (step S14). Specifically, the control unit 31 acquires parameters such as the color, pattern, shape, and size of the sample area, and derives the feature amount of the sample area based on the acquired parameters.
  • the control unit 31 estimates the inaccessible region included in the first captured image 51 (step S15). Specifically, the control unit 31 estimates that at least one region in which the similarity of the feature amount is larger than a predetermined threshold value with respect to the sample region derived in step S14 is an inaccessible region.
  • control unit 31 When the inaccessible area is estimated, the control unit 31 functions as a coordinate conversion unit 340, and the coordinates of the estimated inaccessible area are set to the coordinates in the first captured image 51 according to the above equations (1) and (2). Is converted to the coordinates in the indoor space 2 (step S16).
  • the control unit 31 saves the estimated data 60 indicating the coordinates of the inaccessible area after the conversion (step S17). For example, as shown in FIG. 8, the control unit 31 generates estimated data 60 indicating the coordinates in the indoor space 2 of the areas N1 to N4 estimated as the inaccessible area, and stores the estimated data 60 in the storage unit 32. As a result, the estimation process of the inaccessible area shown in FIG. 11 is completed.
  • the process shown in FIG. 12 is repeatedly executed at an appropriate timing in a state where the plurality of air conditioners 40 can normally perform air conditioning after the process of estimating the inaccessible area in the initial setting is completed.
  • the control unit 21 functions as the photographed image acquisition unit 210 and photographs the indoor space 2 (step S21). Specifically, the control unit 21 causes the photographing unit 23 to photograph the indoor space 2, and thereby represents a second heat distribution when a person is present in the indoor space 2, for example, as shown in FIG.
  • the captured image 52 is acquired.
  • the control unit 21 functions as a transmitting unit 220 and transmits the second captured image 52 to the human detection device 30 (step S22).
  • the control unit 31 functions as the receiving unit 310 in the human detection device 30, and receives the transmitted second captured image 52.
  • control unit 31 when the control unit 31 receives the second captured image 52, it functions as the identification unit 350 and identifies the candidate region from the second captured image 52 (step S23). Specifically, the control unit 31 searches the second captured image 52 for a region in which parameters such as temperature, shape, size, and time-series change satisfy the criteria corresponding to human characteristics. Then, when at least one region satisfying the criteria corresponding to the characteristics of the person exists, the control unit 31 identifies the region as a candidate region.
  • control unit 31 functions as a coordinate conversion unit 340, and the coordinates of the identified candidate area are set in the room from the coordinates in the second captured image 52 according to the above equations (1) and (2). It is converted into the coordinates in the space 2 (step S24).
  • control unit 31 When the coordinates of the candidate area are converted, the control unit 31 functions as the determination unit 360 and determines the presence of a person in the indoor space 2 (step S25). The details of the determination process in step S25 will be described with reference to the flowchart shown in FIG.
  • the control unit 31 functions as the determination unit 360, and whether or not the candidate region identified in step S23 is located outside the inaccessible region estimated in step S15. Is determined (step S251). Specifically, the control unit 31 refers to the estimated data 60 saved in step S17, and the coordinates of the inaccessible region saved in the estimated data 60 and the candidate region after being converted in step S24. Compare the coordinates. Then, the control unit 31 determines whether or not the candidate area is located outside the inaccessible area.
  • control unit 31 determines that a person exists at a position corresponding to the candidate area in the indoor space 2 (step S252).
  • control unit 31 determines whether the candidate area is located inside the inaccessible area longer than the threshold time. Is further determined (step S253).
  • step S253 When the candidate area is located inside the inaccessible area longer than the threshold time (step S253; YES), the control unit 31 determines that there is no person at the position corresponding to the candidate area in the indoor space 2. (Step S254). On the other hand, when the candidate region is not located inside the inaccessible region longer than the threshold time (step S253; NO), the control unit 31 shifts the process to step S252 and shifts the process to the candidate region in the indoor space 2. It is determined that a person exists at the corresponding position. As a result, the process of determining the presence of a person in the indoor space 2 shown in FIG. 13 is completed.
  • control unit 31 executes the determination process of step S25 for each of the identified candidate areas, and whether or not there is a person in each candidate area. To judge.
  • the control unit 31 functions as the equipment control unit 370 and controls the air conditioner 40 according to the determination result (step S26). Specifically, the control unit 31 determines the indoor unit 42 to be controlled and the control content according to the position of the person determined to exist in the indoor space 2 and the number of people. Then, the control unit 31 causes the indoor unit 42 to be controlled to be air-conditioned with the determined control content.
  • the control unit 31 When the air conditioner 40 is controlled, the control unit 31 functions as a display output unit 380 and displays the position information of a person in the indoor space 2 on the display unit 34 (step S27). As shown in FIG. 10, for example, the control unit 31 displays a mark indicating the presence of a person at a position determined to be present in the floor layout of the indoor space 2. At the same time, the control unit 31 displays the indoor unit 42 to be controlled and the control content thereof determined in step S26 on the display unit 34. As a result, the person detection and equipment control processing shown in FIG. 12 is completed.
  • the person detection device 30 and the person detection system 10 estimate at least one region in the first captured image 51 in which the indoor space 2 is captured as an inaccessible region, and indoors.
  • a candidate area that is a candidate for an area in which a person exists is identified from the second captured image 52 in which the space 2 is captured, and the candidate area in the indoor space 2 is based on the positional relationship between the inaccessible area and the candidate area. It is determined whether or not a person exists at the position corresponding to.
  • the person detection device 30 and the person detection system 10 according to the present embodiment determine whether or not a person actually exists in the candidate area based on the positional relationship between the inaccessible area and the candidate area.
  • the person detection device 30 and the person detection system 10 designate a sample area as a sample of the inaccessible area from the first captured image 51, and at least one similar to the image of the sample area. Estimate one area as an inaccessible area. As a result, if the worker specifies only one inaccessible area, the remaining inaccessible area is automatically estimated. Therefore, especially when there are a large number of inaccessible areas in the indoor space 2, the operator Can reduce the trouble of designating a large number of inaccessible areas.
  • the estimation unit 320 estimates at least one region similar to the image of the designated sample region from the first captured image 51 as an inaccessible region.
  • the image serving as a sample of the inaccessible region is not limited to being designated from the first captured image 51.
  • an image as a sample of the inaccessible region may be prepared separately from the image captured by the photographing device 20 and stored in the storage unit 32 in advance.
  • the sample area may be specified from the floor layout of the indoor space 2.
  • the sample designation unit 330 displays, for example, the floor layout shown in FIG. 3 on the display unit 34.
  • the operator operates the input receiving unit 33 to specify, as a sample area, an area that is known to be an inaccessible area from the floor layout displayed on the display unit 34.
  • the sample designation unit 330 converts the coordinates of the sample area designated by the operator into the coordinates in the first captured image 51 according to the inverse transformation formula of the coordinate transformation formulas represented by the above equations (1) and (2). Convert.
  • the sample designation unit 330 designates the region indicated by the converted coordinates in the first captured image 51 as the sample region.
  • the determination unit 360 compares the inaccessible area and the candidate area after being converted into the coordinates in the indoor space 2 by the coordinate conversion unit 340, so that whether a person exists in the indoor space 2 or not. It was judged whether or not. However, the determination unit 360 directly compares the coordinates of the inaccessible region in the first captured image 51 with the coordinates of the candidate region in the second captured image 52 to determine whether or not there is a person in the indoor space 2. May be determined.
  • the determination unit 360 when the candidate area is located inside the inaccessible area longer than the predetermined threshold time, the determination unit 360 has a person at a position corresponding to the candidate area in the indoor space 2. It was determined that it does not exist. However, in this case, the determination unit 360 may correct the coordinate conversion by the coordinate conversion unit 340 or the estimation result of the inaccessible region by the estimation unit 320. For example, when the candidate area is located inside the inaccessible area longer than the threshold time, the determination unit 360 determines that the coordinates of the candidate area after the coordinate conversion by the coordinate conversion unit 340 are incorrect, and coordinates. The conversion formula may be corrected.
  • the determination unit 360 determines that the inaccessible area is actually an area in which a person can enter, and estimates data. It may be deleted from the list of inaccessible areas stored in 60.
  • the photographing device 20 acquires a thermal image showing the heat distribution of the indoor space 2 by photographing the indoor space 2 with infrared rays.
  • the photographing device 20 may acquire a visible image not only by infrared rays but also by photographing the indoor space 2 with visible light, for example.
  • the estimation unit 320 may estimate the inaccessible region from the visible image, or the identification unit 350 may identify the candidate region from the visible image. By using a visible image, it becomes possible to more accurately estimate or identify an inaccessible area or a candidate area.
  • the visible light camera may be used to acquire the first captured image 51 at the time of initial setting
  • the infrared camera may be used to acquire the second captured image 52 at the time of operation, or vice versa. ..
  • the visible light camera and the infrared camera together function as a shooting means.
  • the coordinate conversion unit 340 sets the coordinates of the inaccessible region in the first captured image 51 and the candidate region in the second captured image 52.
  • the coordinates are converted into the coordinates in the indoor space 2 according to different coordinate conversion formulas.
  • the determination unit 360 Can determine whether or not a person is present in the indoor space 2 by the same process as that of the above embodiment.
  • not only one photographing device 20 but also a plurality of photographing devices 20 may be installed in the indoor space 2.
  • a plurality of photographing devices 20 may be installed at intervals, and a large area in the indoor space 2 may be complementarily photographed by the plurality of photographing devices 20.
  • the first photographed image 51 and the second photographed image 52 may be photographed by another photographing device 20.
  • the photographing device 20 includes a rotation driving unit that rotates the photographing unit 23 to change the direction of the optical axis thereof, and the indoor space 2 may be photographed while rotating the photographing unit 23.
  • the first and second captured images 51 and 52 are not limited to the images captured by the photographing unit 23 having a fixed optical axis, and the photographing unit 23 takes a picture while changing the optical axis. It may be a so-called panoramic image.
  • a plurality of indoor units 42 are installed in the indoor space 2.
  • only one indoor unit 42 may be installed in the indoor space 2. That is, the number of indoor units 42 included in the equipment system 1 may be one.
  • the air conditioner 40 may be a so-called multi air conditioner in which a plurality of indoor units 42 are connected to one outdoor unit 41.
  • the equipment in the equipment system 1 is the air conditioner 40.
  • the equipment is not limited to the air conditioner 40, and may be, for example, a lighting device that illuminates the target space.
  • the control when the equipment is a lighting device can be described in the same manner as the control when the equipment is an air conditioner 40.
  • the equipment control unit 370 lights the lighting device closest to the position of the person among the plurality of lighting devices. Further, the equipment control unit 370 turns off the lighting device when the determination unit 360 determines that there is no person in the indoor space 2.
  • the photographing device 20 and the human detection device 30 are separate and independent devices.
  • the photographing device 20 may include a part or all of the functions of the human detection device 30.
  • the photographing device 20 may have the function of the estimation unit 320 or the identification unit 350.
  • the photographing device 20 estimates the inaccessible area in the first photographed image 51 and transmits the transmission information indicating the coordinates of the estimated inaccessible area to the person detection device 30. do.
  • the photographing device 20 has the function of the identification unit 350
  • the photographing device 20 identifies a candidate area from the second photographed image 52, and transmits information indicating the coordinates of the identified candidate area to the person detecting device 30. Send to.
  • either the photographing device 20 or the human detection device 30 may have each function in the human detection system 10.
  • control units 21 and 31 the CPU functions as each unit shown in FIG. 6 by executing the program stored in the ROM or the storage units 22 and 32.
  • the control units 21 and 31 may be dedicated hardware.
  • Dedicated hardware is, for example, a single circuit, a composite circuit, a programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the control units 21 and 31 are dedicated hardware, the functions of each unit may be realized by individual hardware, or the functions of each unit may be collectively realized by a single hardware.
  • control units 21 and 31 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • the computer By applying an operation program that defines the operation of the photographing device 20 or the person detecting device 30 according to the present disclosure to a computer such as an existing personal computer or an information terminal device, the computer can be used as the photographing device 20 or the person detecting device 30. It is also possible to make it work.
  • the distribution method of such a program is arbitrary, for example, a computer-readable recording such as a CD-ROM (CompactDiskROM), a DVD (DigitalVersatileDisk), an MO (MagnetoOpticalDisk), or a memory card. It may be stored in a medium and distributed, or may be distributed via a communication network such as the Internet.
  • a computer-readable recording such as a CD-ROM (CompactDiskROM), a DVD (DigitalVersatileDisk), an MO (MagnetoOpticalDisk), or a memory card. It may be stored in a medium and distributed, or may be distributed via a communication network such as the Internet.
  • This disclosure can be suitably adopted for a system for detecting a person or the like.
  • 1 equipment system 2 indoor space, 10 person detection system, 20 photography device, 21 control unit, 22 storage unit, 23 photography unit, 25 communication unit, 30 person detection device, 31 control unit, 32 storage unit, 33 input reception Unit, 34 display unit, 35 communication unit, 40 air conditioner, 41 outdoor unit, 42 indoor unit, 51, 52 captured image, 60 estimated data, 210 captured image acquisition unit, 220 transmitter unit, 310 receiver unit, 320 estimation unit, 330 sample designation unit, 340 coordinate conversion unit, 350 identification unit, 360 judgment unit, 370 equipment control unit, 380 display output unit, N1, N2, N3, N4, P1, P2, P3 area

Abstract

人検知装置(30)は、対象空間に存在する人を検知する。推定部(320)は、対象空間が撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、人に進入されない進入不可領域として推定する。識別部(350)は、対象空間が撮影された第2の撮影画像のうちから、人が存在する領域の候補である候補領域を識別する。判定部(360)は、推定部(320)により推定された進入不可領域と識別部(350)により識別された候補領域との位置関係が予め定められた条件を満たす場合、対象空間における候補領域に対応する位置に人が存在すると判定する。

Description

人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
 本開示は、人検知装置、人検知システム、設備機器システム、人検知方法及びプログラムに関する。
 対象空間に存在する人を検知する技術が知られている。例えば、特許文献1は、対象空間に存在する人の検知結果の正誤を判定する方法を開示している。具体的に説明すると、特許文献1に開示された人検知方法では、赤外線センサで取得した熱画像から対象空間に存在する人を検知する。そして、検知された人が出入り口付近で出現又は消滅した場合に、その検知結果が正しいと判定する。
特開2019-8692号公報
 対象空間における人の検知は、対象空間における人以外の物の存在により誤ることがある。そのため、対象空間に存在する人以外の物に起因する検知の誤りを減らし、対象空間における人の検知精度を向上させることが求められている。
 本開示は、上記のような問題点を解決するためになされたものであり、対象空間における人の検知精度を向上させることが可能な人検知装置等を提供することを目的とする。
 上記目的を達成するため、本開示に係る人検知装置は、
 対象空間に存在する人を検知する人検知装置であって、
 前記対象空間が撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、前記人に進入されない進入不可領域として推定する推定手段と、
 前記対象空間が撮影された第2の撮影画像のうちから、前記人が存在する領域の候補である候補領域を識別する識別手段と、
 前記推定手段により推定された前記進入不可領域と前記識別手段により識別された前記候補領域との位置関係が予め定められた条件を満たす場合、前記対象空間における前記候補領域に対応する位置に前記人が存在すると判定する判定手段と、を備える。
 本開示は、対象空間が撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、人に進入されない進入不可領域として推定し、対象空間が撮影された第2の撮影画像のうちから、人が存在する領域の候補である候補領域を識別し、進入不可領域と候補領域との位置関係が予め定められた条件を満たす場合、対象空間における候補領域に対応する位置に人が存在すると判定する。従って、本開示によれば、対象空間における人の検知精度を向上させることができる。
実施の形態に係る設備機器システムの全体構成を示すブロック図 実施の形態における室内空間の例を示す図 実施の形態における室内空間のフロアレイアウトの例を示す図 実施の形態に係る撮影装置のハードウェア構成を示すブロック図 実施の形態に係る人検知装置のハードウェア構成を示すブロック図 実施の形態に係る設備機器システムの機能的な構成を示すブロック図 実施の形態において初期設定時に撮影された第1の撮影画像の例を示す図 実施の形態における進入不可領域の推定データの例を示す図 実施の形態において運用時に撮影された第2の撮影画像の例を示す図 実施の形態における人検知結果の表示例を示す図 実施の形態に係る設備機器システムにおいて初期設定時に実行される進入不可領域の推定処理の流れを示すシーケンス図 実施の形態に係る設備機器システムにおいて運用時に実行される人検知及び設備制御処理の流れを示すシーケンス図 実施の形態に係る人検知装置により実行される人の存在の判定処理の流れを示すフローチャート
 以下、実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付す。
 図1に、実施の形態に係る設備機器システム1の全体構成を示す。設備機器システム1は、対象空間に設置されている設備機器を備えるシステムである。設備機器は、具体的には、対象空間を空調する空調機40であって、設備機器システム1は、空調機40を備える空調システムである。ここで、空調とは、空調対象の空間の空気の温度、湿度、清浄度又は気流等を調整することであって、具体的には、暖房、冷房、除湿、加湿、空気清浄等である。
 図1に示すように、設備機器システム1は、撮影装置20と、人検知装置30と、複数の空調機40と、を備える。撮影装置20と人検知装置30とを合わせて、人検知システム10と呼ぶ。複数の空調機40のそれぞれは、室内空間2の外部に設置される室外機41と、室内空間2の内部に設置される室内機42と、を備える。
 図2に、複数の空調機40により空調される対象空間の例である室内空間2を示す。室内空間2は、例えばオフィスビル、工場、住宅等における一室である。撮影装置20と複数の室内機42とは、一例として、室内空間2の天井に設置されている。図2の例では、4つの室内機42が、室内空間2の各エリアをできるだけ均一に空調することができるように、ほぼ等間隔を空けた位置に分散して設置されている。そして、撮影装置20は、4つの室内機42のほぼ中央に設置されており、4つの室内機42により空調されるエリアを撮影する。
 図3に、室内空間2のフロアレイアウト、すなわち室内空間2を上から見た図を示す。図3において、撮影装置20と複数の室内機42とが設置されている位置を破線で示している。また、図3において斜線で示す領域N1~N4は、室内空間2における机、棚等が配置されている領域であって、通常は人が進入しないことが想定される領域である。一方で、室内空間2における領域N1~N4以外の領域は、人が位置することが想定される領域である。
 図1に戻って、撮影装置20は、赤外線カメラを備えており、赤外線カメラにより室内空間2を撮影することで室内空間2における熱分布を表す熱画像を取得する。室内空間2には、予め定められた数の室内機42毎に1つの撮影装置20が設置されている。図2の例では、4つの室内機42に対して1つの撮影装置20が、その4つの室内機42のほぼ中央の位置に設置されており、周囲4つの室内機42により空調されるエリアを撮影する。
 図4に示すように、撮影装置20は、制御部21と、記憶部22と、撮影部23と、通信部25と、を備える。これら各部は通信バスを介して接続されている。
 制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、中央処理装置、中央演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等とも呼び、撮影装置20の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部21において、CPUは、ROMに格納されているプログラム及びデータを読み出し、RAMをワークエリアとして用いて、撮影装置20を統括制御する。
 記憶部22は、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)等の不揮発性の半導体メモリを備えており、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。記憶部22は、制御部21が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部22は、制御部21が各種処理を行うことにより生成又は取得するデータを記憶する。
 撮影部23は、赤外線で室内空間2を撮影する赤外線カメラを備えており、赤外線により室内空間2を撮影する。赤外線カメラは、赤外線を集光するレンズと、レンズによる集光位置に配置された撮像素子と、撮像素子により得られた画像を表す電気信号をデジタルデータに変換するA/D(Analog/Digital)変換器と、を含んでいる。撮影部23は、赤外線で室内空間2を撮影することにより、室内空間2の熱分布を表す熱画像を取得する。撮影部23は、撮影手段として機能する。
 通信部25は、人検知装置30と通信するための通信インタフェースを備える。通信部25は、人検知装置30との間で有線又は無線により通信可能に接続されており、有線LAN(Local Area Network)、無線LAN等の周知の通信規格に則って通信する。
 図1に戻って、人検知装置30は、室内空間2に存在する人を検知する装置である。人検知装置30は、一例として、室内空間2に存在する在室者により操作され、各空調機40に様々な指令を送信するリモコンの機能の一部であって、複数の空調機40による室内空間2の空調を制御する機能を備えている。
 図5に示すように、人検知装置30は、制御部31と、記憶部32と、入力受付部33と、表示部34と、通信部35と、を備える。これら各部は通信バスを介して接続されている。
 制御部31は、CPU、ROM及びRAMを備える。CPUは、中央処理装置、中央演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、DSP等とも呼び、人検知装置30の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部31において、CPUは、ROMに格納されているプログラム及びデータを読み出し、RAMをワークエリアとして用いて、人検知装置30を統括制御する。
 また、制御部31は、DSP、GPU(Graphics Processing Unit)等の画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備える。制御部31は、周知の画像処理の手法を用いて、撮影装置20により撮影された撮影画像を処理する。
 記憶部32は、フラッシュメモリ、EPROM、EEPROM等の不揮発性の半導体メモリを備えており、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。記憶部32は、制御部31が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部32は、制御部31が各種処理を行うことにより生成又は取得するデータを記憶する。
 入力受付部33は、タッチパネル、スイッチ、押圧ボタン等の入力デバイスを備えており、作業者から入力を受け付ける。例えば、入力受付部33は、空調機40に対する操作を受け付ける。
 表示部34は、LCD(Liquid Crystal Display)パネル、有機EL(Electro-Luminescence)等の表示デバイスを備える。表示部34は、図示しない表示駆動回路によって駆動され、制御部31による制御のもとで様々な画像を表示する。
 通信部35は、撮影装置20及び複数の空調機40を含む外部の装置と通信するための通信インタフェースを備える。通信部35は、撮影装置20及び複数の空調機40との間で有線又は無線により通信可能に接続されており、有線LAN、無線LAN等の周知の通信規格に則って通信する。
 図1に戻って、複数の空調機40のそれぞれは、空調対象の空間である室内空間2を空調する。各空調機40は、一例として、CO(二酸化炭素)、HFC(ハイドロフルオロカーボン)等を冷媒として用いたヒートポンプ式の空調設備である。
 室外機41と室内機42とは、図示を省略するが、冷媒が流れる冷媒回路を介して接続されている。室外機41は、冷媒を圧縮して冷凍回路を循環させる圧縮機と、冷媒回路を流れる冷媒の方向を切り換える四方弁と、冷媒回路を流れる冷媒と室外の空気との間で熱交換を行う室外熱交換器と、冷媒回路を流れる冷媒を減圧して膨張させる膨張弁と、室外の空気を室外熱交換器に送る室外ファンと、を備える。室内機42は、冷媒回路を流れる冷媒と室内空間2の空気との間で熱交換を行う室内熱交換器と、室内空間2の空気を室内熱交換器に送る室内ファンと、を備える。
 室外機41と室内機42とは、いずれもCPU、ROM、RAM、通信インタフェース及び読み書き可能な不揮発性の半導体メモリを備えており、人検知装置30から送信される制御信号に応じて強調動作し、空調機40全体を制御する。具体的に説明すると、室外機41は、圧縮機の駆動周波数、四方弁の切り換え、室外ファンの回転速度、及び、膨張弁の開度を制御する。また、室内機42は、室内ファンの回転速度を制御する。これにより、室内空間2が空調される。
 次に、図6を参照して、設備機器システム1の機能的な構成について説明する。
 図6に示すように、撮影装置20は、機能的に、撮影画像取得部210と、送信部220と、を備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、ROM又は記憶部22に格納される。そして、CPUが、ROM又は記憶部22に記憶されたプログラムを実行することによって、これらの各機能を実現する。
 撮影画像取得部210は、撮影部23に室内空間2を撮影させることにより、室内空間2が撮影された撮影画像を取得する。撮影画像取得部210は、一定の周期で繰り返し室内空間2を撮影することにより、室内空間2に人が存在する場合にその動きを捉えることができる。撮影画像取得部210は、制御部21が撮影部23と協働することにより実現される。撮影画像取得部210は、撮影画像取得手段として機能する。
 より詳細には、撮影画像取得部210は、(A)設備機器システム1の初期設定時と(B)設備機器システム1の運用時との2つの場面において、室内空間2の撮影画像を取得する。設備機器システム1の初期設定時とは、設備機器システム1が室内空間2に設置されて最初に稼働する前において、設備機器システム1が室内空間2を適切に空調できるように設定される場面である。これに対して、設備機器システム1の運用時とは、初期設定がされた後において、設備機器システム1が通常に運用されて室内空間2が空調される場面である。
 (A)第1に、設備機器システム1の初期設定時について説明する。初期設定時において、設備機器システム1は、室内空間2における人に進入されない領域である進入不可領域を推定する。そのために、撮影画像取得部210は、室内空間2に人が存在しない状態において、撮影部23に室内空間2を撮影させることにより、第1の撮影画像を取得する。
 図7に、初期設定時において撮影画像取得部210により取得された第1の撮影画像51の例を示す。第1の撮影画像51は、室内空間2の天井部に設置されている撮影装置20により赤外線で撮影された画像であるため、室内空間2の熱分布を上から見た状態を表している。具体的に説明すると、第1の撮影画像51には、机、棚等が配置されている領域N1~N4が、識別可能な状態で撮影されている。
 このように、撮影画像取得部210は、室内空間2に人が存在しない状態で、撮影部23に撮影させることにより、撮影装置20の周囲に設置されている4つの室内機42により空調されるエリアが撮影された第1の撮影画像51を取得する。
 図6に戻って、送信部220は、撮影画像取得部210により取得された第1の撮影画像51を、人検知装置30に送信する。具体的に説明すると、送信部220は、通信部25を介して人検知装置30と通信し、撮影画像取得部210により取得された第1の撮影画像51を示す送信情報を人検知装置30に送信する。送信部220は、制御部21が通信部25と協働することにより実現される。送信部220は、送信手段として機能する。
 人検知装置30は、機能的に、受信部310と、推定部320と、サンプル指定部330と、座標変換部340と、識別部350と、判定部360と、設備制御部370と、表示出力部380と、を備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、ROM又は記憶部32に格納される。そして、CPUが、ROM又は記憶部32に記憶されたプログラムを実行することによって、これらの各機能を実現する。
 受信部310は、通信部35を介して撮影装置20と通信することにより、撮影装置20から送信された第1の撮影画像51を受信する。受信部310は、制御部31が通信部35と協働することにより実現される。受信部310は、受信手段として機能する。
 推定部320は、受信部310により受信された第1の撮影画像51のうちから、少なくとも1つの進入不可領域を推定する。ここで、進入不可領域とは、室内空間2において人に進入されない領域である。より詳細には、進入不可領域は、例えば、壁、柱等の領域、及び、机、棚等の機材が配置されている領域のように、通常は人が所在することができない領域である。図3に示したフロアレイアウトでは、机、棚等が配置されている領域N1~N4が進入不可領域に相当する。
 推定部320は、室内空間2が撮影された第1の撮影画像51における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、進入不可領域として推定する。ここで、予め指定された画像は、進入不可領域のサンプルとなる画像であって、壁、柱、机、棚等が撮影装置20により撮影された場合に撮影画像の特徴を有する画像である。具体的には、予め指定された画像は、サンプル指定部330により第1の撮影画像51のうちから指定されるサンプル領域の画像が用いられる。
 サンプル指定部330は、第1の撮影画像51のうちから、進入不可領域のサンプルとなるサンプル領域を指定する。具体的に説明すると、サンプル指定部330は、撮影装置20により撮影された第1の撮影画像51を、表示部34に表示する。作業者は、入力受付部33を操作して、表示部34に表示された第1の撮影画像51のうちの、机、棚等の機材が配置されている領域のように進入不可領域であることが予め判明している領域の座標を入力することにより、その領域をサンプル領域として選択する。
 例えば図7に示した第1の撮影画像51が表示部34に表示された場合、作業者は、第1の撮影画像51に含まれる領域N1~N4のうちの、机、棚等が配置されている領域であることが判明している1つの領域を、進入不可領域として選択する。サンプル指定部330は、領域N1~N4のうちの、作業者により選択された1つの領域を、サンプル領域として指定する。
 このように、サンプル指定部330は、入力受付部33を介して作業者から受け付けられた入力に従って、サンプル領域を指定する。サンプル指定部330は、制御部31が入力受付部33と協働することにより実現される。サンプル指定部330は、サンプル指定手段として機能する。
 推定部320は、第1の撮影画像51における、サンプル指定部330により指定されたサンプル領域と、サンプル領域の画像の特徴に類似する特徴を有する少なくとも1つの領域とを、進入不可領域として推定する。具体的に説明すると、推定部320は、サンプル指定部330により指定されたサンプル領域の特徴量を導出する。サンプル領域の特徴量は、サンプル領域の特徴を示す指標であって、具体的には、サンプル領域の色、模様、形状、大きさ等のうちの少なくとも1つのパラメータにより定められる。例えば、サンプル指定部330によりサンプル領域として領域N1が指定された場合、推定部320は、周知の画像処理のアルゴリズムを用いて、領域N1の色、模様、形状、大きさ等を取得することにより、領域N1の特徴量を導出する。
 サンプル領域の特徴量を導出すると、推定部320は、第1の撮影画像51に含まれるサンプル領域以外の領域の特徴量を更に導出する。例えばサンプル領域が領域N1である場合、推定部320は、領域N2~N4とそれ以外の領域である背景領域とのそれぞれの特徴量を、領域N1と同様の手順で導出する。そして、推定部320は、サンプル領域の特徴量とサンプル領域以外の領域の特徴量との間の類似度を計算する。
 ここで、2つの領域の特徴量の類似度は、2つの領域の特徴の類似の度合いであって、2つの領域の色、模様、形状、大きさ等のパラメータが近いほど大きい値を示す。例えば、推定部320は、サンプル領域とサンプル領域以外の領域との間における色、模様、形状、大きさ等のパラメータの差分を計算し、計算した差分を予め定められた比率で足し合わせることにより、類似度を計算する。そして、推定部320は、サンプル領域の特徴量との間の類似度が予め定められた閾値よりも大きい場合、その領域を進入不可領域と推定する。
 例えば、サンプル領域が領域N1である場合、領域N1と同様に机、棚等が設置されている領域N2~N4は、第1の撮影画像51において領域N1と類似した特徴を示す。そのため、領域N1の特徴量と領域N2~N4のそれぞれの特徴量との間の類似度は、領域N1の特徴量と背景領域の特徴量との間の類似度に比べて、相対的に大きくなる。この場合、推定部320は、サンプル領域として指定された領域N1と、領域N1の特徴に類似する特徴を示す領域N2~N4とを、進入不可領域と推定する。推定部320は、制御部31が記憶部32と協働することにより実現される。推定部320は、推定手段として機能する。
 座標変換部340は、推定部320により推定された進入不可領域の座標を、予め定められた座標変換式に従って、室内空間2における座標に変換する。推定部320により推定された進入不可領域の座標は、図7に示した第1の撮影画像51における座標であって、2次元の座標系(U,V)により表される。これに対して、室内空間2における座標は、図3に示したフロアレイアウトにおける座標であって、2次元の座標系(X,Y)により表される。
 座標系(U,V)と座標系(X,Y)との関係を定める座標変換式は、予め設定され、記憶部32に記憶されている。具体的には、座標変換式は、下記の(1)式及び(2)式のように、2つの関数F1(U,V)、F2(U,V)を用いて表すことができる。
  X=F1(U,V) …(1)
  Y=F2(U,V) …(2)
 ここで、第1の撮影画像51における座標系(U,V)と室内空間2における座標系(X,Y)との関係は、室内空間2において撮影部23が設置されている位置、高さ及び向きと、撮影部23の画角の広さと、に応じて変化する。例えば、撮影部23が床面からより高い位置に設置されているほど、また撮影部23の画角がより広いほど、撮影部23による撮影範囲はより広くなる。そのため、上記(1)式及び(2)式における2つの関数F1(U,V)、F2(U,V)は、室内空間2において撮影部23が設置されている位置、高さ及び向きと、撮影部23の画角の広さと、に応じて定められる。座標変換部340は、これらのパラメータを作業者から入力受付部33を介して受け付け、受け付けたパラメータに従って座標変換式を予め設定する。
 座標変換部340は、上記(1)式及び(2)式に従って、推定部320により推定された進入不可領域の座標を、室内空間2における座標に変換する。例えば領域N1~N4が進入不可領域として推定された場合、座標変換部340は、領域N1~N4の四隅の座標を室内空間2における座標に変換する。これにより、座標変換部340は、室内空間2における進入不可領域の位置を得る。座標変換部340は、制御部31が記憶部32と協働することにより実現される。座標変換部340は、座標変換手段として機能する。
 座標変換部340が第1の撮影画像51における進入不可領域の座標を室内空間2における座標に変換すると、推定部320は、変換後の進入不可領域の座標を示すデータを、推定データ60として記憶部32に保存する。
 図8に、推定データ60の例を示す。図8に示すように、推定データ60は、推定部320により進入不可領域として推定された領域N1~N4のそれぞれについて、室内空間2の座標系(X,Y)で表される四隅の座標を格納している。このように、推定部320は、進入不可領域として推定された少なくとも1つの領域の座標を示す推定データ60を生成し、記憶部32に保存する。
 (B)第2に、設備機器システム1の運用時について説明する。運用時において、設備機器システム1は、初期設定時に推定した進入不可領域の推定結果に基づいて、複数の空調機40により室内空間2を空調する。そのために、撮影画像取得部210は、撮影部23に室内空間2を撮影させることにより、第2の撮影画像を取得する。
 図9に、運用時において撮影画像取得部210により取得された第2の撮影画像52の例を示す。第2の撮影画像52は、初期設定の後、すなわち第1の撮影画像51よりも後に撮影部23により室内空間2が撮影された画像である。
 図9に示す第2の撮影画像52には、机、棚等が配置されている領域N1~N4に加えて、領域P1~P3が含まれている。これら領域P1~P3は、人が存在する可能性がある領域であって、周囲の領域に対して異なる温度を示している。
 送信部220は、撮影画像取得部210により取得された第2の撮影画像52を、人検知装置30に送信する。具体的に説明すると、送信部220は、通信部25を介して人検知装置30と通信し、撮影画像取得部210により取得された第2の撮影画像52を示す送信情報を人検知装置30に送信する。人検知装置30において、受信部310は、撮影装置20から送信された第2の撮影画像52を受信する。
 図6に戻って、識別部350は、受信部310により受信された第2の撮影画像52のうちから、人が存在する領域の候補である候補領域を識別する。具体的に説明すると、識別部350は、周知の画像処理のアルゴリズムを用いて、第2の撮影画像52を解析する。そして、識別部350は、第2の撮影画像52のうちから、人の特徴を有する少なくとも1つの領域を、候補領域として識別する。
 ここで、人の特徴は、赤外線で撮影された熱画像における人が撮影された部分の特徴である。具体的には、人の特徴は、温度、形状、大きさ、時系列変化等のうちの少なくとも1つのパラメータにより定められる。
 識別部350は、第2の撮影画像52のうちから、温度と形状と大きさと時系列変化とのうちの少なくとも1つが予め定められた基準を満たす領域が存在するか否かを判定する。予め定められた基準は、熱画像における典型的な人の特徴を表す基準であって、予め設定され、記憶部32に記憶される。
 具体的に説明すると、識別部350は、第2の撮影画像52に含まれる各領域の温度、形状、大きさ、及び時系列変化を解析する。そして、識別部350は、第2の撮影画像52のうちの、典型的な人の温度、形状、大きさ、及び時系列変化を示す領域を、予め定められた基準を満たす領域であると判定し、その領域を候補領域として識別する。例えば図9に示したように、第2の撮影画像52に含まれる領域P1~P3のそれぞれを、候補領域として識別する。識別部350は、制御部31が記憶部32と協働することにより実現される。識別部350は、識別手段として機能する。
 座標変換部340は、識別部350により識別された候補領域の座標を、予め定められた座標変換式に従って、室内空間2における座標に変換する。ここで、第2の撮影画像52における候補領域の座標は、第1の撮影画像51における進入不可領域の座標と同じく、座標系(U,V)により表される。そのため、座標変換部340は、進入不可領域の変換と同様に、上記(1)式及び(2)式に従って、第2の撮影画像52における候補領域の中心位置の座標を、座標系(X,Y)により表される室内空間2における座標に変換する。
 判定部360は、推定部320により推定された進入不可領域と、識別部350により識別された候補領域と、の位置関係が予め定められた条件を満たすか否かを判定する。そして、判定部360は、進入不可領域と候補領域との位置関係が予め定められた条件を満たす場合、室内空間2における候補領域に対応する位置に人が存在すると判定する。ここで、室内空間2における候補領域に対応する位置は、具体的には、第2の撮影画像52における候補領域の座標から座標変換部340により変換された座標により定められる位置である。
 具体的に説明すると、判定部360は、推定部320により生成され、記憶部32に記憶されている推定データ60を参照する。そして、判定部360は、座標変換部340による候補領域の座標から変換された座標と、推定データ60に記憶されている進入不可領域の座標と、の間の距離を計算する。判定部360は、計算した距離に基づいて、座標変換部340による座標変換後の候補領域が、座標変換部340による座標変換後の進入不可領域の外側に位置しているか否かを判定する。
 候補領域が進入不可領域の外側に位置している場合、判定部360は、進入不可領域と候補領域との位置関係が予め定められた条件を満たすと判定し、室内空間2における候補領域に対応する位置に人が存在すると判定する。例えば、図9に示した第2の撮影画像52において、候補領域として識別された領域P1,P2は、進入不可領域として推定された領域N1~N4の外側に位置している。この場合、判定部360は、室内空間2における領域P1,P2に対応する位置に人が存在していると判定する。このように候補領域が室内空間2における人が所在可能な範囲に位置している場合、判定部360は、その候補領域に対応する位置に、実際に人が存在していると判定する。
 これに対して、候補領域が進入不可領域の内側に位置している場合、判定部360は、候補領域が進入不可領域の内側に予め定められた閾時間よりも長く位置しているか否かを更に判定する。判定の結果、候補領域が進入不可領域の内側に位置している時間が閾時間よりも長い場合、判定部360は、進入不可領域と候補領域との位置関係が予め定められた条件を満たすと判定し、室内空間2におけるその候補領域に対応する位置に人が存在しないと判定する。
 例えば、図9に示した第2の撮影画像52において、候補領域として識別された領域P3は、進入不可領域として推定された領域N2の内側に位置している。この領域P3が閾時間よりも長く領域N2内に滞在している場合、判定部360は、室内空間2における領域P3に対応する位置には、実際には人が存在しておらず、人に類似する特徴を示す人以外の物が存在していると判定する。
 ここで、人に類似する特徴を示す人以外の物は、例えば、熱を有するプリンタ、テレビ等の機器、及び、人に持ち運ばれて移動するノート型のパーソナルコンピュータが挙げられる。
 一方で、候補領域が進入不可領域の内側に位置している時間が閾時間よりも短い場合は、例えば人が机に寄り掛かった場合のように、通常は所在することが想定されないが、偶発的な原因で人が進入不可領域の内側に位置している状況である可能性が高い。そのため、この場合、判定部360は、進入不可領域と候補領域との位置関係が予め定められた条件を満たさないと判定し、室内空間2におけるその候補領域に対応する位置に人が存在していると判定する。
 このように、判定部360は、侵入不可領域に対する候補領域の相対的な位置関係に基づいて、第2の撮影画像52から識別された候補領域に実際に人が存在しているか否かを判定する。候補領域と進入不可領域との位置関係に基づいて人の存在を判定するため、人と類似する特徴を示す物が人であると誤って判定することを低減することができる。判定部360は、制御部31が記憶部32と協働することにより実現される。判定部360は、判定手段として機能する。
 設備制御部370は、判定部360による判定結果に応じて、室内空間2に設置されている設備機器である複数の室内機42を制御する。第1に、設備制御部370は、判定部360により室内空間2における候補領域に対応する位置に人が存在すると判定された場合、室内空間2における人が存在すると判定された位置に応じて、複数の空調機40を制御する。
 具体的に説明すると、設備制御部370は、複数の室内機42のうちの、領域P1に最も近い位置に設置されている室内機42を、制御対象の室内機42として選択する。例えば第2の撮影画像52において領域P1,P2に人が存在すると判定された場合、室内空間2に設置されている4つの室内機42のうち、領域P1に最も近い室内機42と、領域P2に最も近い室内機42とを、それぞれ制御対象の室内機42として選択する。
 更に、設備制御部370は、制御対象の室内機42の風向きを調整する。例えば第2の撮影画像52において領域P1,P2に人が存在すると判定された場合、設備制御部370は、制御対象の室内機42の風向きを、領域P1,P2に対応する位置以外の向きに調整する。これにより、人に空調空気を直接当てないようにできるため、ドラフト感を低減させる。
 第2に、設備制御部370は、室内空間2に存在すると判定された人の数に応じて、制御対象の室内機42を制御する。具体的に説明すると、設備制御部370は、室内空間2に存在すると判定された人の数がより多いほど、空調に大きな熱負荷を要するため、空調の強度をより強く設定する。ここで、空調の強度をより強く設定するとは、例えば、冷房の目標温度をより下げること、風量をより大きくすること等である。
 また、設備制御部370は、判定部360により室内空間2に人が存在しないと判定された場合、言い換えると、室内空間2に存在すると判定された人の数が0であった場合、複数の室内機42の全てに空調を停止させる。これにより、不要に空調することを抑制し、省エネ性を向上させる。
 このように制御対象の室内機42と制御内容とを決定すると、設備制御部370は、決定した制御内容に従って制御対象の室内機42に室内空間2を空調させる。具体的に説明すると、設備制御部370は、通信部35を介して制御対象の室内機42に対して、決定した制御内容を示す制御信号を送信する。制御対象の室内機42は、制御信号を受信すると、受信した制御信号に従って冷房、暖房等の運転モードと目標温度、風向き、風量等の空調パラメータとを決定し、室内空間2を空調する。設備制御部370は、制御部31が通信部35と協働することにより実現される。設備制御部370は、設備制御手段として機能する。
 表示出力部380は、判定部360による判定結果を表示部34に表示する。具体的には、表示出力部380は、判定部360により室内空間2における候補領域に対応する位置に人が存在すると判定された場合、室内空間2における人が存在すると判定された位置を示す表示画像を表示する。
 例えば、第2の撮影画像52のうちから領域P1,P2に人が存在すると判定された場合、表示出力部380は、図10に示す表示画像を表示部34に表示する。具体的に説明すると、表示出力部380は、図3に示した室内空間2のフロアレイアウトを表示部34に表示する。更に、表示出力部380は、室内空間2のフロアレイアウトにおける、人が存在すると判定された領域P1,P2に対応する位置に、人の存在を示すマークを表示する。一方で、表示出力部380は、人が存在しないと判定された領域P3に対応する位置には、何も表示しない。
 また、表示出力部380は、複数の室内機42のうちの設備制御部370による制御対象の室内機42を、それ以外の室内機42とは異なる表示態様で表示する。例えば図10に示した表示画像において、表示出力部380は、人が存在すると判定された領域P1,P2に近い右側2つの室内機42が制御対象の室内機42である場合、右側2つの室内機42が設置されている領域に斜線を付して表示する。
 また、図示は省略するが、表示出力部380は、制御対象の室内機42に対する制御内容を更に表示する。例えば、表示出力部380は、制御対象の室内機42を、その制御内容として決定した運転モード、設定温度、風量、風向き等を示す文字、記号、矢印等の情報を表示する。
 このように、表示出力部380は、室内空間2のフロアレイアウトに重ねて人の位置情報を表示するため、室内空間2における人の位置情報を分かり易く在室者に通知することができる。また、表示出力部380は、更に制御対象の室内機42とその制御内容とを表示するため、室内空間2における空調の状況を分かり易く在室者に通知することができる。表示出力部380は、制御部31が表示部34と協働することにより実現される。表示出力部380は、表示出力手段として機能する。
 以上のように構成された設備機器システム1において実行される処理の流れについて、図11及び図12に示すシーケンス図を参照して、説明する。
 第1に、図11を参照して、初期設定時に実行される進入不可領域の推定処理について説明する。図11に示す処理は、室内空間2に人が存在していない状態において、作業者からの指示により開始される。
 図11に示す処理を開始すると、まず撮影装置20において、制御部21は、撮影画像取得部210として機能し、室内空間2を撮影する(ステップS11)。具体的に説明すると、制御部21は、撮影部23に室内空間2を撮影させることにより、例えば図7に示したような、室内空間2に人が存在しない場合における熱分布を表す第1の撮影画像51を取得する。
 第1の撮影画像51を取得すると、制御部21は、送信部220として機能し、取得された第1の撮影画像51を人検知装置30に送信する(ステップS12)。撮影装置20から第1の撮影画像51が送信されると、人検知装置30において、制御部31は、受信部310として機能し、送信された第1の撮影画像51を受信する。
 人検知装置30において、制御部31は、第1の撮影画像51を受信すると、サンプル指定部330として機能し、受信した第1の撮影画像51のうちから、サンプル領域を指定する(ステップS13)。具体的に説明すると、制御部31は、作業者から受け付けた入力に従って、第1の撮影画像51のうちから、進入不可領域であることが予め判明している領域を、サンプル領域として指定する。
 サンプル領域を指定すると、制御部31は、推定部320として機能し、第1の撮影画像51におけるサンプル領域の特徴量を導出する(ステップS14)。具体的に説明すると、制御部31は、サンプル領域の色、模様、形状、大きさ等のパラメータを取得し、取得したパラメータに基づいてサンプル領域の特徴量を導出する。
 サンプル領域の特徴量を導出すると、制御部31は、第1の撮影画像51に含まれる進入不可領域を推定する(ステップS15)。具体的に説明すると、制御部31は、ステップS14で導出したサンプル領域に対して、特徴量の類似度が予め定められた閾値よりも大きい少なくとも1つの領域を、進入不可領域と推定する。
 進入不可領域を推定すると、制御部31は、座標変換部340として機能し、推定された進入不可領域の座標を、上記(1)式及び(2)式に従って、第1の撮影画像51における座標から室内空間2における座標に変換する(ステップS16)。
 進入不可領域の座標を変換すると、制御部31は、変換後の進入不可領域の座標を示す推定データ60を保存する(ステップS17)。例えば、制御部31は、図8に示したように、進入不可領域として推定された領域N1~N4の、室内空間2における座標を示す推定データ60を生成し、記憶部32に保存する。以上により、図11に示した進入不可領域の推定処理は終了する。
 第2に、図12を参照して、運用時に実行される人検知及び空調制御処理について説明する。図12に示す処理は、初期設定における進入不可領域の推定処理が終了した後、複数の空調機40が正常に空調を実行可能な状態において、適宜のタイミングで繰り返し実行される。
 図12に示す処理を開始すると、まず撮影装置20において、制御部21は、撮影画像取得部210として機能し、室内空間2を撮影する(ステップS21)。具体的に説明すると、制御部21は、撮影部23に室内空間2を撮影させることにより、例えば図9に示したような、室内空間2に人が存在する場合における熱分布を表す第2の撮影画像52を取得する。
 第2の撮影画像52を取得すると、制御部21は、送信部220として機能し、第2の撮影画像52を人検知装置30に送信する(ステップS22)。撮影装置20から第2の撮影画像52が送信されると、人検知装置30において、制御部31は、受信部310として機能し、送信された第2の撮影画像52を受信する。
 人検知装置30において、制御部31は、第2の撮影画像52を受信すると、識別部350として機能し、第2の撮影画像52のうちから候補領域を識別する(ステップS23)。具体的に説明すると、制御部31は、第2の撮影画像52のうちから、温度、形状、大きさ、時系列変化等のパラメータが人の特徴に対応する基準を満たす領域を探索する。そして、制御部31は、人の特徴に対応する基準を満たす少なくとも1つの領域が存在する場合、その領域を候補領域として識別する。
 候補領域を識別すると、制御部31は、座標変換部340として機能し、識別された候補領域の座標を、上記(1)式及び(2)式に従って、第2の撮影画像52における座標から室内空間2における座標に変換する(ステップS24)。
 候補領域の座標を変換すると、制御部31は、判定部360として機能し、室内空間2における人の存在を判定する(ステップS25)。ステップS25における判定処理の詳細は、図13に示すフローチャートを参照して説明する。
 図13に示す判定処理を開始すると、制御部31は、判定部360として機能し、ステップS23で識別された候補領域が、ステップS15で推定された進入不可領域の外側に位置しているか否かを判定する(ステップS251)。具体的に説明すると、制御部31は、ステップS17で保存された推定データ60を参照し、推定データ60に保存されている進入不可領域の座標と、ステップS24で変換された後の候補領域の座標と、を比較する。そして、制御部31は、候補領域が進入不可領域の外側に位置するか否かを判定する。
 候補領域が進入不可領域の外側に位置している場合(ステップS251;YES)、制御部31は、室内空間2におけるその候補領域に対応する位置に人が存在すると判定する(ステップS252)。
 これに対して、候補領域が進入不可領域の内側に位置している場合(ステップS251;NO)、制御部31は、候補領域が進入不可領域の内側に閾時間よりも長く位置しているか否かを更に判定する(ステップS253)。
 候補領域が進入不可領域の内側に閾時間よりも長く位置している場合(ステップS253;YES)、制御部31は、室内空間2におけるその候補領域に対応する位置に人が存在しないと判定する(ステップS254)。一方で、候補領域が進入不可領域の内側に閾時間よりも長く位置していない場合(ステップS253;NO)、制御部31は、処理をステップS252に移行させ、室内空間2におけるその候補領域に対応する位置に人が存在すると判定する。以上により、図13に示した室内空間2における人の存在の判定処理は終了する。
 なお、ステップS23で複数の候補領域が識別された場合、制御部31は、識別された複数の候補領域のそれぞれについてステップS25の判定処理を実行し、各候補領域に人が存在するか否かを判定する。
 図12に戻って、ステップS25で人の存在を判定すると、制御部31は、設備制御部370として機能し、判定結果に応じて空調機40を制御する(ステップS26)。具体的に説明すると、制御部31は、室内空間2に存在すると判定された人の位置と人の数とに応じて制御対象の室内機42と制御内容を決定する。そして、制御部31は、決定した制御内容で、制御対象の室内機42に空調させる。
 空調機40を制御すると、制御部31は、表示出力部380として機能し、室内空間2における人の位置情報を表示部34に表示する(ステップS27)。制御部31は、例えば図10に示したように、室内空間2のフロアレイアウトにおける人が存在すると判定された位置に、人の存在を示すマークを表示する。これと共に、制御部31は、ステップS26で決定した制御対象の室内機42とその制御内容とを表示部34に表示する。以上により、図12に示した人検知及び設備制御処理は終了する。
 以上説明したように、本実施の形態に係る人検知装置30及び人検知システム10は、室内空間2が撮影された第1の撮影画像51における少なくとも1つの領域を進入不可領域として推定し、室内空間2が撮影された第2の撮影画像52のうちから人が存在する領域の候補である候補領域を識別し、進入不可領域と候補領域との位置関係に基づいて、室内空間2における候補領域に対応する位置に人が存在するか否かを判定する。このように、本実施の形態に係る人検知装置30及び人検知システム10は、進入不可領域と候補領域との位置関係に基づいて候補領域に実際に人が存在しているか否かを判定するため、人と類似した特徴を示す人以外の物を人であると誤判定することを低減することができる。その結果、室内空間2における人の検知精度を向上させることができる。更には、高い精度で検知した人の位置情報を用いて複数の空調機40を的確に制御することができるため、室内空間2の作業性及び快適性を向上させることができる。
 また、本実施の形態に係る人検知装置30及び人検知システム10は、第1の撮影画像51のうちから進入不可領域のサンプルとなるサンプル領域を指定し、サンプル領域の画像に類似する少なくとも1つの領域を進入不可領域として推定する。これにより、作業者が進入不可領域を1つのみ指定すれば、残りの進入不可領域が自動的に推定されるため、特に室内空間2内に多数の進入不可領域が存在する場合に、作業者が多数の進入不可領域を指定する手間を低減することができる。
 (変形例)
 以上、実施の形態を説明したが、実施の形態に記載された事項を組み合わせたり、実施の形態に記載された事項を適宜、変形、省略したりすることが可能である。
 例えば、上記実施の形態では、推定部320は、第1の撮影画像51のうちから指定されたサンプル領域の画像に類似する少なくとも1つの領域を進入不可領域として推定した。しかしながら、進入不可領域のサンプルとなる画像は、第1の撮影画像51のうちから指定されることに限らない。例えば、進入不可領域のサンプルとなる画像は、撮影装置20による撮影画像とは別に用意され、予め記憶部32に記憶されていても良い。
 また、サンプル領域は、室内空間2のフロアレイアウトから指定されても良い。この場合、サンプル指定部330は、例えば図3に示したフロアレイアウトを表示部34に表示する。作業者は、入力受付部33を操作して、表示部34に表示されたフロアレイアウトのうちから、進入不可領域であることが予め判明している領域をサンプル領域として指定する。サンプル指定部330は、作業者により指定されたサンプル領域の座標を、上記(1)式及び(2)式で表される座標変換式の逆変換式に従って、第1の撮影画像51における座標に変換する。そして、サンプル指定部330は、第1の撮影画像51における変換後の座標により示される領域を、サンプル領域として指定する。
 上記実施の形態では、判定部360は、進入不可領域と候補領域とを、座標変換部340により室内空間2における座標に変換された後で比較することにより、室内空間2に人が存在するか否かを判定した。しかしながら、判定部360は、第1の撮影画像51における進入不可領域の座標と第2の撮影画像52における候補領域の座標とを直接比較することにより、室内空間2に人が存在するか否かを判定しても良い。
 上記実施の形態では、判定部360は、候補領域が進入不可領域の内側に予め定められた閾時間よりも長く位置している場合、室内空間2におけるその候補領域に対応する位置には人が存在していないと判定した。しかしながら、判定部360は、この場合、座標変換部340による座標変換、又は、推定部320による進入不可領域の推定結果を補正しても良い。例えば、候補領域が進入不可領域の内側に閾時間よりも長く位置している場合、判定部360は、座標変換部340による座標変換後の候補領域の座標に誤りがあると判定して、座標変換式を補正しても良い。或いは、候補領域が進入不可領域の内側に閾時間よりも長く位置している場合、判定部360は、その進入不可領域が実際には人に進入される領域であると判定して、推定データ60に記憶されている進入不可領域のリストから削除しても良い。
 上記実施の形態では、撮影装置20は、赤外線で室内空間2を撮影することにより、室内空間2の熱分布を示す熱画像を取得した。しかしながら、撮影装置20は、赤外線に限らず、例えば可視光で室内空間2を撮影することにより、可視画像を取得しても良い。そして、推定部320は可視画像内から進入不可領域を推定しても良いし、識別部350は、可視画像内から候補領域を識別しても良い。可視画像を用いることで、進入不可領域又は候補領域をより精度良く推定又は識別することが可能になる。
 また、初期設定時の第1の撮影画像51と運用時の第2の撮影画像52とは、異なるカメラで撮影された撮影画像内における位置の対応をとることが可能であれば、異なるカメラによって撮影されても良い。例えば、初期設定時には可視光カメラを用いて第1の撮影画像51を取得し、運用時は赤外線カメラを用いて第2の撮影画像52を取得しても良いし、その逆であっても良い。この場合、可視光カメラと赤外線カメラとが合わせて撮影手段として機能する。
 第1、第2の撮影画像51,52が異なるカメラにより撮影される場合、座標変換部340は、第1の撮影画像51における進入不可領域の座標と、第2の撮影画像52における候補領域の座標とを、それぞれ異なる座標変換式に従って室内空間2における座標に変換する。第1、第2の撮影画像51,52が異なるカメラにより撮影される場合であっても、進入不可領域の座標と候補領域の座標とが室内空間2における座標に変換されれば、判定部360は、上記実施の形態と同様の処理により、室内空間2に人が存在するか否かを判定することができる。
 また、室内空間2には、1つの撮影装置20だけでなく、複数の撮影装置20が設置されていても良い。例えば、複数の撮影装置20が間隔を空けて設置されており、複数の撮影装置20により、室内空間2内の広いエリアを相補的に撮影しても良い。室内空間2に複数の撮影装置20が設置されている場合、第1の撮影画像51と第2の撮影画像52とは、別の撮影装置20により撮影されたものであっても良い。
 また、撮影装置20は、撮影部23を回転させてその光軸の向きを変化させる回転駆動部を備えており、撮影部23を回転させながら室内空間2を撮影しても良い。言い換えると、第1、第2の撮影画像51,52は、光軸が固定された撮影部23により撮影された画像であることに限らず、撮影部23がその光軸を変えながら撮影した、いわゆるパノラマ化された画像であっても良い。
 上記実施の形態では、室内空間2内に複数の室内機42が設置されていた。しかしながら、室内空間2内に1つのみの室内機42が設置されていても良い。すなわち、設備機器システム1が備える室内機42の個数は1つであっても良い。また、空調機40は、1つの室外機41に対して複数の室内機42が接続された、いわゆるマルチエアコンであっても良い。
 上記実施の形態では、設備機器システム1における設備機器は、空調機40であった。しかしながら、設備機器は、空調機40に限らず、例えば対象空間を照明する照明機器であっても良い。設備機器が照明機器である場合の制御は、設備機器が空調機40である場合の制御と同様に説明することができる。例えば、設備制御部370は、判定部360により室内空間2に人が存在すると判定された場合、複数の照明機器のうちの、その人の位置に最も近い照明機器を点灯させる。また、設備制御部370は、判定部360により室内空間2に人が存在しないと判定された場合、照明機器を消灯させる。
 上記実施の形態では、撮影装置20と人検知装置30とは別の独立した装置であった。しかしながら、撮影装置20が人検知装置30の機能の一部又は全部を備えていても良い。例えば、撮影装置20が、推定部320又は識別部350の機能を備えていても良い。撮影装置20が推定部320の機能を備える場合、撮影装置20は、第1の撮影画像51における進入不可領域を推定し、推定した進入不可領域の座標を示す送信情報を人検知装置30に送信する。また、撮影装置20が識別部350の機能を備える場合、撮影装置20は、第2の撮影画像52のうちから候補領域を識別し、識別した候補領域の座標を示す送信情報を人検知装置30に送信する。このように、人検知システム10における各機能を撮影装置20と人検知装置30とのどちらが備えていても良い。
 上記実施の形態では、制御部21,31において、CPUがROM又は記憶部22,32に記憶されたプログラムを実行することによって、図6に示した各部として機能した。しかしながら、制御部21,31は、専用のハードウェアであってもよい。専用のハードウェアとは、例えば単一回路、複合回路、プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらの組み合わせ等である。制御部21,31が専用のハードウェアである場合、各部の機能それぞれを個別のハードウェアで実現してもよいし、各部の機能をまとめて単一のハードウェアで実現してもよい。
 また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現してもよい。このように、制御部21,31は、ハードウェア、ソフトウェア、ファームウェア、又は、これらの組み合わせによって、上述の各機能を実現することができる。
 本開示に係る撮影装置20又は人検知装置30の動作を規定する動作プログラムを既存のパーソナルコンピュータ又は情報端末装置等のコンピュータに適用することで、当該コンピュータを、撮影装置20又は人検知装置30として機能させることも可能である。
 また、このようなプログラムの配布方法は任意であり、例えば、CD-ROM(Compact Disk ROM)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)、又は、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。
 本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この開示を説明するためのものであり、本開示の範囲を限定するものではない。すなわち、本開示の範囲は、実施の形態ではなく、請求の範囲によって示される。そして請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、この開示の範囲内とみなされる。
 本開示は、人を検知するシステム等に好適に採用され得る。
1 設備機器システム、2 室内空間、10 人検知システム、20 撮影装置、21 制御部、22 記憶部、23 撮影部、25 通信部、30 人検知装置、31 制御部、32 記憶部、33 入力受付部、34 表示部、35 通信部、40 空調機、41 室外機、42 室内機、51,52 撮影画像、60 推定データ、210 撮影画像取得部、220 送信部、310 受信部、320 推定部、330 サンプル指定部、340 座標変換部、350 識別部、360 判定部、370 設備制御部、380 表示出力部、N1,N2,N3,N4,P1,P2,P3 領域

Claims (13)

  1.  対象空間に存在する人を検知する人検知装置であって、
     前記対象空間が撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、前記人に進入されない進入不可領域として推定する推定手段と、
     前記対象空間が撮影された第2の撮影画像のうちから、前記人が存在する領域の候補である候補領域を識別する識別手段と、
     前記推定手段により推定された前記進入不可領域と前記識別手段により識別された前記候補領域との位置関係が予め定められた条件を満たす場合、前記対象空間における前記候補領域に対応する位置に前記人が存在すると判定する判定手段と、を備える、
     人検知装置。
  2.  前記第1の撮影画像のうちから、前記進入不可領域のサンプルとなるサンプル領域を指定するサンプル指定手段、を更に備え、
     前記予め指定された画像は、前記サンプル指定手段により指定された前記サンプル領域の画像であり、
     前記推定手段は、前記第1の撮影画像における、前記サンプル指定手段により指定された前記サンプル領域と、前記少なくとも1つの領域とを、前記進入不可領域として推定する、
     請求項1に記載の人検知装置。
  3.  前記推定手段により推定された前記進入不可領域の座標と前記識別手段により識別された前記候補領域の座標とのそれぞれを、前記対象空間における座標に変換する座標変換手段、を更に備え、
     前記判定手段は、前記座標変換手段による座標変換後の前記候補領域が、前記座標変換手段による座標変換後の前記進入不可領域の外側に位置している場合、前記対象空間における、前記座標変換手段による座標変換後の前記候補領域に人が存在すると判定する、
     請求項1又は2に記載の人検知装置。
  4.  前記判定手段は、前記座標変換手段による座標変換後の前記候補領域が、前記座標変換手段による座標変換後の前記進入不可領域の内側に位置している時間が予め定められた閾時間よりも長い場合、前記対象空間における、前記座標変換手段による座標変換後の前記候補領域に人が存在していないと判定する、
     請求項3に記載の人検知装置。
  5.  前記識別手段は、前記第2の撮影画像のうちから、温度と形状と大きさと時系列変化とのうちの少なくとも1つが予め定められた基準を満たす領域を、前記候補領域として識別する、
     請求項1から4のいずれか1項に記載の人検知装置。
  6.  前記判定手段による判定結果に応じて、前記対象空間に設置されている設備機器を制御する設備制御手段、を更に備える、
     請求項1から5のいずれか1項に記載の人検知装置。
  7.  前記設備制御手段は、前記判定手段により前記対象空間における前記候補領域に対応する位置に人が存在すると判定された場合、前記対象空間における前記位置に応じて、又は、前記対象空間に存在すると判定された人の数に応じて、前記設備機器を制御する、
     請求項6に記載の人検知装置。
  8.  前記判定手段により前記対象空間における前記候補領域に対応する位置に人が存在すると判定された場合、前記対象空間における前記位置を示す表示画像を表示する表示出力手段、を更に備える、
     請求項1から7のいずれか1項に記載の人検知装置。
  9.  前記第1の撮影画像及び前記第2の撮影画像は、赤外線で前記対象空間を撮影することにより取得された、前記対象空間の熱分布を表す熱画像である、
     請求項1から8のいずれか1項に記載の人検知装置。
  10.  対象空間に存在する人を検知する人検知システムであって、
     前記対象空間を撮影する撮影手段と、
     前記撮影手段により撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、前記人に進入されない進入不可領域として推定する推定手段と、
     前記撮影手段により撮影された第2の撮影画像のうちから、前記人が存在する領域の候補である候補領域を識別する識別手段と、
     前記推定手段により推定された前記進入不可領域と前記識別手段により識別された前記候補領域との位置関係が予め定められた条件を満たす場合、前記対象空間における前記候補領域に対応する位置に前記人が存在すると判定する判定手段と、を備える、
     人検知システム。
  11.  請求項10に記載の人検知システムと、前記対象空間に設置されている設備機器と、を備える設備機器システムであって、
     前記人検知システムは、前記判定手段による判定結果に応じて前記設備機器を制御する設備制御手段、を更に備える、
     設備機器システム。
  12.  対象空間が撮影された第1の撮影画像を取得し、
     前記第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、人に進入されない進入不可領域として推定し、
     前記対象空間が撮影された第2の撮影画像を取得し、
     前記第2の撮影画像のうちから、前記人が存在する領域の候補である候補領域を識別し、
     推定された前記進入不可領域と識別された前記候補領域との位置関係が予め定められた条件を満たす場合、前記対象空間における前記候補領域に対応する位置に前記人が存在すると判定する、
     人検知方法。
  13.  コンピュータを、
     対象空間が撮影された第1の撮影画像における、予め指定された画像の特徴に類似する特徴を有する少なくとも1つの領域を、人に進入されない進入不可領域として推定する推定手段、
     前記対象空間が撮影された第2の撮影画像のうちから、前記人が存在する領域の候補である候補領域を識別する識別手段、
     前記推定手段により推定された前記進入不可領域と前記識別手段により識別された前記候補領域との位置関係が予め定められた条件を満たす場合、前記対象空間における前記候補領域に対応する位置に前記人が存在すると判定する判定手段、として機能させる、
     プログラム。
PCT/JP2020/008882 2020-03-03 2020-03-03 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム WO2021176553A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022504808A JP7199593B2 (ja) 2020-03-03 2020-03-03 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
PCT/JP2020/008882 WO2021176553A1 (ja) 2020-03-03 2020-03-03 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/008882 WO2021176553A1 (ja) 2020-03-03 2020-03-03 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021176553A1 true WO2021176553A1 (ja) 2021-09-10

Family

ID=77614488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008882 WO2021176553A1 (ja) 2020-03-03 2020-03-03 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7199593B2 (ja)
WO (1) WO2021176553A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198237A (ja) * 2002-12-18 2004-07-15 Seiko Epson Corp 人体検知システム
JP2015099559A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015152314A (ja) * 2014-02-10 2015-08-24 パナソニックIpマネジメント株式会社 負荷制御システム
JP2019158756A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 人検知システムおよび人検知方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3801137B2 (ja) * 2003-01-21 2006-07-26 コニカミノルタホールディングス株式会社 侵入物体検出装置
JP5192701B2 (ja) * 2007-01-30 2013-05-08 パナソニック株式会社 人体検出装置
JP2018092507A (ja) * 2016-12-07 2018-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6961363B2 (ja) * 2017-03-06 2021-11-05 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP7084795B2 (ja) * 2017-09-07 2022-06-15 キヤノン株式会社 画像処理装置、画像提供装置、それらの制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198237A (ja) * 2002-12-18 2004-07-15 Seiko Epson Corp 人体検知システム
JP2015099559A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015152314A (ja) * 2014-02-10 2015-08-24 パナソニックIpマネジメント株式会社 負荷制御システム
JP2019158756A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 人検知システムおよび人検知方法

Also Published As

Publication number Publication date
JPWO2021176553A1 (ja) 2021-09-10
JP7199593B2 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
JP5819271B2 (ja) 空気調和機
JP6046579B2 (ja) 空気調和機
CN107305035B (zh) 空调机
JP6335425B2 (ja) 空気調和機
JP6596269B2 (ja) 空気調和機
JP5815490B2 (ja) 空気調和機
US11913663B2 (en) Air-conditioning control device and air-conditioning control system
JP2015190666A (ja) 空気調和機の室内機及びこれを用いた空気調和機
JP2017053603A (ja) 空気調和機
JP6355850B2 (ja) 判定支援装置、判定支援方法及びプログラム
JP6925530B2 (ja) 空調装置、空調システム及び温度計測方法
JP2023178497A (ja) 空気調和機
JP2016017707A (ja) 空気調和システム
WO2021176553A1 (ja) 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
JP7209869B2 (ja) 空調制御装置、空調システム、空調方法及びプログラム
JP6933013B2 (ja) 空気調和装置用コントローラー及び空気調和システム
JP7278378B2 (ja) 空調用検出装置、空調制御装置、空調装置、空調システム及び空調方法
WO2021234770A1 (ja) 制御システム、設備機器システム及び設備機器の制御方法
WO2022130513A1 (ja) 識別装置、設備機器システム及び識別方法
JP7390946B2 (ja) 空調制御装置、撮影装置、空調制御システム、空調システム及び空調制御方法
JP7374217B2 (ja) 空調制御システム、空調システム及び関連付け方法
JP2018185086A (ja) 空気調和機
JP7305040B2 (ja) 空調制御システム、空調システム、空調制御方法及び空調制御プログラム
JP7374013B2 (ja) 空調制御システム、空調システム、空調制御装置及び関連付け方法
JP7438023B2 (ja) 空気調和システム、無人飛行体および空調機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20922570

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022504808

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20922570

Country of ref document: EP

Kind code of ref document: A1