WO2023032507A1 - 位置推定システム、及び、位置推定方法 - Google Patents

位置推定システム、及び、位置推定方法 Download PDF

Info

Publication number
WO2023032507A1
WO2023032507A1 PCT/JP2022/028348 JP2022028348W WO2023032507A1 WO 2023032507 A1 WO2023032507 A1 WO 2023032507A1 JP 2022028348 W JP2022028348 W JP 2022028348W WO 2023032507 A1 WO2023032507 A1 WO 2023032507A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
space
coordinates
indoor space
communication
Prior art date
Application number
PCT/JP2022/028348
Other languages
English (en)
French (fr)
Inventor
達雄 古賀
千人 浦
仁 吉澤
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP22864095.9A priority Critical patent/EP4397988A1/en
Priority to JP2023545150A priority patent/JPWO2023032507A1/ja
Priority to CN202280051095.2A priority patent/CN117677860A/zh
Publication of WO2023032507A1 publication Critical patent/WO2023032507A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to a position estimation system and a position estimation method.
  • Patent Document 1 discloses a technique for detecting the position of a video projection device from MAC addresses and radio wave intensities of a plurality of access points.
  • the present invention provides a position estimating system and a position estimating method capable of estimating where and what kind of object is located in a given space with high accuracy.
  • a position estimation system includes an acquisition unit that acquires either image information of an image showing a space in which an object is located or temperature distribution information of the space; communication between an estimating unit that estimates the coordinates of the object in the space, a first communication device held by an object located in the space, and a plurality of second communication devices installed in the space, respectively, based on a position information acquisition unit that acquires target position information, which is position information of the target, from a positioning system that measures the position of the object based on a state; and identification information of the target that is included in the acquired target position information. is associated with the estimated coordinates and stored in a storage unit.
  • a position estimation method includes an obtaining step of obtaining either image information of an image showing a space in which an object is positioned or temperature distribution information of the space; an estimating step of estimating the coordinates of the object in the space based on, and communication between a first communication device held by an object located in the space and a plurality of second communication devices installed in the space.
  • a position information acquisition step of acquiring target position information, which is position information of the target, from a positioning system that measures the position of the object based on a state; and identification information of the target included in the acquired target position information. are stored in association with the estimated coordinates.
  • a program according to one aspect of the present invention is a program for causing a computer to execute the position estimation method.
  • the position estimation system and position estimation method of the present invention can highly accurately estimate where and what kind of object is located in a predetermined space.
  • FIG. 1 is a block diagram showing a functional configuration of a position estimation system according to Embodiment 1.
  • FIG. FIG. 2 is a diagram showing an indoor space to which the position estimation system according to Embodiment 1 is applied.
  • FIG. 3 is a flowchart of an operation example of the position estimation system according to Embodiment 1;
  • FIG. 4 is a diagram schematically showing a plurality of pieces of position information.
  • FIG. 5 is a block diagram showing the functional configuration of the position estimation system according to Embodiment 2.
  • FIG. 6 is a diagram showing an indoor space to which the position estimation system according to Embodiment 2 is applied.
  • FIG. 7 is a diagram schematically showing a thermal image.
  • FIG. 8 is a flowchart of an operation example of the position estimation system according to Embodiment 2.
  • FIG. 9 is a block diagram showing the functional configuration of the positioning system according to the modification.
  • FIG. 10 is a diagram showing an indoor space to which the positioning system according to the modification is applied.
  • each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code
  • FIG. 1 is a block diagram showing a functional configuration of a position estimation system according to Embodiment 1.
  • FIG. 2 is a diagram showing an indoor space to which the position estimation system according to Embodiment 1 is applied.
  • the position estimation system 10 is a system that acquires image information of an image of the indoor space 50 output by the camera 20 and estimates the coordinates of an object among the objects positioned in the indoor space 50 based on the acquired image information.
  • the indoor space 50 is, for example, an office space, but may be a space in a commercial facility or an indoor space in other facilities such as a space in a house.
  • the object (object) is, for example, a living organism such as person A and person B, but may be a tangible object (an object other than a person; for example, a non-living object) such as chair C.
  • the position estimation system 10 includes a camera 20, a server device 30, and a positioning system 40. Note that the position estimation system 10 may include multiple cameras 20 .
  • the camera 20 is installed, for example, on the ceiling of the indoor space 50, and images the indoor space 50 from above. Also, the camera 20 transmits image information of the captured image to the server device 30 .
  • An image captured by the camera 20 is, for example, a still image.
  • the camera 20 may capture a moving image, and the image captured by the camera 20 in this case is, for example, a still image corresponding to one frame forming the moving image.
  • Camera 20 is implemented by, for example, an image sensor.
  • the camera 20 is detachably connected to, for example, a power supply terminal of the lighting device 22 installed on the ceiling of the indoor space 50, and receives power from the lighting device 22 to operate.
  • the power supply terminal is, for example, a USB (Universal Serial Bus) terminal.
  • the camera 20 may be fixed directly to the ceiling of the indoor space 50 without the illumination device 22 interposed therebetween.
  • the camera 20 may be fixed to a wall or the like so as to capture an image of the indoor space 50 from the side.
  • the server device 30 acquires the image information generated by the camera 20, and estimates the coordinates of the object located in the indoor space 50 based on the acquired image information.
  • the server device 30 is an edge computer provided in a facility (building) that constitutes the indoor space 50, but may be a cloud computer provided outside the facility.
  • the server device 30 includes a communication section 31 , an information processing section 32 and a storage section 33 .
  • the communication unit 31 is a communication module (communication circuit) for the server device 30 to communicate with the camera 20 and the positioning system 40 .
  • the communication unit 31 receives image information from the camera 20, for example. Also, the communication unit 31 receives position information of an object located in the indoor space 50 from the positioning system 40 .
  • the communication performed by the communication unit 31 may be wireless communication or wired communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing section 32 acquires the image information received by the communication section 31 and performs information processing for estimating the coordinates of the object located in the indoor space 50 based on the acquired image information.
  • the information processing section 32 is specifically realized by a processor or a microcomputer.
  • the information processing section 32 includes an acquisition section 34 , an estimation section 35 , a position information acquisition section 36 and a control section 37 .
  • the functions of the acquisition unit 34, the estimation unit 35, the position information acquisition unit 36, and the control unit 37 are realized by the processor or microcomputer constituting the information processing unit 32 executing a computer program stored in the storage unit 33. be done. Details of functions of the acquisition unit 34, the estimation unit 35, the position information acquisition unit 36, and the control unit 37 will be described later.
  • the storage unit 33 is a storage device that stores image information and position information received by the communication unit 31, computer programs executed by the information processing unit 32, and the like.
  • the storage unit 33 also stores a machine learning model, which will be described later, and registration information indicating what kind of object the first identification information, which will be described later, specifically indicates.
  • the storage unit 33 is implemented by a semiconductor memory, HDD (Hard Disk Drive), or the like.
  • the positioning system 40 locates the object in the indoor space 50 based on the state of communication between the first communication device 41 held by the object located in the indoor space 50 and the plurality of second communication devices 42 installed in the indoor space 50 . Measure position.
  • the positioning system 40 includes a plurality of first communication devices 41 , a plurality of second communication devices 42 and a positioning server device 43 . Note that the positioning system 40 may include at least one first communication device 41 .
  • the first communication device 41 is a beacon transmitter that transmits beacon signals.
  • the first communication device 41 is, for example, a dedicated beacon transmitter, but may be a portable information terminal (such as a smart phone) capable of operating as a beacon transmitter.
  • the first communication device 41 is held by an object (person or tangible object) located in the indoor space 50 .
  • the beacon signal contains the first identification of the object on which the first communication device 41 is held.
  • the first identification information may be the identification information of the first communication device 41 itself.
  • the second communication device 42 is a beacon receiver (scanner) that receives beacon signals transmitted by the first communication device 41 .
  • the second communication device 42 measures the received signal strength (RSSI: Received Signal Strength Indicator) of the received beacon signal, and adds the first identification information contained in the beacon signal and the second The signal strength information associated with the second identification information of the communication device 42 itself is transmitted to the positioning server device 43 .
  • RSSI Received Signal Strength Indicator
  • the second communication device 42 is, for example, detachably connected to a power supply terminal of the lighting device 22 installed on the ceiling of the indoor space 50, and operates by receiving power from the lighting device 22.
  • the power supply terminal is, for example, a USB terminal.
  • the second communication device 42 may be fixed directly to the ceiling of the indoor space 50 without the lighting device 22 interposed therebetween. Also, the second communication device 42 may be fixed to a wall or the like.
  • the plurality of second communication devices 42 are two-dimensionally distributed when viewed from above.
  • the positioning server device 43 acquires the signal strength information of the beacon signal transmitted by the first communication device 41 from each of the plurality of second communication devices 42, and based on the acquired signal strength information, the first communication device 41 measures the position of the held object.
  • the positioning server device 43 is an edge computer provided in a facility (building) that constitutes the indoor space 50, but may be a cloud computer provided outside the facility.
  • the positioning server device 43 includes a communication section 44 , an information processing section 45 and a storage section 46 .
  • the communication unit 44 is a communication module (communication circuit) for the positioning server device 43 to communicate with the plurality of second communication devices 42 and the server device 30 .
  • the communication unit 44 receives signal strength information from each of the plurality of second communication devices 42, for example.
  • the communication unit 44 also transmits the position information of the object located in the indoor space 50 to the server device 30 .
  • the communication performed by the communication unit 44 may be wireless communication or wired communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing unit 45 measures the position of an object located in the indoor space 50 based on the multiple pieces of signal intensity information received by the communication unit 44, and outputs position information indicating the measured position.
  • the output position information is transmitted to the server device 30 by the communication unit 44 .
  • the information processing unit 45 stores the first identification information of the person A (the first identification information included in the beacon signal transmitted by the first communication device 41 owned by the person A) and the first identification information of the second communication device 42 itself.
  • the position of the person A is measured based on a plurality of signal strength information including the second identification information and the arrangement information indicating the arrangement (installation position) of the plurality of second communication devices 42 in the indoor space 50, and the position of the person A is measured.
  • the position information associated with the first identification information of person A (that is, the position information of person A) is output.
  • the arrangement information is specifically information that associates the second identification information of the second communication device 42 with the coordinates (two-dimensional coordinates) of the installation position of the second communication device 42 . Any existing algorithm may be used as a method of measuring a position based on a plurality of pieces of signal strength information and arrangement information.
  • the information processing section 45 is specifically realized by a processor or a microcomputer.
  • the functions of the information processing section 45 are realized by executing a computer program stored in the storage section 46 by the processor or microcomputer constituting the information processing section 45 .
  • the storage unit 46 is a storage device that stores signal strength information received by the communication unit 44, arrangement information indicating the arrangement of the plurality of second communication devices 42, computer programs executed by the information processing unit 45, and the like. .
  • the storage unit 46 also stores registration information that indicates which first identification information specifically indicates what kind of object.
  • the storage unit 46 is specifically implemented by a semiconductor memory, HDD, or the like.
  • the positioning system 40 of the beacon signal transmitted by the first communication device 41, based on the received signal strength of each of the plurality of second communication devices 42 and the arrangement information of the plurality of second communication devices 42
  • the position of the object on which the first communication device 41 is held can be measured.
  • the positioning system 40 can specifically measure where and what kind of object is located in the indoor space 50 .
  • the accuracy of the position measured by the positioning system 40 may not be very high.
  • the position estimation system 10 uses both the image information of the image captured by the camera 20 and the position information of the object provided by the positioning system 40 to estimate the position of the object with high accuracy.
  • An operation example of such a position estimation system 10 will be described below.
  • FIG. 3 is a flow chart of an example operation of the position estimation system 10 .
  • the communication unit 31 of the server device 30 receives image information from the camera 20 (S11).
  • the received image information is stored in the storage section 33 by the information processing section 32 .
  • the image information is, for example, image information of an image when the indoor space 50 is viewed from above.
  • the acquiring unit 34 acquires the image information received by the communication unit 31 and stored in the storage unit 33 (S12), and the estimating unit 35 calculates the indoor space 50 based on the acquired image information. is estimated (S13).
  • the estimating unit 35 estimates the position of the object in the image by, for example, performing object detection processing using deep learning (machine learning model) on the image information (image), and estimates the position of the object in the image. Transform the position into coordinates in the indoor space 50 .
  • the estimation unit 35 performs object detection processing based on methods such as R-CNN (Region-Convolutional Neural Network), YOLO (You Only Look at Once), or SSD (Single Shot Multibox Detector).
  • a machine learning model for performing these object detection processes is constructed using, for example, images obtained by imaging the indoor space 50 (or other indoor space) from above as learning data.
  • the storage unit 33 stores table information indicating the correspondence relationship between the positions of pixels in the image and the coordinates in the indoor space 50.
  • the estimation unit 35 uses such table information to obtain the image can be transformed into coordinates of the object in the room space 50 .
  • the coordinates of the position of the object estimated by the estimation unit 35 are two-dimensional coordinates of the indoor space 50 viewed from above. Become.
  • FIG. 4 is a diagram schematically showing a plurality of pieces of position information. As shown in FIG. 4, in each of the plurality of pieces of position information, first identification information of an object is associated with the position (coordinates) of the object. The position of the object is, for example, two-dimensional coordinates when the indoor space 50 is viewed from above.
  • the positional information acquisition unit 36 acquires a plurality of pieces of positional information received by the communication unit 31 and stored in the storage unit 33 (S15). is obtained (selected) as target position information (S16).
  • control unit 37 regards the first identification information included in the acquired target position information as the identification information of the target object, and stores it in the storage unit 33 as coordinate information in association with the coordinates estimated in step S13. (S17).
  • the coordinate information of all objects is stored in the storage unit 33 . It should be noted that which first identification information specifically indicates what kind of object is registered in the storage unit 33 in advance.
  • the coordinate information stored in this manner is provided by the control unit 37 to an information terminal (not shown) such as a personal computer or a smartphone, and visualized by the information terminal.
  • an information terminal such as a personal computer or a smartphone
  • the user viewing the display of the information terminal can easily grasp the position of the object in the indoor space 50 . If the object is a tangible object, it becomes easier to grasp the position of the tangible object and maintain the tangible object.
  • the coordinate information may be provided to a control device (not shown) that controls equipment such as an air conditioner.
  • equipment such as an air conditioner.
  • the controller can control the equipment based on the person's position in the indoor space 50 .
  • the position estimation system 10 highly accurately estimates the coordinates of an object based on image information.
  • the position estimation system 10 identifies the identification information of the object using the position information acquired from the positioning system 40 .
  • the position estimation system 10 can accurately estimate where and what kind of object is located in the indoor space 50 and manage where and what kind of object is located in the indoor space 50 .
  • the estimation unit 35 estimates the coordinates of the object in the indoor space 50 by performing object detection processing on the image information (image) acquired by the acquisition unit 34 .
  • the estimation unit 35 may perform a process of dividing the image into regions.
  • the estimation unit 35 may perform segmentation using deep learning (machine learning model).
  • the estimation unit 35 can estimate the coordinates of the object in the indoor space 50 based on the position of the area in the image where the object is shown.
  • a machine learning model for performing segmentation is constructed, for example, using images obtained by imaging the indoor space 50 (or other indoor space) from above as learning data.
  • FIG. 5 is a block diagram showing the functional configuration of the position estimation system according to Embodiment 2.
  • FIG. 6 is a diagram showing an indoor space 50 to which the position estimation system according to Embodiment 2 is applied.
  • the position estimation system 10a acquires temperature distribution information indicating the temperature distribution of the indoor space 50 output by the infrared sensor 21, and based on the acquired temperature distribution information, coordinates of the object among the objects located in the indoor space 50. is a system for estimating
  • the position estimation system 10a includes an infrared sensor 21, a server device 30, and a positioning system 40. That is, the position estimation system 10a includes an infrared sensor 21 instead of the camera 20.
  • the position estimation system 10a may include a plurality of infrared sensors 21 .
  • the components other than the infrared sensor 21 are the same as those in the first embodiment, so detailed description thereof will be omitted.
  • the infrared sensor 21 is installed, for example, on the ceiling of the indoor space 50, and generates temperature distribution information (hereinafter also referred to as a thermal image) indicating the temperature distribution when the indoor space 50 is viewed from above.
  • the temperature distribution information is transmitted to the server device 30 .
  • the infrared sensor 21 is, for example, an infrared array sensor (thermal image sensor) configured by an array of 8 ⁇ 8 infrared detection elements. In other words, the thermal image produced by infrared sensor 21 has 8 ⁇ 8 pixels.
  • the thermal image shows the temperature distribution in the sensing range of the infrared sensor 21 with a resolution of 8x8.
  • FIG. 7 is a diagram schematically showing a thermal image. Each of the 8 ⁇ 8 small regions in FIG. 7 means a pixel included in the thermal image.
  • a numerical value in a pixel is a pixel value, and specifically indicates a temperature.
  • the temperature here is the surface temperature of the indoor space 50 .
  • the infrared sensor 21 is not limited to an infrared array sensor, and may be, for example, a sensor that scans the indoor space 50 with a single infrared detection element, or an infrared image sensor with relatively high resolution. good.
  • the infrared sensor 21 is detachably connected to, for example, a power supply terminal of the lighting device 22 installed on the ceiling of the indoor space 50, and receives power from the lighting device 22 to operate.
  • the power supply terminal is, for example, a USB terminal.
  • the infrared sensor 21 may be fixed directly to the ceiling of the indoor space 50 without the illumination device 22 interposed therebetween. Further, the infrared sensor 21 may be fixed to a wall or the like to generate a thermal image showing the temperature distribution when the indoor space 50 is viewed from the side.
  • the position estimation system 10a uses both the temperature distribution information from the infrared sensor 21 and the object position information provided by the positioning system 40 to estimate the position of the object with high accuracy.
  • the object here is an object having a temperature difference from its surroundings, such as a person (living organism), but may be a tangible object (an object other than a person) having a temperature difference from its surroundings.
  • An operation example of such a position estimation system 10a will be described below.
  • FIG. 8 is a flowchart of an operation example of the position estimation system 10a.
  • the communication unit 31 of the server device 30 receives the temperature distribution information from the infrared sensor 21 (S21).
  • the received temperature distribution information is stored in the storage unit 33 by the information processing unit 32 .
  • the temperature distribution information indicates, for example, the temperature distribution when the indoor space 50 is viewed from above.
  • the acquisition unit 34 acquires the temperature distribution information received by the communication unit 31 and stored in the storage unit 33 (S22), and the estimation unit 35 applies the super-resolution technique to the acquired temperature distribution information. is applied to increase the resolution of the temperature distribution information (S23).
  • the temperature distribution information is referred to as a thermal image.
  • the estimation unit 35 increases the resolution of the thermal image by applying SRGAN (Generative Adversarial Network for Super-Resolution) to the thermal image.
  • SRGAN Geneative Adversarial Network for Super-Resolution
  • the method for increasing the resolution of the thermal image is not limited to SRGAN, and the estimation unit 35 may increase the resolution of the thermal image by applying SRCNN (Super-Resolution Convolutional Neural Network) to the thermal image.
  • SRCNN Super-Resolution Convolutional Neural Network
  • a high-resolution thermal image can be generated from the inexpensive infrared sensor 21. It should be noted that the application of the super-resolution technique to the thermal image is not essential, and the processing for increasing the resolution of the thermal image may be omitted.
  • the estimation unit 35 estimates the coordinates of the object in the indoor space 50 based on the thermal image (temperature distribution information) to which the super-resolution technology has been applied (S24).
  • the estimating unit 35 estimates the position of the object in the thermal image by, for example, performing object detection processing using deep learning (machine learning model) on the thermal image, and calculates the position of the object in the thermal image. to coordinates in the indoor space 50 .
  • the estimation unit 35 performs object detection processing based on techniques such as R-CNN, YOLO, or SSD.
  • the machine learning model for performing these object detection processes is constructed from a thermal image obtained by imaging the indoor space 50 (or other indoor space) from above, instead of general color images, as learning data. be done.
  • the storage unit 33 also stores table information indicating the correspondence between the positions of pixels in the thermal image and the coordinates in the indoor space 50.
  • the estimation unit 35 uses such table information to The object's position in the thermal image can be transformed into the object's coordinates in the room space 50 .
  • the coordinates of the position of the object estimated by the estimation unit 35 are two-dimensional coordinates when the indoor space 50 is viewed from above. coordinates.
  • steps S25 to S28 are the same as the processes of steps S14 to S17 of the first embodiment.
  • the position estimation system 10a highly accurately estimates the coordinates of the object based on the temperature distribution information.
  • the position estimation system 10a identifies the target using the position information acquired from the positioning system 40 for the identification information of the target.
  • the position estimation system 10a can estimate with high accuracy where and what kind of object is located in the indoor space 50 and can manage where and what kind of object is located in the indoor space 50 .
  • the estimation unit 35 estimates the coordinates of the object in the indoor space 50 by performing object detection processing on the thermal image acquired by the acquisition unit 34 .
  • the estimation unit 35 may perform a process of segmenting the thermal image.
  • the estimation unit 35 may perform segmentation using deep learning (machine learning model).
  • the estimating unit 35 can estimate the coordinates of the object in the indoor space 50 based on the position of the area in which the object is shown in the thermal image.
  • a machine learning model for performing segmentation is constructed, for example, using thermal images obtained by imaging the indoor space 50 (or other indoor space) from above as learning data.
  • the estimation unit 35 may estimate the coordinates of the object by performing information processing on the thermal image based on a rule-based algorithm that does not use a machine learning model. For example, the estimating unit 35 may perform a process of detecting a pixel having a maximum pixel value among a plurality of pixels included in the thermal image.
  • a pixel having a maximum pixel value means a pixel having a maximum pixel value in a two-dimensional arrangement of pixels.
  • a pixel having a maximum pixel value means, in other words, a pixel having a higher pixel value than surrounding pixels when comparing pixel values at the same time in a two-dimensional arrangement of pixels.
  • the estimating unit 35 detects a pixel having a maximum pixel value and a pixel value equal to or greater than a predetermined value (for example, 30° C. or greater), the estimation unit 35 determines that an object exists in the indoor space 50. can be estimated.
  • a predetermined value for example, 30° C. or greater
  • the estimating unit 35 applies the table information to the position of the pixel having the maximum pixel value and having the pixel value equal to or higher than a predetermined value (for example, 30° C. or higher), thereby determining the indoor space.
  • a predetermined value for example, 30° C. or higher
  • Another example of information processing based on a rule-based algorithm is processing that detects temporal changes in the pixel values (temperature) of each of a plurality of pixels included in a thermal image. Assuming that there is no heat source other than the object in the indoor space 50, and if there is no object in the indoor space 50, the pixel values (temperatures) of the plurality of pixels included in the thermal image change slowly over time. be. In this state, when an object enters the indoor space 50, the pixel values of the pixels in the part where the object is shown in the thermal image change (increase) abruptly.
  • the estimating unit 35 can estimate that an object exists in the indoor space 50 when the pixel value suddenly increases by monitoring the temporal change of the pixel value of each of the plurality of pixels.
  • the estimation unit 35 can estimate the coordinates of the position of the object in the indoor space 50 by applying the table information described above to the position of the pixel whose pixel value has increased sharply.
  • the positioning system 40 measures the position of the object holding the first communication device 41 based on the received signal strength of the beacon signal transmitted by the first communication device 41 at each of the plurality of second communication devices 42 .
  • position estimation system 10 or position estimation system 10a may include another positioning system instead of positioning system 40 .
  • Another positioning system measures the position of the object held by the first communication device, for example, based on the received signal strength at the first communication device of the beacon signal transmitted by each of the plurality of second communication devices. It is a positioning system. That is, the position estimation system 10 or the position estimation system 10a may include a positioning system in which the relationship between the positioning system 40 and beacon signal transmission and reception is reversed.
  • FIG. 9 is a block diagram showing the functional configuration of the positioning system according to the modification.
  • FIG. 10 is a diagram showing an indoor space 50 to which the positioning system according to the modification is applied.
  • the positioning system 60 includes a first communication device 61 held by an object located in the indoor space 50 and a plurality of second communication devices 62 installed in the indoor space 50. The position of the object in the indoor space 50 is measured based on the communication state.
  • the positioning system 60 includes a plurality of first communication devices 61 , a plurality of second communication devices 62 and a positioning server device 63 .
  • the positioning system 60 may include at least one first communication device 61 .
  • the first communication device 61 is a beacon receiver (scanner) that receives beacon signals transmitted by each of the plurality of second communication devices 62 .
  • the first communication device 61 measures the received signal strength indicator (RSSI) of the received beacon signal, and adds the second identification information of the second communication device 62 included in the beacon signal to the measured received signal strength. 1.
  • the communication device 61 transmits the signal strength information associated with the first identification information of the held object to the positioning server device 63 .
  • the first identification information may be identification information of the first communication device 61 itself.
  • the first communication device 61 is, for example, a portable information terminal (smartphone, etc.) capable of operating as a beacon receiver, but may be a dedicated beacon receiver. As shown in FIG. 10 , the first communication device 61 is held by an object (person or tangible object) located in the indoor space 50 .
  • the second communication device 62 is a beacon transmitter that transmits beacon signals.
  • the beacon signal includes second identification information of the second communication device 62 .
  • the second communication device 62 is detachably connected to, for example, a power supply terminal of the lighting device 22 installed on the ceiling of the indoor space 50, and operates by receiving power from the lighting device 22. .
  • the power supply terminal is, for example, a USB terminal.
  • the second communication device 62 may be fixed directly to the ceiling of the indoor space 50 without the illumination device 22 interposed therebetween. Also, the second communication device 62 may be fixed to a wall or the like. Note that, as shown in FIG. 10, the plurality of second communication devices 62 are two-dimensionally distributed when viewed from above.
  • the positioning server device 63 acquires from the first communication device 61 a plurality of pieces of signal strength information corresponding to the plurality of second communication devices 62, and based on the acquired plurality of signal strength information, a first position located in the indoor space 50.
  • One communication device 61 measures the position of the held object.
  • the positioning server device 63 is an edge computer provided in the facility (building) that constitutes the indoor space 50, but may be a cloud computer provided outside the facility.
  • the positioning server device 63 includes a communication section 64 , an information processing section 65 and a storage section 66 .
  • the communication unit 64 is a communication module (communication circuit) for the positioning server device 63 to communicate with the plurality of first communication devices 61 and the server device 30 .
  • the communication unit 64 receives, for example, a plurality of pieces of signal strength information corresponding to the plurality of second communication devices 62 from each of the plurality of first communication devices 61 .
  • the communication unit 64 also transmits the position information of the object located in the indoor space 50 to the server device 30 .
  • the communication performed by the communication unit 64 may be wireless communication or wired communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing unit 65 measures the position of the object located in the indoor space 50 based on the multiple pieces of signal intensity information received by the communication unit 64, and outputs position information indicating the measured position.
  • the output position information is transmitted to the server device 30 by the communication unit 64 .
  • the information processing unit 65 receives a plurality of signal strength information corresponding to a plurality of second communication devices 62 transmitted by the first communication device 61 possessed by the person A, and a plurality of second communication devices in the indoor space 50. 62, the position of the person A is measured, and the measured position is associated with the first identification information of the person A (that is, the position information of the person A).
  • Any existing algorithm may be used as a method of measuring a position based on a plurality of pieces of signal strength information and arrangement information.
  • the information processing section 65 is specifically realized by a processor or a microcomputer.
  • the functions of the information processing section 65 are realized by executing a computer program stored in the storage section 66 by a processor or microcomputer constituting the information processing section 65 .
  • the storage unit 66 is a storage device that stores signal strength information received by the communication unit 64, arrangement information indicating the arrangement of the plurality of second communication devices 62, computer programs executed by the information processing unit 65, and the like. .
  • the storage unit 66 is specifically implemented by a semiconductor memory, HDD, or the like.
  • the positioning system 60 determines the position of the object held by the first communication device 61 based on the received signal strength of the beacon signal transmitted by each of the plurality of second communication devices 62 at the first communication device 61. can be measured.
  • the positioning system 60 can specifically measure where and what kind of object is located in the indoor space 50 .
  • Position estimation system 10 or position estimation system 10 a may include positioning system 60 instead of positioning system 40 .
  • the location information acquisition unit 36 of the server device 30 acquires location information from the positioning system 60 .
  • the position estimating system 10 or the position estimating system 10a acquires either the image information of the image showing the indoor space 50 where the object is located or the temperature distribution information of the indoor space 50.
  • an estimating unit 35 for estimating the coordinates of an object in the indoor space 50 based on the acquired information; a first communication device held by an object located in the indoor space 50;
  • a position information acquisition unit 36 for acquiring target position information, which is position information of a target object, from a positioning system that measures the position of an object based on the state of communication with each of the plurality of second communication devices, and the acquired target position information and a control unit 37 that stores the identification information of the object included in the storage unit 33 in association with the estimated coordinates.
  • the positioning system here is the positioning system 40 or the positioning system 60, the first communication device is the first communication device 41 or the first communication device 61, and the second communication device is the second communication device 42 or the second communication device.
  • Two communication devices 62 are the positioning system 40 or the positioning system 60, the first communication device is the first
  • Such a position estimation system 10 or position estimation system 10a is capable of estimating where and what kind of object is located in the indoor space 50 with high accuracy.
  • the position information acquisition unit 36 acquires from the positioning system a plurality of pieces of position information each indicating the position of an object located in the indoor space 50, and among the plurality of acquired pieces of position information, the estimated coordinates are the most Positional information indicating the position of a nearby object is acquired as target positional information.
  • Such a position estimation system 10 or position estimation system 10a can specify the identification information of the object based on the distance relationship between the estimated coordinates of the object and the position indicated by the position information.
  • the acquisition unit 34 acquires image information of an image when the indoor space 50 is viewed from above, and the estimation unit 35 estimates coordinates based on the acquired image information.
  • the coordinates are two-dimensional coordinates when the indoor space 50 is viewed from above.
  • Such a position estimation system 10 can highly accurately estimate where and what kind of object is located in the indoor space 50 based on the image information.
  • the acquiring unit 34 acquires temperature distribution information indicating the temperature distribution of the indoor space 50 when the indoor space 50 is viewed from above, and the estimating unit 35 acquires the acquired temperature distribution information. Estimate the coordinates based on The coordinates are two-dimensional coordinates when the indoor space 50 is viewed from above.
  • Such a position estimation system 10 can highly accurately estimate where and what kind of object is located in the indoor space 50 based on the temperature distribution information.
  • the positioning system 40 measures the position of the object based on the received signal strength of the beacon signal transmitted by the first communication device 41 in each of the plurality of second communication devices 42 .
  • Such a position estimation system 10 or position estimation system 10a can highly accurately estimate where and what kind of object is located in the indoor space 50 based on the position information provided by the positioning system 40.
  • the positioning system 60 measures the position of an object based on the received signal strength of the beacon signal transmitted by each of the plurality of second communication devices 62 at the first communication device 61 .
  • Such a position estimation system 10 or position estimation system 10a can highly accurately estimate where and what kind of object is located in the indoor space 50 based on the position information provided by the positioning system 60.
  • the object is a person.
  • Such a position estimation system 10 or position estimation system 10a can estimate who is located where in the indoor space 50 with high accuracy.
  • the target object is an object other than a person.
  • Such a position estimation system 10 or position estimation system 10a can highly accurately estimate where and what kind of tangible object is located in the indoor space 50.
  • the position estimation method executed by a computer such as the position estimation system 10 or the position estimation system 10a is either image information of an image showing the indoor space 50 where the object is located, or temperature distribution information of the indoor space 50.
  • Such a position estimation method can highly accurately estimate what kind of object is located where in the indoor space 50 .
  • the position estimation system is implemented by a plurality of devices, but may be implemented as a single device.
  • the position estimation system may be implemented as a single device that corresponds to the server device.
  • each component included in the position estimation system may be distributed to the plurality of devices in any way.
  • part or all of the functions of the positioning server device may be provided by the server device.
  • processing executed by a specific processing unit may be executed by another processing unit.
  • order of multiple processes may be changed, and multiple processes may be executed in parallel.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
  • each component may be realized by hardware.
  • each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits. These circuits may be general-purpose circuits or dedicated circuits.
  • the present invention may be implemented in a system, apparatus, method, integrated circuit, computer program, or recording medium such as a computer-readable CD-ROM.
  • any combination of systems, devices, methods, integrated circuits, computer programs and recording media may be implemented.
  • the present invention may be implemented as a computer-implemented position estimation method, such as a position estimation system.
  • the present invention may be implemented as a program for causing a computer to execute a position estimation method, or as a computer-readable non-temporary recording medium storing such a program. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

位置推定システム(10)は、対象物が位置する室内空間が映る画像の画像情報、を取得する取得部(34)と、取得された画像情報に基づいて、室内空間における対象物の座標を推定する推定部(35)と、測位システム(40)から対象物の位置情報である対象位置情報を取得する位置情報取得部(36)と、取得された対象位置情報に含まれる対象物の識別情報を、推定された座標に対応付けて記憶する制御部(37)とを備える。

Description

位置推定システム、及び、位置推定方法
 本発明は、位置推定システム、及び、位置推定方法に関する。
 物体の位置を推定する技術が知られている。特許文献1には、複数のアクセスポイントのMACアドレスと電波強度から映像投影装置の位置を検出する技術が開示されている。
特開2014-048416号公報
 本発明は、所定の空間のどこにどのような物体が位置するかを高精度に推定することができる、位置推定システム、及び、位置推定方法を提供する。
 本発明の一態様に係る位置推定システムは、対象物が位置する空間が映る画像の画像情報、及び、前記空間の温度分布情報のいずれかの情報を取得する取得部と、取得された前記情報に基づいて、前記空間における前記対象物の座標を推定する推定部と、前記空間に位置する物体に保持された第一通信装置と前記空間に設置された複数の第二通信装置それぞれとの通信状態に基づいて前記物体の位置を計測する測位システムから前記対象物の位置情報である対象位置情報を取得する位置情報取得部と、取得された前記対象位置情報に含まれる前記対象物の識別情報を、推定された前記座標に対応付けて記憶部に記憶する制御部とを備える。
 本発明の一態様に係る位置推定方法は、対象物が位置する空間が映る画像の画像情報、及び、前記空間の温度分布情報のいずれかの情報を取得する取得ステップと、取得された前記情報に基づいて、前記空間における前記対象物の座標を推定する推定ステップと、前記空間に位置する物体に保持された第一通信装置と前記空間に設置された複数の第二通信装置それぞれとの通信状態に基づいて前記物体の位置を計測する測位システムから前記対象物の位置情報である対象位置情報を取得する位置情報取得ステップと、取得された前記対象位置情報に含まれる前記対象物の識別情報を、推定された前記座標に対応付けて記憶する記憶ステップとを含む。
 本発明の一態様に係るプログラムは、前記位置推定方法をコンピュータに実行させるためのプログラムである。
 本発明の位置推定システム、及び、位置推定方法は、所定の空間のどこにどのような物体が位置するかを高精度に推定することができる。
図1は、実施の形態1に係る位置推定システムの機能構成を示すブロック図である。 図2は、実施の形態1に係る位置推定システムが適用される室内空間を示す図である。 図3は、実施の形態1に係る位置推定システムの動作例のフローチャートである。 図4は、複数の位置情報を模式的に示す図である。 図5は、実施の形態2に係る位置推定システムの機能構成を示すブロック図である。 図6は、実施の形態2に係る位置推定システムが適用される室内空間を示す図である。 図7は、熱画像を模式的に示す図である。 図8は、実施の形態2に係る位置推定システムの動作例のフローチャートである。 図9は、変形例に係る測位システムの機能構成を示すブロック図である。 図10は、変形例に係る測位システムが適用される室内空間を示す図である。
 以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 (実施の形態1)
 [構成]
 まず、実施の形態1に係る位置推定システムの構成について説明する。図1は、実施の形態1に係る位置推定システムの機能構成を示すブロック図である。図2は、実施の形態1に係る位置推定システムが適用される室内空間を示す図である。
 位置推定システム10は、カメラ20によって出力される室内空間50の画像の画像情報を取得し、取得した画像情報に基づいて室内空間50に位置する物体のうちの対象物の座標を推定するシステムである。室内空間50は、例えば、オフィス空間であるが、商業施設内の空間、または、住宅内の空間などのその他の施設内の室内空間であってもよい。対象物(物体)は、例えば、人A及び人Bなどの生命体であるが、イスCなどの有体物(人以外の物体。例えば、非生命体)であってもよい。
 図1及び図2に示されるように、位置推定システム10は、カメラ20と、サーバ装置30と、測位システム40とを備える。なお、位置推定システム10は、カメラ20を複数備えてもよい。
 カメラ20は、例えば、室内空間50の天井などに設置され、室内空間50を上方から撮像する。また、カメラ20は、撮像した画像の画像情報をサーバ装置30へ送信する。カメラ20によって撮像される画像は、例えば、静止画である。カメラ20は、動画を撮像してもよく、この場合のカメラ20によって撮像される画像は、例えば、動画を構成する1つのフレームに相当する静止画である。カメラ20は、例えば、イメージセンサなどによって実現される。
 図2に示されるように、カメラ20は、例えば、室内空間50の天井に設置された照明装置22が有する給電端子に着脱自在に接続され、照明装置22から給電を受けて動作する。給電端子は、例えば、USB(Universal Serial Bus)端子である。カメラ20は、照明装置22を介さずに室内空間50の天井に直接固定されていてもよい。また、カメラ20は、壁などに固定されることにより、室内空間50を側方から撮像してもよい。
 サーバ装置30は、カメラ20によって生成された画像情報を取得し、取得した画像情報に基づいて、室内空間50に位置する対象物の座標を推定する。サーバ装置30は、室内空間50を構成する施設(建物)に設けられたエッジコンピュータであるが、当該施設外に設けられたクラウドコンピュータであってもよい。サーバ装置30は、通信部31と、情報処理部32と、記憶部33とを備える。
 通信部31は、サーバ装置30がカメラ20及び測位システム40と通信するための通信モジュール(通信回路)である。通信部31は、例えば、カメラ20から画像情報を受信する。また、通信部31は、測位システム40から室内空間50に位置する物体の位置情報を受信する。通信部31によって行われる通信は、無線通信であってもよいし、有線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部32は、通信部31によって受信された画像情報を取得し、取得した画像情報に基づいて室内空間50に位置する対象物の座標を推定するための情報処理を行う。情報処理部32は、具体的には、プロセッサまたはマイクロコンピュータによって実現される。情報処理部32は、取得部34と、推定部35と、位置情報取得部36と、制御部37とを備える。取得部34、推定部35、位置情報取得部36、及び、制御部37の機能は、情報処理部32を構成するプロセッサまたはマイクロコンピュータが記憶部33に記憶されたコンピュータプログラムを実行することによって実現される。取得部34、推定部35、位置情報取得部36、及び、制御部37の機能の詳細については後述される。
 記憶部33は、通信部31によって受信された画像情報及び位置情報、並びに、情報処理部32が実行するコンピュータプログラムなどが記憶される記憶装置である。記憶部33には、後述の機械学習モデル、及び、後述の第一識別情報が具体的にどのような物体を示すかを表す登録情報なども記憶される。記憶部33は、具体的には、半導体メモリまたはHDD(Hard Disk Drive)などによって実現される。
 測位システム40は、室内空間50に位置する物体に保持された第一通信装置41と室内空間50に設置された複数の第二通信装置42それぞれとの通信状態に基づいて室内空間50における物体の位置を計測する。測位システム40は、複数の第一通信装置41と、複数の第二通信装置42と、測位用サーバ装置43とを備える。なお、測位システム40は、少なくとも1つの第一通信装置41を備えればよい。
 第一通信装置41は、ビーコン信号を送信するビーコン送信機である。第一通信装置41は、例えば、専用のビーコン送信機であるが、ビーコン送信機として動作することが可能な携帯型の情報端末(スマートフォンなど)であってもよい。図2に示されるように、第一通信装置41は、室内空間50に位置する物体(人または有体物)に保持される。ビーコン信号には、第一通信装置41が保持される物体の第一識別情報が含まれる。第一識別情報は、第一通信装置41自体の識別情報である場合もある。
 第二通信装置42は、第一通信装置41によって送信されるビーコン信号を受信するビーコン受信機(スキャナ)である。また、第二通信装置42は、受信したビーコン信号の受信信号強度(RSSI:Received Signal Strength Indicator)を計測し、計測した受信信号強度に、ビーコン信号に含まれる第一識別情報、及び、第二通信装置42自体の第二識別情報を対応付けた信号強度情報を測位用サーバ装置43へ送信する。
 図2に示されるように、第二通信装置42は、例えば、室内空間50の天井に設置された照明装置22が有する給電端子に着脱自在に接続され、照明装置22から給電を受けて動作する。給電端子は、例えば、USB端子である。第二通信装置42は、照明装置22を介さずに室内空間50の天井に直接固定されていてもよい。また、第二通信装置42は、壁などに固定されてもよい。なお、図2に示されるように、複数の第二通信装置42は、上方から見て二次元的に分散配置されている。
 測位用サーバ装置43は、複数の第二通信装置42のそれぞれから、第一通信装置41が送信するビーコン信号の信号強度情報を取得し、取得した信号強度情報に基づいて、第一通信装置41が保持された物体の位置を計測する。測位用サーバ装置43は、室内空間50を構成する施設(建物)に設けられたエッジコンピュータであるが、当該施設外に設けられたクラウドコンピュータであってもよい。測位用サーバ装置43は、通信部44と、情報処理部45と、記憶部46とを備える。
 通信部44は、測位用サーバ装置43が複数の第二通信装置42、及び、サーバ装置30と通信するための通信モジュール(通信回路)である。通信部44は、例えば、複数の第二通信装置42のそれぞれから信号強度情報を受信する。また、通信部44は、サーバ装置30へ室内空間50に位置する物体の位置情報を送信する。通信部44によって行われる通信は、無線通信であってもよいし、有線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部45は、通信部44によって受信された複数の信号強度情報に基づいて室内空間50に位置する物体の位置を計測し、計測した位置を示す位置情報を出力する。出力された位置情報は、通信部44によってサーバ装置30へ送信される。
 例えば、情報処理部45は、人Aの第一識別情報(人Aが所持する第一通信装置41が送信するビーコン信号に含まれる第一識別情報)、及び、第二通信装置42自体の第二識別情報を含む複数の信号強度情報と、室内空間50における複数の第二通信装置42の配置(設置位置)を示す配置情報とに基づいて、人Aの位置を計測し、計測した位置に人Aの第一識別情報を対応付けた位置情報(つまり、人Aの位置情報)を出力する。配置情報は、具体的には、第二通信装置42の第二識別情報と第二通信装置42の設置位置の座標(二次元座標)とを対応付けた情報である。複数の信号強度情報及び配置情報に基づいて位置を計測する方法については、既存のどのようなアルゴリズムが用いられてもよい。
 情報処理部45は、具体的には、プロセッサまたはマイクロコンピュータによって実現される。情報処理部45の機能は、情報処理部45を構成するプロセッサまたはマイクロコンピュータが記憶部46に記憶されたコンピュータプログラムを実行することによって実現される。
 記憶部46は、通信部44によって受信された信号強度情報、複数の第二通信装置42の配置を示す配置情報、及び、情報処理部45が実行するコンピュータプログラムなどが記憶される記憶装置である。また、記憶部46には、どの第一識別情報が具体的にどのような物体を示すかを表す登録情報も記憶されている。記憶部46は、具体的には、半導体メモリまたはHDDなどによって実現される。
 [動作例]
 上述のように測位システム40は、第一通信装置41が送信するビーコン信号の、複数の第二通信装置42のそれぞれにおける受信信号強度、及び、複数の第二通信装置42の配置情報に基づいて第一通信装置41が保持されている物体の位置を計測することができる。測位システム40は、具体的には室内空間50のどこにどのような物体が位置するかを計測することができる。しかしながら、測位システム40によって計測される位置の精度はあまり高くない場合がある。
 そこで、位置推定システム10は、カメラ20によって撮像される画像の画像情報と、測位システム40によって提供される物体の位置情報とを併用することで、高精度に対象物の位置を推定する。以下、このような位置推定システム10の動作例について説明する。図3は、位置推定システム10の動作例のフローチャートである。
 サーバ装置30の通信部31は、カメラ20から画像情報を受信する(S11)。受信された画像情報は、情報処理部32によって記憶部33に記憶される。上述のように、画像情報は、例えば、室内空間50を上方から見たときの画像の画像情報である。
 次に、取得部34は、通信部31によって受信され、かつ、記憶部33に記憶された画像情報を取得し(S12)、推定部35は、取得された画像情報に基づいて、室内空間50における対象物の座標を推定する(S13)。
 推定部35は、例えば、ディープラーニング(機械学習モデル)を用いた物体検出処理を画像情報(画像)に対して行うことにより、画像内における対象物の位置を推定し、画像内の対象物の位置を室内空間50における座標に変換する。推定部35は、具体的には、R-CNN(Region-Convolutional Neural Network)、YOLO(You Only Look at Once)、または、SSD(Single Shot Multibox Detector)などの手法に基づく物体検出処理を行う。これらの物体検出処理を行うための機械学習モデルは、例えば、室内空間50(あるいは他の室内空間)を上方から撮像することによって得られる画像を学習データとして構築される。
 また、記憶部33には、画像内の画素の位置と、室内空間50における座標との対応関係を示すテーブル情報が記憶されており、推定部35は、このようなテーブル情報を用いて、画像内における対象物の位置を室内空間50における対象物の座標に変換することができる。
 なお、画像が室内空間50を上方から見たときの画像である場合には、推定部35によって推定される対象物の位置の座標は、室内空間50を上方から見たときの二次元座標となる。
 次に、通信部31は、各々が室内空間50に位置する物体の位置を示す複数の位置情報を測位用サーバ装置43から受信する(S14)。受信された複数の位置情報は、情報処理部32によって記憶部33に記憶される。図4は、複数の位置情報を模式的に示す図である。図4に示されるように、複数の位置情報のそれぞれにおいては、物体の第一識別情報と、当該物体の位置(座標)とが対応付けられている。物体の位置は、例えば、室内空間50を上方から見たときの二次元座標である。
 次に、位置情報取得部36は、通信部31によって受信され、かつ、記憶部33に記憶された複数の位置情報を取得し(S15)、取得した複数の位置情報のうち、推定された座標の最も近くにある物体の位置を示す位置情報を対象位置情報として取得(選択)する(S16)。
 次に、制御部37は、取得された対象位置情報に含まれる第一識別情報を対象物の識別情報とみなし、ステップS13において推定された座標に対応付けて座標情報として記憶部33に記憶する(S17)。
 ステップS13~ステップS17の処理が室内空間50に位置する全ての物体を対象物として行われれば、全ての物体の座標情報が記憶部33に記憶される。なお、どの第一識別情報が具体的にどのような物体を示すかは、あらかじめ記憶部33に登録されている。
 このように記憶された座標情報は、例えば、制御部37により、パーソナルコンピュータまたはスマートフォンなどの情報端末(図示せず)に提供され、当該情報端末によって可視化される。これにより、情報端末のディスプレイを視認するユーザは室内空間50における物体の位置を容易に把握することができる。物体が有体物である場合には、有体物の位置の把握、及び、有体物のメンテナンスなどが容易になる。
 また、座標情報は、空気調和機などの機器を制御する制御装置(図示せず)に提供されてもよい。例えば、対象物が人である場合には、制御装置は、室内空間50における人の位置に基づいて機器を制御することができる。
 以上説明したように、位置推定システム10は、画像情報に基づいて対象物の座標を高精度に推定する。一方、画像情報に基づいて対象物を識別することは難しい場合があるが、位置推定システム10は、対象物の識別情報については測位システム40から取得した位置情報を用いて特定する。これにより、位置推定システム10は、室内空間50のどこにどのような物体が位置するかを高精度に推定し、室内空間50のどこにどのような物体が位置するかを管理することができる。
 上記の動作例では、推定部35は、取得部34によって取得された画像情報(画像)に対して物体検出処理を行うことで室内空間50における対象物の座標を推定した。しかしながら、推定部35は、画像を領域分割する処理を行ってもよい。推定部35は、具体的には、ディープラーニング(機械学習モデル)を用いたセグメンテーションを行ってもよい。推定部35は、画像内の当該対象物が映る領域の位置に基づいて、室内空間50における対象物の座標を推定することができる。セグメンテーションを行うための機械学習モデルは、例えば、室内空間50(あるいは他の室内空間)を上方から撮像することによって得られる画像を学習データとして構築される。
 (実施の形態2)
 [構成]
 次に、実施の形態2に係る位置推定システムの構成について説明する。図5は、実施の形態2に係る位置推定システムの機能構成を示すブロック図である。図6は、実施の形態2に係る位置推定システムが適用される室内空間50を示す図である。
 位置推定システム10aは、赤外線センサ21によって出力される室内空間50の温度分布を示す温度分布情報を取得し、取得した温度分布情報に基づいて室内空間50に位置する物体のうちの対象物の座標を推定するシステムである。
 図5及び図6に示されるように、位置推定システム10aは、赤外線センサ21と、サーバ装置30と、測位システム40とを備える。つまり、位置推定システム10aは、カメラ20に代えて赤外線センサ21を備える。なお、位置推定システム10aは、赤外線センサ21を複数備えてもよい。
 位置推定システム10aが備える構成要素のうち、赤外線センサ21以外の構成要素については実施の形態1と同様であるため詳細な説明が省略される。
 赤外線センサ21は、例えば、室内空間50の天井などに設置され、室内空間50を上方から見たときの温度分布を示す温度分布情報(以下、熱画像とも記載される)を生成し、生成した温度分布情報をサーバ装置30へ送信する。赤外線センサ21は、例えば、8×8個の赤外線検出素子のアレイによって構成される赤外線アレイセンサ(熱画像センサ)である。言い換えれば、赤外線センサ21によって生成される熱画像は、8×8個の画素を有する。
 熱画像は、赤外線センサ21のセンシング範囲における温度分布を8×8の分解能で示す。図7は、熱画像を模式的に示す図である。図7の8×8個の小領域のそれぞれは熱画像に含まれる画素を意味する。画素中の数値は画素値であり、具体的には温度を示している。ここでの温度は、室内空間50の表面温度である。以下の実施の形態2では、説明の簡略化のため、画素値=温度値として説明が行われる。
 なお、赤外線センサ21は、赤外線アレイセンサに限定されず、例えば、単一の赤外線検出素子で室内空間50をスキャンするセンサであってもよいし、比較的解像度の高い赤外線イメージセンサであってもよい。
 図6に示されるように、赤外線センサ21は、例えば、室内空間50の天井に設置された照明装置22が有する給電端子に着脱自在に接続され、照明装置22から給電を受けて動作する。給電端子は、例えば、USB端子である。赤外線センサ21は、照明装置22を介さずに室内空間50の天井に直接固定されていてもよい。また、赤外線センサ21は、壁などに固定されることにより、室内空間50を側方から見たときの温度分布を示す熱画像を生成してもよい。
 [動作例]
 位置推定システム10aは、赤外線センサ21によって温度分布情報と、測位システム40によって提供される物体の位置情報とを併用することで、高精度に対象物の位置を推定する。ここでの対象物は、周囲と温度差のある物体であり、例えば、人(生命体)であるが、周囲と温度差のある有体物(人以外の物体)であってもよい。以下、このような位置推定システム10aの動作例について説明する。図8は、位置推定システム10aの動作例のフローチャートである。
 サーバ装置30の通信部31は、赤外線センサ21から温度分布情報を受信する(S21)。受信された温度分布情報は、情報処理部32によって記憶部33に記憶される。上述のように、温度分布情報は、例えば、室内空間50を上方から見たときの温度分布を示す。
 次に、取得部34は、通信部31によって受信され、かつ、記憶部33に記憶された温度分布情報を取得し(S22)、推定部35は、取得された温度分布情報に超解像技術を適用することにより、温度分布情報を高解像度化する(S23)。以下のステップS23及びS24の説明では、温度分布情報を熱画像と記載する。
 例えば、推定部35は、熱画像に、SRGAN(Generative Adversarial Network for Super-Resolurion)を適用することにより、熱画像を高解像度化する。熱画像を高解像度化する方法についてはSRGANに限定されず、推定部35は、熱画像に、SRCNN(Super-Resolution Convolutional Neural Network)を適用することにより、熱画像を高解像度化してもよい。推定部35は、隣接画素の画素値(温度)の平均値を求めることで、隣接画素間に当該平均値に相当する画素値を有する新たな画素を挿入する方法により、熱画像を高解像度化してもよい。
 このような超解像技術によれば、安価な赤外線センサ21から高解像度の熱画像を生成することができる。なお、熱画像に超解像技術が適用されることは必須ではなく、熱画像を高解像度化する処理は省略されてもよい。
 次に、推定部35は、超解像技術が適用された後の熱画像(温度分布情報)に基づいて、室内空間50における対象物の座標を推定する(S24)。
 推定部35は、例えば、ディープラーニング(機械学習モデル)を用いた物体検出処理を熱画像に対して行うことにより、熱画像内における対象物の位置を推定し、熱画像内の対象物の位置を室内空間50における座標に変換する。推定部35は、具体的には、R-CNN、YOLO、または、SSDなどの手法に基づく物体検出処理を行う。これらの物体検出処理を行うための機械学習モデルは、一般的なカラー画像ではなく、例えば、室内空間50(あるいは他の室内空間)を上方から撮像することによって得られる熱画像を学習データとして構築される。
 また、記憶部33には、熱画像内の画素の位置と、室内空間50における座標との対応関係を示すテーブル情報が記憶されており、推定部35は、このようなテーブル情報を用いて、熱画像内における対象物の位置を室内空間50における対象物の座標に変換することができる。
 なお、熱画像が室内空間50を上方から見たときの温度分布を示す場合には、推定部35によって推定される対象物の位置の座標は、室内空間50を上方から見たときの二次元座標となる。
 以降、ステップS25~ステップS28の処理は、実施の形態1のステップS14~S17の処理と同様である。
 以上説明したように、位置推定システム10aは、温度分布情報に基づいて対象物の座標を高精度に推定する。一方、温度分布情報に基づいて対象物を識別することは難しい場合があるが、位置推定システム10aは、対象物の識別情報については測位システム40から取得した位置情報を用いて特定する。これにより、位置推定システム10aは、室内空間50のどこにどのような物体が位置するかを高精度に推定し、室内空間50のどこにどのような物体が位置するかを管理することができる。
 上記の動作例では、推定部35は、取得部34によって取得された熱画像に対して物体検出処理を行うことで室内空間50における対象物の座標を推定した。しかしながら、推定部35は、熱画像を領域分割する処理を行ってもよい。推定部35は、具体的には、ディープラーニング(機械学習モデル)を用いたセグメンテーションを行ってもよい。推定部35は、熱画像内の当該対象物が映る領域の位置に基づいて、室内空間50における対象物の座標を推定することができる。セグメンテーションを行うための機械学習モデルは、例えば、室内空間50(あるいは他の室内空間)を上方から撮像することによって得られる熱画像を学習データとして構築される。
 また、推定部35は、機械学習モデルを使用しない、ルールベースのアルゴリズムに基づく情報処理を熱画像に対して行うことで対象物の座標を推定してもよい。例えば、推定部35は、熱画像に含まれる複数の画素のうち、画素値が極大値となる画素を検出する処理を行ってもよい。ここで、画素値が極大値となる画素とは、画素の二次元配置において画素値が極大値となる画素を意味する。画素値が極大値となる画素は、言い換えれば、画素の二次元配置において同一時刻における画素値を比較した場合に周囲の画素に比べて画素値が高い画素を意味する。画素値が極大値となる画素は1つの熱画像内に複数存在する場合がある。
 ここで、室内空間50に対象物よりも温度の高い熱源が存在しないと仮定すると、画素値が極大値となる画素であっても画素値が小さい(つまり、温度が低い)場合には、当該画素に対応する位置に対象物は存在しないと考えられる。そこで、推定部35は、画素値が極大値となる画素であって、画素値が所定値以上(例えば、30℃以上)である画素を検出した場合に、室内空間50に対象物が存在すると推定することができる。
 また、推定部35は、画素値が極大値となる画素であって、画素値が所定値以上(例えば、30℃以上)である画素の位置に上述のテーブル情報を適用することにより、室内空間50における対象物の位置の座標を推定することができる。
 また、ルールベースのアルゴリズムに基づく情報処理の別の例として、熱画像に含まれる複数の画素それぞれの画素値(温度)の経時変化を検出する処理が挙げられる。室内空間50に対象物以外の熱源が無いと仮定すると、かつ、室内空間50に対象物がない場合には、熱画像に含まれる複数の画素それぞれの画素値(温度)の経時変化はゆるやかである。この状態で、室内空間50に対象物が入ると、熱画像のうち対象物が映っている部分の画素の画素値は急激に変化(上昇)する。推定部35は、複数の画素それぞれの画素値の経時変化を監視することにより、急激に画素値が上昇したときに室内空間50に対象物が存在すると推定することができる。
 また、推定部35は、急激に画素値上昇した画素の位置に上述のテーブル情報を適用することにより、室内空間50における対象物の位置の座標を推定することができる。
 (測位システムの変形例)
 測位システム40は、第一通信装置41が送信するビーコン信号の、複数の第二通信装置42のそれぞれにおける受信信号強度に基づいて第一通信装置41が保持されている物体の位置を計測した。ここで、位置推定システム10または位置推定システム10aは、測位システム40に代えてもう一つの測位システムを備えてもよい。もう一つの測位システムは、例えば、複数の第二通信装置のそれぞれが送信するビーコン信号の第一通信装置における受信信号強度に基づいて、第一通信装置が保持されている物体の位置を計測する測位システムである。つまり、位置推定システム10または位置推定システム10aは、測位システム40とビーコン信号の送信及び受信の関係が逆転した測位システムを備えてもよい。
 以下、このような変形例に係る測位システムについて説明する。図9は、変形例に係る測位システムの機能構成を示すブロック図である。図10は、変形例に係る測位システムが適用される室内空間50を示す図である。
 図9及び図10に示されるように、測位システム60は、室内空間50に位置する物体に保持された第一通信装置61と室内空間50に設置された複数の第二通信装置62それぞれとの通信状態に基づいて室内空間50における物体の位置を計測する。測位システム60は、複数の第一通信装置61と、複数の第二通信装置62と、測位用サーバ装置63とを備える。なお、測位システム60は、少なくとも1つの第一通信装置61を備えればよい。
 第一通信装置61は、複数の第二通信装置62のそれぞれが送信するビーコン信号を受信するビーコン受信機(スキャナ)である。また、第一通信装置61は、受信したビーコン信号の受信信号強度(RSSI)を計測し、計測した受信信号強度に、ビーコン信号に含まれる第二通信装置62の第二識別情報、及び、第一通信装置61が保持される物体の第一識別情報を対応付けた信号強度情報を測位用サーバ装置63へ送信する。なお、第一識別情報は、第一通信装置61自体の識別情報である場合もある。
 第一通信装置61は、例えば、ビーコン受信機として動作することが可能な携帯型の情報端末(スマートフォンなど)であるが、専用のビーコン受信機であってもよい。図10に示されるように、第一通信装置61は、室内空間50に位置する物体(人または有体物)に保持される。
 第二通信装置62は、ビーコン信号を送信するビーコン送信機である。ビーコン信号には、第二通信装置62の第二識別情報が含まれる。図10に示されるように、第二通信装置62は、例えば、室内空間50の天井に設置された照明装置22が有する給電端子に着脱自在に接続され、照明装置22から給電を受けて動作する。給電端子は、例えば、USB端子である。第二通信装置62は、照明装置22を介さずに室内空間50の天井に直接固定されていてもよい。また、第二通信装置62は、壁などに固定されてもよい。なお、図10に示されるように、複数の第二通信装置62は、上方から見て二次元的に分散配置されている。
 測位用サーバ装置63は、複数の第二通信装置62に対応する複数の信号強度情報を第一通信装置61から取得し、取得した複数の信号強度情報に基づいて、室内空間50に位置する第一通信装置61が保持された物体の位置を計測する。測位用サーバ装置63は、室内空間50を構成する施設(建物)に設けられたエッジコンピュータであるが、当該施設外に設けられたクラウドコンピュータであってもよい。測位用サーバ装置63は、通信部64と、情報処理部65と、記憶部66とを備える。
 通信部64は、測位用サーバ装置63が、複数の第一通信装置61、及び、サーバ装置30と通信するための通信モジュール(通信回路)である。通信部64は、例えば、複数の第一通信装置61のそれぞれから、複数の第二通信装置62に対応する複数の信号強度情報を受信する。また、通信部64は、サーバ装置30へ室内空間50に位置する物体の位置情報を送信する。通信部64によって行われる通信は、無線通信であってもよいし、有線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部65は、通信部64によって受信された複数の信号強度情報に基づいて室内空間50に位置する物体の位置を計測し、計測した位置を示す位置情報を出力する。出力された位置情報は、通信部64によってサーバ装置30へ送信される。
 例えば、情報処理部65は、人Aが所持する第一通信装置61によって送信された、複数の第二通信装置62に対応する複数の信号強度情報と、室内空間50における複数の第二通信装置62の配置(設置位置)を示す配置情報とに基づいて、人Aの位置を計測し、計測した位置に人Aの第一識別情報を対応付けた位置情報(つまり、人Aの位置情報)を出力する。複数の信号強度情報及び配置情報に基づいて位置を計測する方法については、既存のどのようなアルゴリズムが用いられてもよい。
 情報処理部65は、具体的には、プロセッサまたはマイクロコンピュータによって実現される。情報処理部65の機能は、情報処理部65を構成するプロセッサまたはマイクロコンピュータが記憶部66に記憶されたコンピュータプログラムを実行することによって実現される。
 記憶部66は、通信部64によって受信された信号強度情報、複数の第二通信装置62の配置を示す配置情報、及び、情報処理部65が実行するコンピュータプログラムなどが記憶される記憶装置である。記憶部66は、具体的には、半導体メモリまたはHDDなどによって実現される。
 このように測位システム60は、複数の第二通信装置62のそれぞれが送信するビーコン信号の第一通信装置61における受信信号強度に基づいて、第一通信装置61が保持されている物体の位置を計測することができる。測位システム60は、具体的には、室内空間50のどこにどのような物体が位置するかを計測することができる。位置推定システム10または位置推定システム10aは、測位システム40に代えて、測位システム60を備えてもよい。この場合、サーバ装置30の位置情報取得部36は、測位システム60から位置情報を取得する。
 (まとめ)
 以上説明したように、位置推定システム10または位置推定システム10aは、対象物が位置する室内空間50が映る画像の画像情報、及び、室内空間50の温度分布情報のいずれかの情報を取得する取得部34と、取得された情報に基づいて、室内空間50における対象物の座標を推定する推定部35と、室内空間50に位置する物体に保持された第一通信装置と室内空間50に設置された複数の第二通信装置それぞれとの通信状態に基づいて物体の位置を計測する測位システムから対象物の位置情報である対象位置情報を取得する位置情報取得部36と、取得された対象位置情報に含まれる対象物の識別情報を、推定された座標に対応付けて記憶部33に記憶する制御部37とを備える。ここでの測位システムは、測位システム40または測位システム60であり、第一通信装置は、第一通信装置41または第一通信装置61であり、第二通信装置は、第二通信装置42または第二通信装置62である。
 このような位置推定システム10または位置推定システム10aは、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 また、例えば、位置情報取得部36は、各々が室内空間50に位置する物体の位置を示す複数の位置情報を測位システムから取得し、取得した複数の位置情報のうち、推定された座標の最も近くにある物体の位置を示す位置情報を対象位置情報として取得する。
 このような位置推定システム10または位置推定システム10aは、推定した対象物の座標と位置情報が示す位置との距離の関係性に基づいて、対象物の識別情報を特定することができる。
 また、位置推定システム10においては、取得部34は、室内空間50を上方から見たときの画像の画像情報を取得し、推定部35は、取得された画像情報に基づいて座標を推定する。座標は、室内空間50を上方から見たときの二次元座標である。
 このような位置推定システム10は、画像情報に基づいて、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 また、位置推定システム10aにおいては、取得部34は、室内空間50を上方から見たときの室内空間50の温度分布を示す温度分布情報を取得し、推定部35は、取得された温度分布情報に基づいて座標を推定する。座標は、室内空間50を上方から見たときの二次元座標である。
 このような位置推定システム10は、温度分布情報に基づいて、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 また、例えば、測位システム40は、第一通信装置41が送信するビーコン信号の、複数の第二通信装置42のそれぞれにおける受信信号強度に基づいて物体の位置を計測する。
 このような位置推定システム10または位置推定システム10aは、測位システム40から提供される位置情報に基づいて、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 また、例えば、測位システム60は、複数の第二通信装置62のそれぞれが送信するビーコン信号の第一通信装置61における受信信号強度に基づいて物体の位置を計測する。
 このような位置推定システム10または位置推定システム10aは、測位システム60から提供される位置情報に基づいて、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 また、例えば、対象物は、人である。
 このような位置推定システム10または位置推定システム10aは、室内空間50のどこに誰が位置するかを高精度に推定することができる。
 また、例えば、対象物は、人以外の物体である。
 このような位置推定システム10または位置推定システム10aは、室内空間50のどこにどのような有体物が位置するかを高精度に推定することができる。
 また、位置推定システム10または位置推定システム10aなどのコンピュータによって実行される位置推定方法は、対象物が位置する室内空間50が映る画像の画像情報、及び、室内空間50の温度分布情報のいずれかの情報を取得する取得ステップと、取得された情報に基づいて、室内空間50における対象物の座標を推定する推定ステップと、室内空間50に位置する物体に保持された第一通信装置と室内空間50に設置された複数の第二通信装置それぞれとの通信状態に基づいて物体の位置を計測する測位システムから対象物の位置情報である対象位置情報を取得する位置情報取得ステップと、取得された対象位置情報に含まれる対象物の識別情報を、推定された座標に対応付けて記憶する記憶ステップとを含む。
 このような位置推定方法は、室内空間50のどこにどのような物体が位置するかを高精度に推定することができる。
 (その他の実施の形態)
 以上、実施の形態に係る位置推定システム、及び、位置推定方法について説明したが、本発明は、上記実施の形態に限定されるものではない。
 また、上記実施の形態では、位置推定システムは、複数の装置によって実現されたが、単一の装置として実現されてもよい。例えば、位置推定システムは、サーバ装置に相当する単一の装置として実現されてもよい。位置推定システムが複数の装置によって実現される場合、位置推定システムが備える各構成要素は、複数の装置にどのように振り分けられてもよい。例えば、測位用サーバ装置の機能の一部または全部は、サーバ装置によって備えられてもよい。
 また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。例えば、本発明は、位置推定システムなどのコンピュータによって実行される位置推定方法として実現されてもよい。また、本発明は、位置推定方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記憶された、コンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
 10、10a 位置推定システム
 20 カメラ
 21 赤外線センサ
 22 照明装置
 30 サーバ装置
 31、44、64 通信部
 32、45、65 情報処理部
 33、46、66 記憶部
 34 取得部
 35 推定部
 36 位置情報取得部
 37 制御部
 40、60 測位システム
 41、61 第一通信装置
 42、62 第二通信装置
 43、63 測位用サーバ装置
 50 室内空間(空間)

Claims (10)

  1.  対象物が位置する空間が映る画像の画像情報、及び、前記空間の温度分布情報のいずれかの情報を取得する取得部と、
     取得された前記情報に基づいて、前記空間における前記対象物の座標を推定する推定部と、
     前記空間に位置する物体に保持された第一通信装置と前記空間に設置された複数の第二通信装置それぞれとの通信状態に基づいて前記物体の位置を計測する測位システムから前記対象物の位置情報である対象位置情報を取得する位置情報取得部と、
     取得された前記対象位置情報に含まれる前記対象物の識別情報を、推定された前記座標に対応付けて記憶部に記憶する制御部とを備える
     位置推定システム。
  2.  前記位置情報取得部は、
     各々が前記空間に位置する物体の位置を示す複数の位置情報を前記測位システムから取得し、
     取得した前記複数の位置情報のうち、推定された前記座標の最も近くにある物体の位置を示す位置情報を前記対象位置情報として取得する
     請求項1に記載の位置推定システム。
  3.  前記取得部は、前記空間を上方から見たときの前記画像の前記画像情報を取得し、
     前記推定部は、取得された前記画像情報に基づいて前記座標を推定し、
     前記座標は、前記空間を上方から見たときの二次元座標である
     請求項1または2に記載の位置推定システム。
  4.  前記取得部は、前記空間を上方から見たときの前記空間の温度分布を示す前記温度分布情報を取得し、
     前記推定部は、取得された前記温度分布情報に基づいて前記座標を推定し、
     前記座標は、前記空間を上方から見たときの二次元座標である
     請求項1または2に記載の位置推定システム。
  5.  前記測位システムは、前記第一通信装置が送信するビーコン信号の、前記複数の第二通信装置のそれぞれにおける受信信号強度に基づいて前記物体の位置を計測する
     請求項1または2に記載の位置推定システム。
  6.  前記測位システムは、前記複数の第二通信装置のそれぞれが送信するビーコン信号の前記第一通信装置における受信信号強度に基づいて前記物体の位置を計測する
     請求項1または2に記載の位置推定システム。
  7.  前記対象物は、人である
     請求項1または2に記載の位置推定システム。
  8.  前記対象物は、人以外の物体である
     請求項1または2に記載の位置推定システム。
  9.  対象物が位置する空間が映る画像の画像情報、及び、前記空間の温度分布情報のいずれかの情報を取得する取得ステップと、
     取得された前記情報に基づいて、前記空間における前記対象物の座標を推定する推定ステップと、
     前記空間に位置する物体に保持された第一通信装置と前記空間に設置された複数の第二通信装置それぞれとの通信状態に基づいて前記物体の位置を計測する測位システムから前記対象物の位置情報である対象位置情報を取得する位置情報取得ステップと、
     取得された前記対象位置情報に含まれる前記対象物の識別情報を、推定された前記座標に対応付けて記憶する記憶ステップとを含む
     位置推定方法。
  10.  請求項9に記載の位置推定方法をコンピュータに実行させるためのプログラム。
PCT/JP2022/028348 2021-08-31 2022-07-21 位置推定システム、及び、位置推定方法 WO2023032507A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22864095.9A EP4397988A1 (en) 2021-08-31 2022-07-21 Position estimation system and position estimation method
JP2023545150A JPWO2023032507A1 (ja) 2021-08-31 2022-07-21
CN202280051095.2A CN117677860A (zh) 2021-08-31 2022-07-21 位置估计系统和位置估计方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021140723 2021-08-31
JP2021-140723 2021-08-31

Publications (1)

Publication Number Publication Date
WO2023032507A1 true WO2023032507A1 (ja) 2023-03-09

Family

ID=85412120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028348 WO2023032507A1 (ja) 2021-08-31 2022-07-21 位置推定システム、及び、位置推定方法

Country Status (4)

Country Link
EP (1) EP4397988A1 (ja)
JP (1) JPWO2023032507A1 (ja)
CN (1) CN117677860A (ja)
WO (1) WO2023032507A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048416A (ja) 2012-08-30 2014-03-17 Ricoh Co Ltd 装置、システム
US20170228949A1 (en) * 2016-02-04 2017-08-10 Sensormatic Electronics, LLC Access Control System with Curtain Antenna System
JP2018204922A (ja) * 2017-06-09 2018-12-27 アズビル株式会社 人検知装置および方法
JP2020020645A (ja) * 2018-07-31 2020-02-06 清水建設株式会社 位置検出システム及び位置検出方法
JP2020112441A (ja) * 2019-01-11 2020-07-27 株式会社Where 情報処理装置、位置算出システム
JP2021169963A (ja) * 2020-04-15 2021-10-28 ダイキン工業株式会社 位置特定方法、及び位置特定システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048416A (ja) 2012-08-30 2014-03-17 Ricoh Co Ltd 装置、システム
US20170228949A1 (en) * 2016-02-04 2017-08-10 Sensormatic Electronics, LLC Access Control System with Curtain Antenna System
JP2018204922A (ja) * 2017-06-09 2018-12-27 アズビル株式会社 人検知装置および方法
JP2020020645A (ja) * 2018-07-31 2020-02-06 清水建設株式会社 位置検出システム及び位置検出方法
JP2020112441A (ja) * 2019-01-11 2020-07-27 株式会社Where 情報処理装置、位置算出システム
JP2021169963A (ja) * 2020-04-15 2021-10-28 ダイキン工業株式会社 位置特定方法、及び位置特定システム

Also Published As

Publication number Publication date
CN117677860A (zh) 2024-03-08
EP4397988A1 (en) 2024-07-10
JPWO2023032507A1 (ja) 2023-03-09

Similar Documents

Publication Publication Date Title
CN211262493U (zh) 温度测量系统和温度测量主系统
US9295141B2 (en) Identification device, method and computer program product
KR100649674B1 (ko) 이동단말의 내장 카메라를 이용한 위치인식 방법 및 그장치
KR102044493B1 (ko) 타겟 장치의 위치를 결정하기 위한 방법 및 그 전자 장치
JP6721884B2 (ja) カメラ校正用ボード、カメラ校正用装置、カメラ校正用方法、及びカメラ校正用プログラム記録媒体
US11037014B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6588413B2 (ja) 監視装置および監視方法
US11625828B2 (en) Cost effective, mass producible system for rapid detection of fever conditions based on thermal imaging
CN103839358A (zh) 智能空调及其防盗监控方法和装置
US11624660B1 (en) Dynamic radiometric thermal imaging compensation
JP2016197797A (ja) 画像処理装置、画像処理方法、及び画像処理システム
JP4227037B2 (ja) 撮像システム及び校正方法
US20140191959A1 (en) Pointing system and display having improved operable range
WO2023032507A1 (ja) 位置推定システム、及び、位置推定方法
US11256910B2 (en) Method and system for locating an occupant
WO2023032769A1 (ja) 位置推定システム、及び、位置推定方法
JP2019191020A (ja) 表面特性取得装置、表面特性取得システム及びプログラム
CN111414967A (zh) 提高测温系统鲁棒性的方法及监测系统
WO2022030548A1 (ja) 監視情報処理装置、方法およびプログラム
KR102050418B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
CN113108919B (zh) 人体温度检测方法、装置和存储介质
WO2023032770A1 (ja) 人検知システム、及び、人検知方法
WO2020116100A1 (ja) 情報処理装置、情報処理方法、プログラム及び投影システム
CN109564084B (zh) 记录介质、位置推断装置以及位置推断方法
US20200082840A1 (en) Sensor data array and method of counting occupants

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22864095

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023545150

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280051095.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022864095

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022864095

Country of ref document: EP

Effective date: 20240402