WO2019038871A1 - 位置推定装置、位置推定方法及び位置推定プログラム - Google Patents

位置推定装置、位置推定方法及び位置推定プログラム Download PDF

Info

Publication number
WO2019038871A1
WO2019038871A1 PCT/JP2017/030241 JP2017030241W WO2019038871A1 WO 2019038871 A1 WO2019038871 A1 WO 2019038871A1 JP 2017030241 W JP2017030241 W JP 2017030241W WO 2019038871 A1 WO2019038871 A1 WO 2019038871A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
authentication
current
correction information
estimation
Prior art date
Application number
PCT/JP2017/030241
Other languages
English (en)
French (fr)
Inventor
涼子 野村
直也 福岡
晋一郎 大谷
大樹 小林
朋興 浮穴
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/030241 priority Critical patent/WO2019038871A1/ja
Priority to JP2018506637A priority patent/JPWO2019038871A1/ja
Publication of WO2019038871A1 publication Critical patent/WO2019038871A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Definitions

  • the present invention relates to a technique for estimating the position of a user.
  • PDR Pedestrian Dead Reckoning
  • PDR is a technology for estimating the position of a user from sensor data of a terminal carried by the user, such as a smartphone owned by the user. Specifically, the movement distance is estimated from the value of the acceleration sensor, and the traveling direction is estimated from the value of the geomagnetic sensor and the value of the gyroscope to relatively estimate the movement destination from the starting point.
  • the PDR has an advantage that it is not necessary to install the transmitting device in a mesh form indoors, and the position can be estimated by only the sensor data of the terminal. On the other hand, PDR has the disadvantage that errors accumulate as estimations are repeated since only relative destinations are known.
  • Non-Patent Document 1 a beacon of BLE (Bluetooth Low Energy) is installed at the entrance of a building, and when the terminal can communicate with the beacon, it is assumed that the user is at the entrance and a new PDR starts from the entrance. It is described to start the positioning of BLE (Bluetooth Low Energy)
  • An object of the present invention is to increase the estimation accuracy of a user position based on sensor data of a terminal by a simple configuration.
  • the position estimation device is A sensor data acquisition unit that acquires sensor data from a sensor mounted on a terminal carried by a user; The movement distance of the user is estimated based on the sensor data acquired by the sensor data acquisition unit, and the current movement direction of the user is estimated based on the sensor data and the movement direction stored in the storage device.
  • a first estimation unit configured to estimate the current position of the user from the movement distance and the current movement direction;
  • a second estimation unit that estimates the current movement direction of the user based on the correction information specified based on the authentication system when the authentication of the user is performed by the authentication system;
  • an updating unit that updates the moving direction stored in the storage device according to the current moving direction estimated by the first estimation unit or the second estimation unit.
  • the movement direction of the user is estimated using the correction information specified based on the authentication system.
  • the shift of the moving direction of the user based on the sensor data is corrected, and the estimation accuracy of the position becomes high.
  • FIG. 1 is a configuration diagram of a position estimation system 1 according to Embodiment 1.
  • FIG. FIG. 1 is a block diagram of a position estimation device 10 according to a first embodiment.
  • FIG. 1 is a block diagram of an entrance management device 100 according to a first embodiment.
  • 6 is a flowchart showing the operation of the room entry management device 100 according to the first embodiment.
  • FIG. 6 is a view showing information stored in the entry / exit information storage unit 131 according to the first embodiment.
  • 6 is a flowchart showing the operation of the position estimation device 10 according to the first embodiment.
  • FIG. 6 is a view showing information stored in a position information storage unit 32 according to the first embodiment.
  • FIG. 6 is a diagram showing information stored in a correction information storage unit 31 according to the first embodiment.
  • FIG. 8 is a block diagram of a position estimation device 10 according to a modification 2;
  • FIG. 10 is a block diagram of an entrance management device 100 according to a modification 2;
  • FIG. 5 is a block diagram of a position estimation system 1 according to a second embodiment.
  • FIG. 6 is a block diagram of a face authentication apparatus 200 according to a second embodiment.
  • 10 is a flowchart showing the operation of the face recognition device 200 according to the second embodiment.
  • FIG. 7 is a view showing information stored in an authentication history storage unit 231 according to the second embodiment.
  • 10 is a flowchart showing a second estimation process according to the second embodiment. Explanatory drawing of the rectangular area which concerns on Embodiment 2.
  • FIG. FIG. 8 is a block diagram of a position estimation device 10 according to a modification 2;
  • FIG. 10 is a block diagram of an entrance management device 100 according to a modification 2;
  • FIG. 5 is a block diagram of a position estimation system 1 according to a second embodiment.
  • FIG. 7 is a view showing information stored in a correction information storage unit 31 according to a second embodiment.
  • FIG. 10 is a block diagram of a face authentication apparatus 200 according to a third embodiment. 12 is a flowchart showing the operation of the face recognition device 200 according to the third embodiment.
  • FIG. 10 is a block diagram of a position estimation system 1 according to a fourth embodiment.
  • FIG. 10 is a block diagram of a settlement apparatus 300 according to a fourth embodiment.
  • 15 is a flowchart showing the operation of the settlement apparatus 300 according to the fourth embodiment.
  • FIG. 16 is a view showing information stored in a settlement history storage unit 331 according to the fourth embodiment.
  • FIG. 16 is a view showing information stored in a correction information storage unit 31 according to a fourth embodiment.
  • FIG. 10 is a block diagram of a position estimation system 1 according to a fifth embodiment.
  • FIG. 14 is a configuration diagram of a copying machine 400 according to a fifth embodiment.
  • 15 is a flowchart showing the operation of the copying machine 400 according to the fifth embodiment.
  • FIG. 14 is a block diagram of a position estimation system 1 according to a sixth embodiment.
  • FIG. 16 is a configuration diagram of an elevator 500 according to a sixth embodiment. The flowchart which shows the operation of the elevator 500 which relates to the form 6 of execution.
  • FIG. 18 is a view showing information stored in a correction information storage unit 31 according to a sixth embodiment.
  • FIG. 14 is a block diagram of a position estimation system 1 according to a seventh embodiment.
  • FIG. 14 is a block diagram of a position estimation system 1 according to a seventh embodiment.
  • FIG. 16 is a block diagram of a fixed terminal 600 according to a seventh embodiment.
  • 15 is a flowchart showing an operation of fixed terminal 600 according to Embodiment 7;
  • FIG. 21 shows information stored in a login history storage unit 631 according to a seventh embodiment.
  • FIG. 16 is a block diagram of a position estimation system 1 according to an eighth embodiment.
  • FIG. 16 is a configuration diagram of an elevator 700 according to Embodiment 8. The flowchart which shows the operation of the elevator 700 which relates to the form 8 of execution.
  • 20 is a flowchart showing the operation of the position estimation device 10 according to the eighth embodiment.
  • Embodiment 1 *** Description of the configuration *** The configuration of the position estimation system 1 according to the first embodiment will be described with reference to FIG.
  • the position estimation system 1 includes a position estimation device 10 and an entrance management device 100.
  • the position estimation device 10 and the room entry management device 100 are connected via a transmission line 90.
  • the position estimation device 10 is a computer that estimates the position of the user.
  • the position estimation device 10 is a portable terminal such as a smartphone carried by a user.
  • the position estimation device 10 is a server installed in a management center or the like.
  • the room entry management apparatus 100 is a computer that manages entry and exit of users.
  • the entry management apparatus 100 is an apparatus that manages entry and exit to and from each room using authentication terminals 140 provided inside and outside the door of each room in the building.
  • the room entry management device 100 and the authentication terminal 140 are an example of an authentication system.
  • the configuration of the position estimation device 10 according to the first embodiment will be described with reference to FIG.
  • the position estimation device 10 includes hardware of a processor 11, a memory 12, a storage 13, and a communication interface 14.
  • the processor 11 is connected to other hardware via a signal line to control these other hardware.
  • the processor 11 is an integrated circuit (IC) that performs processing.
  • the processor 11 is, as a specific example, a central processing unit (CPU), a digital signal processor (DSP), or a graphics processing unit (GPU).
  • CPU central processing unit
  • DSP digital signal processor
  • GPU graphics processing unit
  • the memory 12 is a storage device that temporarily stores data.
  • the memory 12 is, as a specific example, a static random access memory (SRAM) or a dynamic random access memory (DRAM).
  • SRAM static random access memory
  • DRAM dynamic random access memory
  • the storage 13 is a storage device for storing data.
  • the storage 13 is an HDD (Hard Disk Drive) as a specific example.
  • the storage 13 is a portable storage such as an SD (Secure Digital) memory card, a CF (Compact Flash (registered trademark), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, and a DVD (Digital Versatile Disk). It may be a medium.
  • the communication interface 14 is an interface for communicating with an external device.
  • the communication interface 14 is, as a specific example, a port of Ethernet (registered trademark), USB (Universal Serial Bus), or HDMI (registered trademark, High-Definition Multimedia Interface).
  • the position estimation device 10 is connected to a sensor 40 such as an acceleration sensor, a gyroscope, and a geomagnetic sensor via the communication interface 14.
  • a sensor 40 such as an acceleration sensor, a gyroscope, and a geomagnetic sensor via the communication interface 14.
  • the position estimation device 10 includes a control unit 21, a sensor data acquisition unit 22, a first estimation unit 23, a second estimation unit 24, and an update unit 25 as functional components.
  • the function of each functional component of the position estimation device 10 is realized by software.
  • the storage 13 stores a program for realizing the function of each functional component of the position estimation device 10.
  • the program is read into the memory 12 by the processor 11 and executed by the processor 11. Thereby, the function of each functional component of position estimating device 10 is realized.
  • the storage 13 implements a correction information storage unit 31 and a position information storage unit 32.
  • the room entry management apparatus 100 includes hardware of a processor 101, a memory 102, a storage 103, and a communication interface 104.
  • the processor 101 is connected to other hardware via signal lines and controls these other hardware.
  • the processor 101, the memory 102, the storage 103, and the communication interface 104 are the same as the processor 11, the memory 12, the storage 13, and the communication interface 14, respectively.
  • the room entry management apparatus 100 is connected to one or more authentication terminals 140 via the communication interface 104.
  • the authentication terminal 140 is a card reader.
  • the authentication terminal 140 is a biometric information reader that reads biometric information such as a fingerprint.
  • the room entry management apparatus 100 includes an authentication unit 111, a door control unit 112, and an information transmission unit 113 as functional components.
  • the function of each functional component of the room entry management device 100 is realized by software.
  • the storage 103 stores programs for realizing the functions of the functional components of the room entry management device 100. This program is read into the memory 102 by the processor 101 and executed by the processor 101. Thus, the functions of the functional components of the room entry management device 100 are realized.
  • the storage 103 implements an entry / exit information storage unit 131.
  • the operation of the position estimation system 1 according to the first embodiment will be described with reference to FIGS. 4 to 9.
  • the operation of the position estimation system 1 according to the first embodiment corresponds to the position estimation method according to the first embodiment. Further, the operation of the position estimation system 1 according to the first embodiment corresponds to the process of the position estimation program according to the first embodiment.
  • the operation of the room entry management device 100 according to the first embodiment will be described with reference to FIG.
  • the room entry management device 100 starts the operation when the authentication terminal 140 reads the authentication information.
  • the authentication unit 111 acquires an authentication terminal ID that is an identifier of the authentication terminal 140 and authentication information from the authentication terminal 140 via the communication interface 104.
  • the authentication information is card information read from a card when the authentication terminal 140 is a card reader, and is biometric information read from a user when the authentication terminal 140 is a biometric information reader.
  • Step S12 User Authentication Process
  • the authentication unit 111 authenticates the user based on the authentication information acquired in step S11. If the authentication unit 111 succeeds in the authentication, the process proceeds to step S13. On the other hand, when the authentication unit 111 fails in the authentication, the authentication unit 111 ends the process.
  • Step S13 door control processing
  • the door control unit 112 unlocks the door corresponding to the authentication terminal ID acquired in step S11. This allows the user to enter the room or the user to leave the room.
  • Step S14 Entry and exit information storage processing
  • the authentication unit 111 writes the entry and exit information into the entry and exit information storage unit 131.
  • the authentication unit 111 enters and leaves the authentication terminal ID acquired in step S11, the date, the time, and the user ID which is the identifier of the user. It memorizes in 131. This makes it possible to identify who entered which room, or which room it came from.
  • Step S15 room entry and exit information transmission process
  • the information transmission unit 113 transmits the authentication terminal ID acquired in step S11 to the position estimation device 10.
  • the position estimation device 10 is a portable terminal such as a smart phone
  • the information transmitting unit 113 causes the portable terminal of the user specified by the authentication information acquired in step S11 to acquire the authentication acquired in step S11. Send the terminal ID.
  • the position estimation device 10 is a server
  • the information transmission unit 113 transmits the authentication terminal ID acquired in step S11 to the server.
  • the operation of the position estimation device 10 according to the first embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • Step S21 Authentication Determination Processing
  • the control unit 21 determines whether the authentication terminal ID has been transmitted from the room entry management device 100 or not. If the authentication terminal ID has not been transmitted, the process proceeds to step S22. On the other hand, when the authentication terminal ID is transmitted, the control unit 21 acquires the authentication terminal ID and advances the process to step S24.
  • Step S22 Sensor data acquisition process
  • the sensor data acquisition unit 22 acquires sensor data from the sensor 40 mounted on a terminal carried by a user.
  • the sensor data acquisition unit 22 acquires sensor data from the sensor 40 mounted on the portable terminal which is the position estimation device 10.
  • the sensor data acquisition part 22 may acquire sensor data from the sensor 40 mounted in the other terminal.
  • the sensor data acquisition unit 22 acquires sensor data from the sensor 40 mounted on a portable terminal such as a smartphone.
  • the sensor data acquisition unit 22 acquires, as sensor data, acceleration data acquired by the acceleration sensor and gyro data acquired by the gyroscope.
  • the sensor data acquisition unit 22 may acquire, as sensor data, data acquired by another sensor in addition to or instead of the acceleration data and the gyro data.
  • Step S23 first estimation process
  • the first estimation unit 23 estimates the moving distance of the user at the reference time based on the acceleration data which is the sensor data acquired in step S22.
  • the first estimation unit 23 estimates the current movement direction of the user based on the gyro data which is sensor data acquired in step S22 and the latest movement direction stored in the position information storage unit 32. . That is, the first estimation unit 23 estimates a direction deviated from the latest movement direction by the rotation amount indicated by the gyro data as the current movement direction.
  • the position information storage unit 32 stores the most recent moving direction and the most recent position.
  • the first estimation unit 23 estimates the current position of the user from the estimated movement distance and the current movement direction. Specifically, the first estimation unit 23 determines the current position of the user who moved the estimated movement distance from the nearest position stored in the position information storage unit 32 in the estimated current movement direction. Estimate the position of
  • Step S24 second estimation process
  • the second estimation unit 24 estimates the current movement direction and the current position of the user based on the correction information specified from the authentication terminal 140 indicated by the authentication terminal ID acquired in step S21. Specifically, the second estimation unit 24 reads from the correction information storage unit 31 correction information indicating the direction and the position corresponding to the authentication terminal ID. Then, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction, and estimates that the position indicated by the correction information is the current position. As shown in FIG. 8, the correction information storage unit 31 stores the direction and the position for each authentication terminal ID. The position of the authenticated user can be known from the position of the authentication terminal 140. Also, the moving direction of the authenticated user can be known from entering or leaving the room.
  • the correction information storage unit 31 stores in advance, for each authentication terminal ID, the position at which the user is estimated to be present, and the direction at which the user is estimated to move. As shown in FIG. 9, the correction information storage unit 31 stores not only the position in the plane direction (X coordinate and Y coordinate) but also the position in the height direction (Z coordinate) as the position. That is, the hierarchy of the building is also stored in the correction information storage unit 31 as the position. In FIG. 8, the directions are expressed with reference to the north (0 °), 180 ° south, 90 ° east, and -90 ° west.
  • Step S25 Update process
  • the updating unit 25 updates the latest moving direction stored in the position information storage unit 32 with the current moving direction estimated in step S23 or step S24. Further, the updating unit 25 updates the nearest position stored in the position information storage unit 32 with the current position estimated in step S23 or step S24.
  • position estimation system 1 uses the correction information specified from authentication terminal 140 to determine the user's moving direction and the current direction. Estimate the position. Specifically, when the user is authenticated by the authentication terminal 140, the position estimation system 1 according to Embodiment 1 can estimate the position where the user is and the direction in which the user moves. To estimate the user's moving direction and current position. Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high. When the room entry management device 100 is introduced, there is no need to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • the storage 13 realizes the correction information storage unit 31 and the position information storage unit 32.
  • the correction information storage unit 31 and the position information storage unit 32 may be realized by a storage device outside the position estimation device 10.
  • the functions of the functional components of the position estimation device 10 and the entry management device 100 are realized by software.
  • the functions of the functional components of the position estimation device 10 and the room entry management device 100 may be realized by hardware. The difference between this modification 2 and the first embodiment will be described.
  • the position estimation device 10 includes an electronic circuit 15 instead of the processor 11, the memory 12, and the storage 13.
  • the electronic circuit 15 is a dedicated electronic circuit that implements the functions of each part of the position estimation device 10 and the functions of the memory 12 and the storage 13.
  • the room entry management device 100 includes an electronic circuit 105 instead of the processor 101, the memory 102, and the storage 103.
  • the electronic circuit 105 is a dedicated electronic circuit that realizes the functions of the respective units of the room entry management device 100 and the functions of the memory 102 and the storage 103.
  • the electronic circuits 15 and 105 are a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, a logic IC, a gate array (GA), an application specific integrated circuit (ASIC), and a field-programmable gate array (FPGA). Is assumed.
  • the function of each part of the position estimation device 10 may be realized by one electronic circuit 15, or the function of each part of the position estimation device 10 may be distributed to a plurality of electronic circuits 15.
  • the function of each part of the room entry management apparatus 100 may be realized by one electronic circuit 105, or the function of each part of the room entry management apparatus 100 may be distributed to a plurality of electronic circuits 105.
  • ⁇ Modification 3> As a third modification, some functions may be realized by hardware and other functions may be realized by software. That is, among the functional components of the position estimation device 10, some functions may be realized by hardware and other functions may be realized by software. Similarly, among the functional components of the entry management device 100, some functions may be realized by hardware and other functions may be realized by software.
  • the processors 11 and 101, the memories 12 and 102, the storages 13 and 103, and the electronic circuits 15 and 105 are referred to as processing circuits. That is, the functions of the position estimation device 10 and the units of the room entry management device 100 are realized by the processing circuit.
  • the second embodiment differs from the first embodiment in that a face authentication device 200 is used instead of the room entry management device 100. In the second embodiment, this difference will be described, and the description of the same point will be omitted.
  • the position estimation system 1 includes a position estimation device 10 and a face recognition device 200.
  • the position estimation device 10 and the face recognition device 200 are connected via a transmission path 90.
  • the face authentication apparatus 200 is a computer that authenticates the user based on a face image of the user.
  • the face authentication apparatus 200 is an apparatus for authenticating a user who passes each place using cameras 240 provided at each place in the building.
  • the face authentication apparatus 200 and the camera 240 are an example of an authentication system.
  • the configuration of the face authentication apparatus 200 according to the second embodiment will be described with reference to FIG.
  • the face authentication apparatus 200 includes hardware of a processor 201, a memory 202, a storage 203, and a communication interface 204.
  • the processor 201 is connected to other hardware via a signal line to control these other hardware.
  • the processor 201, the memory 202, the storage 203, and the communication interface 204 are the same as the processor 11, the memory 12, the storage 13, and the communication interface 14, respectively.
  • the face authentication apparatus 200 is connected to one or more cameras 240 via the communication interface 204.
  • the face authentication apparatus 200 includes an image acquisition unit 211, a face authentication unit 212, and an information transmission unit 213 as functional components.
  • the function of each functional component of the face recognition apparatus 200 is realized by software.
  • the storage 203 stores programs for realizing the functions of the functional components of the face recognition apparatus 200. This program is read by the processor 201 into the memory 202 and executed by the processor 201. Thus, the functions of the functional components of the face recognition apparatus 200 are realized. Also, the storage 203 implements an authentication history storage unit 231.
  • the operation of the position estimation system 1 according to the second embodiment will be described with reference to FIG. 6 and FIGS. 14 to 18.
  • the operation of the position estimation system 1 according to the second embodiment corresponds to the position estimation method according to the second embodiment. Also, the operation of the position estimation system 1 according to the second embodiment corresponds to the processing of the position estimation program according to the second embodiment.
  • the operation of the face recognition apparatus 200 according to the second embodiment will be described with reference to FIG.
  • the face authentication apparatus 200 operates at fixed time intervals.
  • Step S31 Image data acquisition process
  • the image acquisition unit 211 acquires image data captured by the camera 240 together with a camera ID that is an identifier of the camera 240 via the communication interface 204.
  • Step S32 Face recognition process
  • the face authentication unit 212 performs the face authentication of the user based on the image data acquired in step S31. If the face is recognized, the face recognition unit 212 advances the process to step S33. On the other hand, if the face recognition unit 212 does not recognize the face, the process ends.
  • Step S33 Authentication History Storage Processing
  • the face authentication unit 212 writes the authentication information in the authentication history storage unit 231.
  • the face authentication unit 212 acquires the camera ID acquired in step S31, the date, the time, the user ID as the identifier of the user, and the user ID in step S31.
  • the acquired image data is stored in the authentication history storage unit 231. This makes it possible to identify when and by whom.
  • Step S34 Face authentication information transmission process
  • the information transmission unit 213 transmits the camera ID and the image data acquired in step S31 to the position estimation device 10.
  • the operation of the position estimation device 10 according to the second embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • the processes of step S22 to step S23 and the process of step S25 are the same as in the first embodiment.
  • Step S21 Authentication Determination Processing
  • the control unit 21 determines whether the camera ID and the image data are transmitted from the face authentication apparatus 200. If the camera ID and the image data are not transmitted, the process proceeds to step S22. On the other hand, when the camera ID and the image data are transmitted, the control unit 21 acquires the camera ID and the image data, and advances the process to step S24.
  • Step S24 second estimation process
  • the second estimation unit 24 estimates the current moving direction and the current position of the user based on the correction information specified by the camera 240 indicated by the camera ID acquired in step S21 and the image data.
  • Step S41 feature amount extraction processing
  • the second estimation unit 24 extracts an image local feature amount from the image data acquired in step S21.
  • the image local feature amount is, as a specific example, SIFT (Scale-Invariant Feature Transform) or HOG (Histograms of Oriented Gradients).
  • Step S42 Human Area Detection Processing
  • the second estimation unit 24 detects a rectangular area in which a person is present from the image data as shown in FIG. 17 by a statistical method using the image local feature quantity extracted in step S41.
  • a statistical method an existing method may be used, and any method may be used.
  • Step S43 Coordinate calculation process
  • the second estimating unit 24 identifies the coordinates in the image of the lower end center portion of the rectangular area detected in step S42 as the coordinates at which a person in the image is located.
  • the second estimation unit 24 converts the coordinates in the specified image into absolute coordinates.
  • the second estimation unit 24 reads, from the correction information storage unit 31, absolute coordinates corresponding to the camera ID acquired in step S21 and the coordinates of the lower end center.
  • the camera ID and the coordinates in the image are stored in association with the absolute coordinates.
  • the second estimation unit 24 reads out from the correction information storage unit 31 correction information indicating the direction and hierarchy corresponding to the camera ID.
  • the direction and the hierarchy are stored for each camera ID. From the position of the camera 240, the hierarchy of the authenticated user can be known. Since the face is authenticated, it can be seen that the user's face is facing in the direction in which the camera 240 shoots. It is common for a person to move in the direction in which the face is facing. Therefore, the direction of movement of the authenticated user can be known from the orientation of the camera 240. Therefore, the correction information storage unit 31 stores in advance, for each camera ID, a hierarchy in which it is estimated that the user is present, and a direction in which the user is estimated to move.
  • Step S45 Position and Direction Estimation Process
  • the second estimation unit 24 sets the absolute coordinates calculated in step S43 and the hierarchy and direction indicated by the correction information read in step S44 as correction information. Then, the second estimation unit 24 estimates that the absolute coordinates indicated by the correction information and the position indicated by the hierarchy are the current position. In addition, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction.
  • position estimation system 1 when the user is authenticated based on the image data captured by camera 240, position estimation system 1 according to the second embodiment is identified from the image data captured by camera 240 and camera 240. Use the correction information to estimate the user's moving direction and current position. Specifically, in the position estimation system 1 according to the second embodiment, when the user is authenticated based on the image data captured by the camera 240, the position where the user is present, the direction in which the user moves, and It is possible to estimate the user's moving direction and current position using the fact that it can be estimated. Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high. When the face authentication apparatus 200 is introduced, it is not necessary to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • the third embodiment differs from the second embodiment in that the face authentication apparatus 200 performs analysis processing of image data. That is, in the second embodiment, the position estimation device 10 acquires image data and a camera ID from the face authentication device 200, analyzes the image data, and calculates correction information. On the other hand, in the third embodiment, the face authentication apparatus 200 analyzes image data to calculate correction information, and the position estimation apparatus 10 acquires the calculated correction information. In the third embodiment, this difference will be described, and the description of the same point will be omitted.
  • the configuration of the face authentication apparatus 200 according to the third embodiment will be described with reference to FIG.
  • the face authentication apparatus 200 differs from the face authentication apparatus 200 shown in FIG. 13 in that it includes an analysis unit 214.
  • the analysis unit 214 is realized by software or hardware as the other functional components.
  • the face authentication apparatus 200 also differs from the face authentication apparatus 200 shown in FIG. 13 in that the storage 203 implements the correction information storage unit 31.
  • the position estimation apparatus 10 does not need to include the correction information storage unit 31.
  • the operation of the position estimation system 1 according to the third embodiment will be described with reference to FIG. 6 and FIG.
  • the operation of the position estimation system 1 according to the third embodiment corresponds to the position estimation method according to the third embodiment.
  • the operation of the position estimation system 1 according to the third embodiment corresponds to the process of the position estimation program according to the third embodiment.
  • step S51 to step S53 is the same as the process of step S31 to step S33 of FIG. Further, the processing of step S54 to step S57 is the same as the processing of step S41 to step S44 of FIG.
  • Step S58 Correction Information Transmission Process
  • the information transmission unit 213 transmits, to the position estimation device 10, the correction information indicating the absolute coordinates calculated in step S56, and the hierarchy and the direction read in step S57.
  • the operation of the position estimation device 10 according to the third embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • the processes of step S22 to step S23 and the process of step S25 are the same as in the first embodiment.
  • Step S21 Authentication Determination Processing
  • the control unit 21 determines whether or not correction information has been transmitted from the face authentication apparatus 200. Control part 21 advances processing to Step S22, when amendment information is not transmitted. On the other hand, when the correction information is transmitted, the control unit 21 acquires the correction information and advances the process to step S24.
  • Step S24 second estimation process
  • the second estimation unit 24 estimates the current moving direction and the current position of the user based on the correction information specified by the camera 240 indicated by the authentication terminal ID acquired in step S21. Specifically, the second estimation unit 24 estimates that the absolute coordinates and the hierarchy indicated by the correction information are the current position. In addition, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction.
  • the face authentication apparatus 200 has an analysis function of image data. Thereby, the same effect as that of the second embodiment can be obtained.
  • the fourth embodiment is different from the first embodiment in that a settlement apparatus with an authentication function is used in place of the room entry management apparatus 100 and performs settlement of charges installed in a place such as a cafeteria.
  • this difference is described, and the description of the same point is omitted.
  • the position estimation system 1 includes a position estimation device 10 and one or more settlement devices 300.
  • the position estimation device 10 and the settlement device 300 are connected via a transmission line 90.
  • the settlement apparatus 300 is a computer that settles a charge after authenticating the user.
  • the settlement apparatus 300 is provided in a place such as a cafeteria, and is an apparatus that performs settlement of charges after authenticating the user.
  • the settlement apparatus 300 is an example of an authentication system.
  • the configuration of the settlement apparatus 300 according to the fourth embodiment will be described with reference to FIG.
  • the settlement apparatus 300 includes hardware of a processor 301, a memory 302, a storage 303, and a communication interface 304.
  • the processor 301 is connected to other hardware via signal lines and controls these other hardware.
  • the processor 301, the memory 302, the storage 303, and the communication interface 304 are the same as the processor 11, the memory 12, the storage 13, and the communication interface 14, respectively.
  • the settlement apparatus 300 is connected to the reader 340 via the communication interface 304.
  • the reader 340 is a device that reads authentication information. Similar to the authentication terminal 140, the reader 340 is a card reader or a biometric information reader.
  • the settlement apparatus 300 includes an authentication unit 311, a settlement processing unit 312, and an information transmission unit 313 as functional components.
  • the function of each functional component of the settlement apparatus 300 is realized by software.
  • the storage 303 stores a program for realizing the function of each functional component of the settlement apparatus 300. This program is read into the memory 302 by the processor 301 and executed by the processor 301. Thus, the functions of the functional components of the settlement apparatus 300 are realized.
  • the storage 303 implements the settlement history storage unit 331.
  • the operation of the position estimation system 1 according to the fourth embodiment will be described with reference to FIG. 6 and FIG. 23 to FIG.
  • the operation of the position estimation system 1 according to the fourth embodiment corresponds to the position estimation method according to the fourth embodiment. Further, the operation of the position estimation system 1 according to the fourth embodiment corresponds to the processing of the position estimation program according to the fourth embodiment.
  • the operation of the settlement apparatus 300 according to the fourth embodiment will be described with reference to FIG.
  • the settlement apparatus 300 starts the operation when the authentication information is read.
  • Step S61 Authentication Information Acquisition Process
  • the authentication unit 311 acquires authentication information from the reading device 340.
  • the authentication information is the same as in the first embodiment.
  • Step S62 User Authentication Process
  • the authentication unit 311 authenticates the user based on the authentication information acquired in step S61. If the authentication unit 311 succeeds in the authentication, the process proceeds to step S63. On the other hand, if the authentication fails, the authentication unit 311 ends the process.
  • Step S63 Settlement Process
  • the settlement processing unit 312 performs settlement processing of charges such as a meal price.
  • Step S64 Settlement history storage processing
  • the settlement processing unit 312 writes the settlement information into the settlement history storage unit 331.
  • the settlement processing unit 312 stores, in the settlement history storage unit 331, a settlement apparatus ID that is an identifier of the settlement apparatus 300, a date, a time, and a user ID. This makes it possible to identify when and who performed the checkout.
  • Step S65 Authentication Information Transmission Process
  • the information transmission unit 313 transmits the settlement apparatus ID of the settlement apparatus 300 to the position estimation apparatus 10.
  • the operation of the position estimation device 10 according to the fourth embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • the processes of step S22 to step S23 and the process of step S25 are the same as in the first embodiment.
  • Step S21 Authentication Determination Processing
  • the control unit 21 determines whether or not the settlement apparatus ID has been transmitted from the settlement apparatus 300. If the settlement apparatus ID has not been transmitted, the process proceeds to step S22. On the other hand, when the settlement apparatus ID is transmitted, the control unit 21 acquires the settlement apparatus ID and advances the process to step S24.
  • Step S24 second estimation process
  • the second estimation unit 24 estimates the current movement direction and the current position of the user based on the correction information specified by the settlement apparatus 300 indicated by the authentication terminal ID acquired in step S21. Specifically, the second estimation unit 24 reads from the correction information storage unit 31 correction information indicating the direction and the position corresponding to the settlement apparatus ID. Then, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction, and estimates that the position indicated by the correction information is the current position. As shown in FIG. 25, in the correction information storage unit 31, the direction and the position are stored for each settlement apparatus ID. The position of the authenticated user can be known from the position of the settlement apparatus 300.
  • the correction information storage unit 31 previously stores, for each settlement apparatus ID, a position estimated to be the user and a direction estimated to move the user.
  • the position estimation system 1 uses the correction information specified by the settlement apparatus 300 to determine the user's moving direction and the current direction. Estimate the position of Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high.
  • the settlement apparatus 300 is introduced, there is no need to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • Embodiment 5 differs from the fourth embodiment in that a copying machine with an authentication function is used in place of the settlement apparatus 300. In the fifth embodiment, this difference will be described, and the description of the same point will be omitted.
  • the position estimation system 1 includes a position estimation device 10 and one or more copying machines 400.
  • the position estimation device 10 and the copying machine 400 are connected via a transmission line 90.
  • the copying machine 400 is provided at a place such as an office, and is an apparatus for performing copying after authenticating the user.
  • the copier 400 is an example of an authentication system.
  • the configuration of the copying machine 400 according to the fifth embodiment will be described with reference to FIG.
  • the copier 400 includes hardware of a processor 401, a memory 402, a storage 403, and a communication interface 404.
  • the processor 401 is connected to other hardware via signal lines to control these other hardware.
  • the processor 401, the memory 402, the storage 403, and the communication interface 404 are the same as the processor 301, the memory 302, the storage 303, and the communication interface 304, respectively.
  • the copying machine 400 is connected to the reading device 440 via the communication interface 404.
  • the reader 440 is a device that reads authentication information. Similar to the authentication terminal 140 in the first embodiment, the reader 440 is a card reader or a biometric information reader.
  • the copying machine 400 includes an authentication unit 411, a copy processing unit 412, and an information transmission unit 413 as functional components.
  • the functions of the functional components of the copier 400 are realized by software.
  • the storage 403 stores a program for realizing the function of each functional component of the copying machine 400. This program is read by the processor 401 into the memory 402 and executed by the processor 401. Thus, the functions of the functional components of the copier 400 are realized.
  • the operation of the position estimation system 1 according to the fifth embodiment will be described with reference to FIG.
  • the operation of the position estimation system 1 according to the fifth embodiment corresponds to the position estimation method according to the fifth embodiment.
  • the operation of the position estimation system 1 according to the fifth embodiment corresponds to the process of the position estimation program according to the fifth embodiment.
  • the operation of the copying machine 400 according to the fifth embodiment will be described with reference to FIG.
  • the copying machine 400 starts operation when reading the authentication information.
  • Step S71 Authentication Information Acquisition Process
  • the authentication unit 411 acquires authentication information from the reading device 440.
  • the authentication information is the same as in the first embodiment.
  • Step S72 User Authentication Process
  • the authentication unit 411 authenticates the user based on the authentication information acquired in step S71. If the authentication unit 411 succeeds in the authentication, the process proceeds to step S73. On the other hand, when the authentication unit 411 fails in the authentication, the authentication unit 411 ends the process.
  • Step S73 Copy processing
  • the copy processing unit 412 performs copy processing of the set document.
  • Step S74 Authentication Information Transmission Process
  • the information transmission unit 413 transmits the copy machine ID of the copy machine 400 to the position estimation device 10.
  • the operation of the position estimation device 10 is the same as that of the fourth embodiment if the settlement device 300 is replaced with the copying machine 400 and the settlement device ID is replaced with the copying machine ID.
  • the position estimation system 1 uses the correction information specified by the copy machine 400 to determine the moving direction and the current state of the user. Estimate the position of Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high.
  • the copying machine 400 it is not necessary to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • the sixth embodiment differs from the fourth embodiment in that an elevator 500 with an authentication function is used instead of the settlement apparatus 300. In the sixth embodiment, this difference will be described, and the description of the same point will be omitted.
  • the position estimation system 1 includes a position estimation device 10 and one or more elevators 500.
  • the position estimation device 10 and the elevator 500 are connected via a transmission line 90.
  • the elevator 500 is a device that moves up and down to a designated hierarchy after authenticating the user.
  • the elevator 500 is an example of an authentication system.
  • the configuration of the elevator 500 according to the fifth embodiment will be described with reference to FIG.
  • the elevator 500 includes hardware of a processor 501, a memory 502, a storage 503, and a communication interface 504.
  • the processor 501 is connected to other hardware via a signal line to control these other hardware.
  • the processor 501, the memory 502, the storage 503, and the communication interface 504 are the same as the processor 301, the memory 302, the storage 303, and the communication interface 304, respectively.
  • the elevator 500 is connected to the reader 540 via the communication interface 504.
  • the reading device 540 is a device that reads authentication information. Similar to the authentication terminal 140 in the first embodiment, the reader 540 is a card reader or a biometric information reader.
  • the elevator 500 includes an authentication unit 511, an elevation processing unit 512, and an information transmission unit 513 as functional components.
  • the functions of the functional components of the elevator 500 are implemented by software.
  • a program for realizing the function of each functional component of the elevator 500 is stored. This program is read by the processor 501 into the memory 502 and executed by the processor 501. Thereby, the function of each functional component of elevator 500 is realized.
  • the operation of the position estimation system 1 according to the sixth embodiment will be described with reference to FIG. 6, FIG. 31, and FIG.
  • the operation of the position estimation system 1 according to the sixth embodiment corresponds to the position estimation method according to the sixth embodiment.
  • the operation of the position estimation system 1 according to the sixth embodiment corresponds to the processing of the position estimation program according to the sixth embodiment.
  • the operation of the elevator 500 according to the sixth embodiment will be described with reference to FIG.
  • the elevator 500 starts operation upon reading the authentication information.
  • Step S81 Authentication Information Acquisition Process
  • the authentication unit 511 acquires authentication information from the reading device 540.
  • the authentication information is the same as in the first embodiment.
  • Step S82 User Authentication Process
  • the authentication unit 511 authenticates the user based on the authentication information acquired in step S81. If the authentication unit 511 succeeds in the authentication, the process proceeds to step S83. On the other hand, if the authentication fails, the authentication unit 511 ends the process.
  • Step S83 lifting and lowering process
  • the elevation processing unit 512 performs elevation processing to the designated hierarchy.
  • the information transmission unit 513 transmits, to the position estimation device 10, the elevator ID of the elevator 500 and the hierarchy in which the user gets on the elevator 500.
  • the information transmission unit 513 may transmit the designated hierarchy to the position estimation device 10 instead of the hierarchy where the user got on the elevator 500.
  • the operation of the position estimation device 10 according to the sixth embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • the processes of step S22 to step S23 and the process of step S25 are the same as in the first embodiment.
  • Step S21 Authentication Determination Processing
  • Control unit 21 determines whether elevator ID has been transmitted from elevator 500 or not. If the elevator ID has not been transmitted, the process proceeds to step S22. On the other hand, when the elevator ID is transmitted, the control unit 21 acquires the elevator ID and advances the process to step S24.
  • Step S24 second estimation process
  • the second estimation unit 24 determines the current movement direction and the current position of the user based on the correction information specified from the elevator 500 indicated by the elevator ID acquired in step S21 and the hierarchy acquired in step S21. presume. Specifically, the second estimation unit 24 reads from the correction information storage unit 31 correction information indicating the direction and the position corresponding to the elevator ID. Then, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction, and estimates that the position in the plane direction indicated by the correction information and the position indicated by the hierarchy are the current position. As shown in FIG. 32, the correction information storage unit 31 stores the direction and the position in the plane direction for each elevator ID.
  • the correction information storage unit 31 previously stores, for each elevator ID, the position in the plane direction in which the user is estimated to be present, and the direction in which the user is estimated to move.
  • the position estimation system 1 uses the correction information specified by the elevator 500 when the user is authenticated by the elevator 500, and the moving direction and the current position of the user. Estimate Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high.
  • the elevator 500 it is not necessary to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • Embodiment 7 differs from the fourth embodiment in that a fixed terminal for a user such as a PC (Personal Computer) is used instead of the settlement apparatus 300. In the seventh embodiment, this difference is described, and the description of the same point is omitted.
  • a fixed terminal for a user such as a PC (Personal Computer) is used instead of the settlement apparatus 300.
  • PC Personal Computer
  • the position estimation system 1 includes a position estimation device 10 and one or more fixed terminals 600.
  • the position estimation device 10 and the fixed terminal 600 are connected via a transmission path 90.
  • the fixed terminal 600 is provided at a place such as a desk of a user of an office, and is a computer that becomes available when the user logs in.
  • the fixed terminal 600 is an example of an authentication system.
  • the configuration of fixed terminal 600 according to Embodiment 7 will be described with reference to FIG.
  • the fixed terminal 600 includes hardware of a processor 601, a memory 602, a storage 603, and a communication interface 604.
  • the processor 601 is connected to other hardware via signal lines and controls these other hardware.
  • the processor 601, the memory 602, the storage 603, and the communication interface 604 are the same as the processor 301, the memory 302, the storage 303, and the communication interface 304, respectively.
  • the fixed terminal 600 includes an authentication unit 611 and an information transmission unit 612 as functional components.
  • the function of each functional component of fixed terminal 600 is realized by software.
  • the storage 603 stores a program for realizing the function of each functional component of the fixed terminal 600. This program is read by the processor 601 into the memory 602 and executed by the processor 601. Thereby, the function of each functional component of fixed terminal 600 is realized.
  • the storage 603 also implements a login history storage unit 631.
  • the operation of the position estimation system 1 according to the seventh embodiment will be described with reference to FIG.
  • the operation of the position estimation system 1 according to the seventh embodiment corresponds to the position estimation method according to the seventh embodiment.
  • the operation of the position estimation system 1 according to the seventh embodiment corresponds to the processing of the position estimation program according to the seventh embodiment.
  • Fixed terminal 600 starts its operation when it receives an input from an input device such as a keyboard.
  • the authentication unit 611 acquires login information input by the input device.
  • the login information is a user ID and a password.
  • Step S92 User Authentication Process
  • the authentication unit 611 authenticates the user based on the login information acquired in step S91. If the authentication unit 611 succeeds in the authentication, the process proceeds to step S93. On the other hand, when the authentication unit 611 fails in the authentication, the authentication unit 611 ends the process.
  • Step S93 Login history storage processing
  • the authentication unit 611 writes the login information in the login history storage unit 631.
  • the authentication unit 611 stores the fixed terminal ID, which is an identifier of the fixed terminal 600, the date, the time, and the user ID in the login history storage unit 631.
  • the fixed terminal ID is, as a specific example, a MAC (Media Access Control address) address. This makes it possible to identify when and who logged in.
  • Step S94 Authentication Information Transmission Processing
  • the information transmission unit 612 transmits the fixed terminal ID of the fixed terminal 600 to the position estimation device 10.
  • the operation of the position estimation device 10 is the same as that of the fourth embodiment if the settlement device 300 is replaced with the fixed terminal 600 and the settlement device ID is replaced with the fixed terminal ID.
  • position estimation system 1 uses the correction information specified from fixed terminal 600 to determine the moving direction of the user and the current movement direction. Estimate the position. Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high.
  • the fixed terminal 600 is introduced, there is no need to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • the eighth embodiment differs from the sixth embodiment in that an elevator 700 having no authentication function is used instead of the elevator 500. In the eighth embodiment, this difference is described, and the description of the same point is omitted.
  • the position estimation system 1 includes a position estimation device 10 and one or more elevators 700.
  • the position estimation device 10 and the elevator 700 are connected via a transmission line 90.
  • the position estimation device 10 is a portable terminal such as a smartphone carried by a user.
  • the transmission path 90 is assumed to be a wireless network such as a wireless LAN (Local Area Network) for the elevator 700 or the elevator 700 installed near the elevator 700.
  • the elevator 700 is a device that moves up and down to a designated level without authenticating the user.
  • the configuration of the elevator 700 according to the eighth embodiment will be described with reference to FIG.
  • the elevator 700 includes hardware of a processor 701, a memory 702, a storage 703, and a communication interface 704.
  • the processor 701 is connected to other hardware via signal lines to control these other hardware.
  • the processor 701, the memory 702, the storage 703, and the communication interface 704 are the same as the processor 501, the memory 502, the storage 503, and the communication interface 504, respectively.
  • the elevator 700 includes an information transmission unit 711 as a functional component.
  • the functions of the functional components of the elevator 700 are realized by software.
  • a program for realizing the function of the functional component of the elevator 700 is stored. This program is read into the memory 702 by the processor 701 and executed by the processor 701. Thereby, the functions of the functional components of the elevator 700 are realized.
  • the operation of the position estimation system 1 according to the eighth embodiment will be described with reference to FIG. 39 and FIG.
  • the operation of the position estimation system 1 according to the eighth embodiment corresponds to the position estimation method according to the eighth embodiment.
  • the operation of the position estimation system 1 according to the eighth embodiment corresponds to the processing of the position estimation program according to the eighth embodiment.
  • Step S1001 Information Transmission Process
  • the information transmission unit 711 transmits the elevator ID, which is an identifier of the elevator 700, and the current hierarchy to the surroundings via the transmission path 90 every fixed time.
  • the control unit 21 of the position estimation device 10 can receive the elevator ID and the hierarchy transmitted to the information transmission unit 711, the control unit 21 receives the elevator ID and the hierarchy. That is, when the position estimation device 10 enters the communication area of the wireless network that is the transmission path 90, the control unit 21 receives the elevator ID and the hierarchy.
  • the operation of the position estimation device 10 according to the eighth embodiment will be described with reference to FIG.
  • the position estimation device 10 repeatedly executes the process at each reference time during a specific period such as while the user is indoors.
  • the processes of step S1102 to step S1103 and the process of step S1105 are the same as the processes of step S22 to step S23 of FIG. 6 and the process of step S25.
  • Step S1101 usage determination processing
  • Control unit 21 determines whether the user is using elevator 700 or not. Specifically, the control unit 21 receives the elevator ID and the hierarchy, and the user uses the elevator 700 when the movement distance of the position estimation device 10 within the determination period is less than the reference distance. If not, it is determined that the user does not use the elevator 700. That is, the control unit 21 determines that the user is using the elevator 700 when the vehicle enters the communication area of the elevator 700 and the movement distance in the determination period is less than the reference distance, and uses the elevator 700 otherwise. It is determined that the person does not use the elevator 700. If the user does not use the elevator 700, the control unit 21 advances the process to step S1102. On the other hand, when the user uses elevator 700, control unit 21 advances the process to step S1104.
  • Step S1104 second estimation process
  • the second estimation unit 24 determines the current movement direction and the current position of the user based on the correction information specified from the elevator 700 indicated by the elevator ID acquired in step S1101 and the hierarchy acquired in step S1101. presume. Specifically, the second estimation unit 24 reads from the correction information storage unit 31 correction information indicating the direction and the position corresponding to the elevator ID. Then, the second estimation unit 24 estimates that the direction indicated by the correction information is the current movement direction, and estimates that the position in the plane direction indicated by the correction information and the position indicated by the hierarchy are the current position.
  • the correction information storage unit 31 stores the information shown in FIG. 32 as in the sixth embodiment.
  • the position estimation system 1 uses the correction information specified by the elevator 700 to determine the moving direction and the current position of the user. Estimate Thereby, the shift of the moving direction of the user based on the sensor data and the shift of the current position are corrected, and the estimation accuracy of the position becomes high.
  • the elevator 700 it is not necessary to separately install a new device such as a beacon, and the position estimation system 1 can be easily introduced.
  • the elevator 700 does not have an authentication function.
  • the elevator 700 which does not have an authentication function is introduced in many buildings. Therefore, the position estimation system 1 can be easily introduced into many buildings.
  • Embodiment 9 In the first to eighth embodiments, the position estimation system 1 including the position estimation device 10 and different devices has been described.
  • the position estimation system 1 may include the position estimation device 10 and the devices described in more than one embodiment.
  • the position estimation system 1 may include the room entry management device 100 described in the first embodiment and the face authentication device 200 described in the second embodiment.

Abstract

第1推定部(23)は、利用者によって携帯される端末に搭載されたセンサからセンサデータに基づき、利用者の移動距離を推定するとともに、センサデータと記憶装置に記憶された移動方向とに基づき利用者の現在の移動方向を推定して、移動距離及び現在の移動方向から利用者の現在の位置を推定する。第2推定部(24)は、認証システムによって利用者の認証が行われると、認証システムに基づき特定される補正情報に基づき、利用者の現在の移動方向を推定する。更新部(25)は、第1推定部(23)又は第2推定部(24)によって推定された現在の移動方向により、記憶装置に記憶された移動方向を更新する。

Description

位置推定装置、位置推定方法及び位置推定プログラム
 この発明は、利用者の位置を推定する技術に関する。
 GPS(Global Positioning System)衛星といった測位衛星からの電波が届かない屋内における利用者の位置を特定する方法としてPDR(Pedestrian Dead Reckoning)がある。
 PDRは、利用者が持つスマートフォンといった利用者によって携帯される端末のセンサデータから利用者の位置を推定する技術である。具体的には、加速度センサの値から移動距離を推定するとともに、地磁気センサの値及びジャイロスコープの値から進行方向を推定することにより、起点からの移動先を相対的に推定する。PDRは、屋内に網目状に発信装置を設置する必要がなく、端末のセンサデータだけで位置の推定ができるというメリットがある。一方で、PDRは、相対的な移動先しか分からないため、推定を重ねていくと誤差が累積してしまうというデメリットがある。
 非特許文献1には、建物の出入口にBLE(Bluetooth Low Energy)のビーコンを設置し、端末がビーコンと通信できた場合には、利用者が出入口にいるとし、出入口を起点として新たにPDRでの測位を始めることが記載されている。
石塚宏紀ら "BLEシグナルとPDRによるハイブリッド屋内測位手法の基礎検討" 電子情報通信学会 信学技法 Vol.114 No31 2014
 非特許文献1に記載された方法を用いた場合、ビーコンの数が足りないと累積誤差が大きくなり、逆にビーコンの数が多過ぎると設置場所の設計費とビーコン購入費と据付工事費と保守費といったコストが大きくなってしまう。
 この発明は、簡便な構成により、端末のセンサデータに基づく利用者位置の推定精度を高くすることを目的とする。
 この発明に係る位置推定装置は、
 利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得部と、
 前記センサデータ取得部によって取得された前記センサデータに基づき前記利用者の移動距離を推定するとともに、前記センサデータと記憶装置に記憶された移動方向とに基づき前記利用者の現在の移動方向を推定して、前記移動距離及び前記現在の移動方向から前記利用者の現在の位置を推定する第1推定部と、
 認証システムによって前記利用者の認証が行われると、前記認証システムに基づき特定される補正情報に基づき、前記利用者の現在の移動方向を推定する第2推定部と、
 前記第1推定部又は前記第2推定部によって推定された現在の移動方向により、前記記憶装置に記憶された移動方向を更新する更新部と
を備える。
 この発明では、認証システムで利用者が認証された場合に、認証システムに基づき特定される補正情報を用いて利用者の移動方向を推定する。これにより、センサデータに基づく利用者の移動方向のずれが補正され、位置の推定精度が高くなる。
実施の形態1に係る位置推定システム1の構成図。 実施の形態1に係る位置推定装置10の構成図。 実施の形態1に係る入室管理装置100の構成図。 実施の形態1に係る入室管理装置100の動作を示すフローチャート。 実施の形態1に係る入退室情報記憶部131に記憶される情報を示す図。 実施の形態1に係る位置推定装置10の動作を示すフローチャート。 実施の形態1に係る位置情報記憶部32に記憶される情報を示す図。 実施の形態1に係る補正情報記憶部31に記憶される情報を示す図。 実施の形態1に係る位置の説明図。 変形例2に係る位置推定装置10の構成図。 変形例2に係る入室管理装置100の構成図。 実施の形態2に係る位置推定システム1の構成図。 実施の形態2に係る顔認証装置200の構成図。 実施の形態2に係る顔認証装置200の動作を示すフローチャート。 実施の形態2に係る認証履歴記憶部231に記憶される情報を示す図。 実施の形態2に係る第2推定処理を示すフローチャート。 実施の形態2に係る矩形領域の説明図。 実施の形態2に係る補正情報記憶部31に記憶される情報を示す図。 実施の形態3に係る顔認証装置200の構成図。 実施の形態3に係る顔認証装置200の動作を示すフローチャート。 実施の形態4に係る位置推定システム1の構成図。 実施の形態4に係る精算装置300の構成図。 実施の形態4に係る精算装置300の動作を示すフローチャート。 実施の形態4に係る精算履歴記憶部331に記憶される情報を示す図。 実施の形態4に係る補正情報記憶部31に記憶される情報を示す図。 実施の形態5に係る位置推定システム1の構成図。 実施の形態5に係るコピー機400の構成図。 実施の形態5に係るコピー機400の動作を示すフローチャート。 実施の形態6に係る位置推定システム1の構成図。 実施の形態6に係るエレベータ500の構成図。 実施の形態6に係るエレベータ500の動作を示すフローチャート。 実施の形態6に係る補正情報記憶部31に記憶される情報を示す図。 実施の形態7に係る位置推定システム1の構成図。 実施の形態7に係る固定端末600の構成図。 実施の形態7に係る固定端末600の動作を示すフローチャート。 実施の形態7に係るログイン履歴記憶部631に記憶される情報を示す図。 実施の形態8に係る位置推定システム1の構成図。 実施の形態8に係るエレベータ700の構成図。 実施の形態8に係るエレベータ700の動作を示すフローチャート。 実施の形態8に係る位置推定装置10の動作を示すフローチャート。
 実施の形態1.
 ***構成の説明***
 図1を参照して、実施の形態1に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、入室管理装置100とを備える。位置推定装置10と入室管理装置100とは、伝送路90を介して接続されている。
 位置推定装置10は、利用者の位置を推定するコンピュータである。
 具体例としては、位置推定装置10は、利用者によって携帯されるスマートフォンといった携帯端末である。あるいは、位置推定装置10は、管理センター等に設置されたサーバである。
 入室管理装置100は、利用者の入退室を管理するコンピュータである。
 具体例としては、入室管理装置100は、ビル内の各部屋の扉の中と外とに設けられた認証端末140を用いて、各部屋への入退室を管理する装置である。入室管理装置100及び認証端末140は、認証システムの一例である。
 図2を参照して、実施の形態1に係る位置推定装置10の構成を説明する。
 位置推定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
 ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記憶媒体であってもよい。
 通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。
 位置推定装置10は、通信インタフェース14を介して、加速度センサと、ジャイロスコープと、地磁気センサといったセンサ40に接続されている。
 位置推定装置10は、機能構成要素として、制御部21と、センサデータ取得部22と、第1推定部23と、第2推定部24と、更新部25とを備える。位置推定装置10の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ13には、位置推定装置10の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、位置推定装置10の各機能構成要素の機能が実現される。
 また、ストレージ13は、補正情報記憶部31と、位置情報記憶部32とを実現する。
 図3を参照して、実施の形態1に係る入室管理装置100の構成を説明する。
 入室管理装置100は、プロセッサ101と、メモリ102と、ストレージ103と、通信インタフェース104とのハードウェアを備える。プロセッサ101は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ101と、メモリ102と、ストレージ103と、通信インタフェース104とは、それぞれ、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14と同じである。
 入室管理装置100は、通信インタフェース104を介して、1つ以上の認証端末140と接続されている。具体例としては、認証端末140は、カードリーダである。あるいは、認証端末140は、指紋といった生体情報を読み取る生体情報読取装置である。
 入室管理装置100は、機能構成要素として、認証部111と、扉制御部112と、情報送信部113とを備える。入室管理装置100の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ103には、入室管理装置100の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ101によりメモリ102に読み込まれ、プロセッサ101によって実行される。これにより、入室管理装置100の各機能構成要素の機能が実現される。
 また、ストレージ103は、入退室情報記憶部131を実現する。
 ***動作の説明***
 図4から図9を参照して、実施の形態1に係る位置推定システム1の動作を説明する。
 実施の形態1に係る位置推定システム1の動作は、実施の形態1に係る位置推定方法に相当する。また、実施の形態1に係る位置推定システム1の動作は、実施の形態1に係る位置推定プログラムの処理に相当する。
 図4を参照して、実施の形態1に係る入室管理装置100の動作を説明する。
 入室管理装置100は、認証端末140が認証情報を読み取ると動作を開始する。
 (ステップS11:認証情報取得処理)
 認証部111は、通信インタフェース104を介して、認証端末140から、認証端末140の識別子である認証端末IDと認証情報とを取得する。認証情報は、認証端末140がカードリーダの場合には、カードから読み取られたカード情報であり、認証端末140が生体情報読取装置の場合には、利用者から読み取られた生体情報である。
 (ステップS12:利用者認証処理)
 認証部111は、ステップS11で取得された認証情報に基づき、利用者の認証を行う。
 認証部111は、認証に成功した場合には、処理をステップS13に進める。一方、認証部111は、認証に失敗した場合には、処理を終了する。
 (ステップS13:扉制御処理)
 扉制御部112は、ステップS11で取得された認証端末IDに対応する扉を解錠する。これにより、利用者が部屋に入る、あるいは、利用者が部屋から出ることが可能になる。
 (ステップS14:入退室情報記憶処理)
 認証部111は、入退室情報を入退室情報記憶部131に書き込む。
 具体例としては、図5に示すように、認証部111は、ステップS11で取得された認証端末IDと、日付と、時刻と、利用者の識別子である利用者IDとを入退室情報記憶部131に記憶する。これにより、いつ、だれが、どの部屋に入ったか、あるいは、どの部屋から出たかを特定することが可能になる。
 (ステップS15:入退室情報送信処理)
 情報送信部113は、ステップS11で取得された認証端末IDを位置推定装置10に送信する。
 この際、位置推定装置10がスマートフォンといった携帯端末である場合には、情報送信部113は、ステップS11で取得された認証情報によって特定される利用者の携帯端末に、ステップS11で取得された認証端末IDを送信する。また、位置推定装置10がサーバである場合には、情報送信部113は、ステップS11で取得された認証端末IDをサーバに送信する。
 図6を参照して、実施の形態1に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 (ステップS21:認証判定処理)
 制御部21は、入室管理装置100から認証端末IDが送信されたか否かを判定する。
 認証端末IDが送信されていない場合には、処理をステップS22に進める。一方、制御部21は、認証端末IDが送信された場合には、認証端末IDを取得した上で、処理をステップS24に進める。
 (ステップS22:センサデータ取得処理)
 センサデータ取得部22は、利用者によって携帯される端末に搭載されたセンサ40からセンサデータを取得する。
 この際、位置推定装置10がスマートフォンといった携帯端末である場合には、センサデータ取得部22は、位置推定装置10である携帯端末に搭載されているセンサ40からセンサデータを取得する。なお、センサデータ取得部22は、他の端末に搭載されたセンサ40からセンサデータを取得してもよい。また、位置推定装置10がサーバである場合には、センサデータ取得部22は、スマートフォンといった携帯端末に搭載されたセンサ40からセンサデータを取得する。
 ここでは、センサデータ取得部22は、加速度センサによって得られた加速度データと、ジャイロスコープによって得られたジャイロデータとを、センサデータとして取得する。なお、センサデータ取得部22は、加速度データ及びジャイロデータに加え、あるいは、加速度データ及びジャイロデータに代えて、他のセンサによって得られたデータを、センサデータとして取得してもよい。
 (ステップS23:第1推定処理)
 第1推定部23は、ステップS22で取得されたセンサデータである加速度データに基づき、利用者の基準時間における移動距離を推定する。また、第1推定部23は、ステップS22で取得されたセンサデータであるジャイロデータと、位置情報記憶部32に記憶された直近の移動方向とに基づき、利用者の現在の移動方向を推定する。つまり、第1推定部23は、直近の移動方向から、ジャイロデータが示す回転量だけずれた方向を、現在の移動方向と推定する。図7に示すように、位置情報記憶部32には、直近の移動方向と、直近の位置とが記憶されている。
 そして、第1推定部23は、推定された移動距離及び現在の移動方向から利用者の現在の位置を推定する。具体的には、第1推定部23は、位置情報記憶部32に記憶された直近の位置から、推定された現在の移動方向に、推定された移動距離だけ移動した位置を、利用者の現在の位置と推定する。
 (ステップS24:第2推定処理)
 第2推定部24は、ステップS21で取得された認証端末IDが示す認証端末140から特定される補正情報に基づき、利用者の現在の移動方向及び現在の位置を推定する。
 具体的には、第2推定部24は、補正情報記憶部31から、認証端末IDに対応した方向及び位置を示す補正情報を読み出す。そして、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定し、補正情報が示す位置が現在の位置であると推定する。
 図8に示すように、補正情報記憶部31には、認証端末ID毎に、方向及び位置が記憶されている。認証端末140の位置から認証された利用者の位置が分かる。また、入室又は退室することから、認証された利用者の移動方向が分かる。そのため、補正情報記憶部31には、予め認証端末ID毎に、利用者がいると推定される位置と、利用者が移動すると推定される方向とが記憶されている。図9に示すように、補正情報記憶部31には、位置として、平面方向の位置(X座標及びY座標)だけでなく、高さ方向の位置(Z座標)も記憶されている。つまり、補正情報記憶部31には、位置として、建物の階層も記憶されている。図8では、方向は、北を基準(0°)とし、南を180°、東を90°、西を-90°として表されている。
 (ステップS25:更新処理)
 更新部25は、ステップS23又はステップS24で推定された現在の移動方向により、位置情報記憶部32に記憶された直近の移動方向を更新する。また、更新部25は、ステップS23又はステップS24で推定された現在の位置により、位置情報記憶部32に記憶された直近の位置を更新する。
 ***実施の形態1の効果***
 以上のように、実施の形態1に係る位置推定システム1は、認証端末140で利用者が認証された場合に、認証端末140から特定される補正情報を用いて利用者の移動方向及び現在の位置を推定する。具体的には、実施の形態1に係る位置推定システム1は、認証端末140で利用者が認証された場合に、利用者がいる位置と、利用者が移動する方向とを推定可能であることを利用して、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。入室管理装置100が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 ***他の構成***
 <変形例1>
 実施の形態1では、ストレージ13が補正情報記憶部31及び位置情報記憶部32を実現するとした。しかし、補正情報記憶部31及び位置情報記憶部32は、位置推定装置10の外部の記憶装置によって実現されてもよい。
 <変形例2>
 実施の形態1では、位置推定装置10及び入室管理装置100の各機能構成要素の機能がソフトウェアで実現された。しかし、変形例2として、位置推定装置10及び入室管理装置100の各機能構成要素の機能はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
 図10を参照して、変形例2に係る位置推定装置10の構成を説明する。
 各機能構成要素の機能がハードウェアで実現される場合、位置推定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、位置推定装置10の各部の機能とメモリ12とストレージ13との機能とを実現する専用の電子回路である。
 図11を参照して、変形例2に係る入室管理装置100の構成を説明する。
 各機能構成要素の機能がハードウェアで実現される場合、入室管理装置100は、プロセッサ101とメモリ102とストレージ103とに代えて、電子回路105を備える。電子回路105は、入室管理装置100の各部の機能とメモリ102とストレージ103との機能とを実現する専用の電子回路である。
 電子回路15,105は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 位置推定装置10の各部の機能を1つの電子回路15で実現してもよいし、位置推定装置10の各部の機能を複数の電子回路15に分散させて実現してもよい。同様に、入室管理装置100の各部の機能を1つの電子回路105で実現してもよいし、入室管理装置100の各部の機能を複数の電子回路105に分散させて実現してもよい。
 <変形例3>
 変形例3として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、位置推定装置10の各機能構成要素のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。同様に、入室管理装置100の各機能構成要素のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
 プロセッサ11,101とメモリ12,102とストレージ13,103と電子回路15,105とを、処理回路という。つまり、位置推定装置10及び入室管理装置100の各部の機能は、処理回路により実現される。
 実施の形態2.
 実施の形態2は、入室管理装置100に代えて、顔認証装置200を用いる点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図12を参照して、実施の形態2に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、顔認証装置200とを備える。位置推定装置10と顔認証装置200とは、伝送路90を介して接続されている。
 顔認証装置200は、利用者の顔画像により利用者を認証するコンピュータである。
 具体例としては、顔認証装置200は、ビル内の各所に設けられたカメラ240を用いて、各所を通る利用者を認証する装置である。顔認証装置200及びカメラ240は、認証システムの一例である。
 図13を参照して、実施の形態2に係る顔認証装置200の構成を説明する。
 顔認証装置200は、プロセッサ201と、メモリ202と、ストレージ203と、通信インタフェース204とのハードウェアを備える。プロセッサ201は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ201と、メモリ202と、ストレージ203と、通信インタフェース204とは、それぞれ、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14と同じである。
 顔認証装置200は、通信インタフェース204を介して、1つ以上のカメラ240と接続されている。
 顔認証装置200は、機能構成要素として、画像取得部211と、顔認証部212と、情報送信部213とを備える。顔認証装置200の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ203には、顔認証装置200の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ201によりメモリ202に読み込まれ、プロセッサ201によって実行される。これにより、顔認証装置200の各機能構成要素の機能が実現される。
 また、ストレージ203は、認証履歴記憶部231を実現する。
 ***動作の説明***
 図6と、図14から図18とを参照して、実施の形態2に係る位置推定システム1の動作を説明する。
 実施の形態2に係る位置推定システム1の動作は、実施の形態2に係る位置推定方法に相当する。また、実施の形態2に係る位置推定システム1の動作は、実施の形態2に係る位置推定プログラムの処理に相当する。
 図14を参照して、実施の形態2に係る顔認証装置200の動作を説明する。
 顔認証装置200は、一定時間間隔で動作する。
 (ステップS31:画像データ取得処理)
 画像取得部211は、通信インタフェース204を介して、カメラ240で撮影された画像データを、カメラ240の識別子であるカメラIDとともに取得する。
 (ステップS32:顔認証処理)
 顔認証部212は、ステップS31で取得された画像データに基づき、利用者の顔認証を行う。
 顔認証部212は、顔認証された場合には、処理をステップS33に進める。一方、顔認証部212は、顔認証されなかった場合には、処理を終了する。
 (ステップS33:認証履歴記憶処理)
 顔認証部212は、認証情報を認証履歴記憶部231に書き込む。
 具体例としては、図15に示すように、顔認証部212は、ステップS31で取得されたカメラIDと、日付と、時刻と、利用者の識別子である利用者IDと、ステップS31で取得された画像データとを認証履歴記憶部231に記憶する。これにより、いつ、だれが、どこを通過したかを特定することが可能になる。
 (ステップS34:顔認証情報送信処理)
 情報送信部213は、ステップS31で取得されたカメラID及び画像データを位置推定装置10に送信する。
 図6を参照して、実施の形態2に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 ステップS22からステップS23の処理と、ステップS25の処理とは、実施の形態1と同じである。
 (ステップS21:認証判定処理)
 制御部21は、顔認証装置200からカメラID及び画像データが送信されたか否かを判定する。
 カメラID及び画像データが送信されていない場合には、処理をステップS22に進める。一方、制御部21は、カメラID及び画像データが送信された場合には、カメラID及び画像データを取得した上で、処理をステップS24に進める。
 (ステップS24:第2推定処理)
 第2推定部24は、ステップS21で取得されたカメラIDが示すカメラ240と画像データとから特定される補正情報に基づき、利用者の現在の移動方向及び現在の位置を推定する。
 図16を参照して、実施の形態2に係る第2推定処理を説明する。
 (ステップS41:特徴量抽出処理)
 第2推定部24は、ステップS21で取得された画像データから、画像局所特徴量を抽出する。画像局所特徴量は、具体例としては、SIFT(Scale-Invariant Feature Transform)又はHOG(Histograms of Oriented Gradients)である。
 (ステップS42:人領域検出処理)
 第2推定部24は、ステップS41で抽出された画像局所特徴量を用いた統計的な手法により、図17に示すように画像データから人がいる矩形領域を検出する。統計的な手法については、既存の手法が用いられればよく、どの手法が用いられてもよい。
 (ステップS43:座標計算処理)
 第2推定部24は、図17に示すように、ステップS42で検出された矩形領域の下端中央部の画像中における座標を、画像中における人がいる座標として特定する。第2推定部24は、特定された画像中における座標を、絶対座標に変換する。具体的には、第2推定部24は、補正情報記憶部31から、ステップS21で取得されたカメラIDと、下端中央部の座標とに対応した絶対座標を読み出す。
 図18に示すように、補正情報記憶部31には、カメラID及び画像中の座標と、絶対座標とが対応付けて記憶されている。
 (ステップS44:補正情報読出処理)
 第2推定部24は、補正情報記憶部31から、カメラIDに対応した方向及び階層を示す補正情報を読み出す。
 図18に示すように、補正情報記憶部31には、カメラID毎に、方向及び階層が記憶されている。カメラ240の位置から、認証された利用者の階層が分かる。顔認証されているため、利用者の顔がカメラ240によって撮影される方向を向いていることが分かる。人は顔が向いている方向に移動することが一般的である。したがって、カメラ240の向きから、認証された利用者の移動方向が分かる。そのため、補正情報記憶部31には、予めカメラID毎に、利用者がいると推定される階層と、利用者が移動すると推定される方向とが記憶されている。
 (ステップS45:位置方向推定処理)
 第2推定部24は、ステップS43で計算された絶対座標と、ステップS44で読み出された補正情報が示す階層及び方向とを補正情報とする。そして、第2推定部24は、補正情報が示す絶対座標及び階層が示す位置が、現在の位置であると推定する。また、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定する。
 ***実施の形態2の効果***
 以上のように、実施の形態2に係る位置推定システム1は、カメラ240で撮影された画像データに基づき利用者が認証された場合に、カメラ240及びカメラ240で撮影された画像データから特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。具体的には、実施の形態2に係る位置推定システム1は、カメラ240で撮影された画像データに基づき利用者が認証された場合に、利用者がいる位置と、利用者が移動する方向とを推定可能であることを利用して、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。顔認証装置200が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 実施の形態3.
 実施の形態3は、画像データの解析処理を顔認証装置200が行う点が実施の形態2と異なる。つまり、実施の形態2では、位置推定装置10は、顔認証装置200から画像データとカメラIDとを取得して、画像データの解析を行い補正情報を計算した。これに対して、実施の形態3では、顔認証装置200が画像データの解析を行い補正情報を計算し、位置推定装置10は、計算された補正情報を取得する。
 実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図19を参照して、実施の形態3に係る顔認証装置200の構成を説明する。
 顔認証装置200は、解析部214を備える点が、図13に示された顔認証装置200と異なる。解析部214は、他の機能構成要素と同様に、ソフトウェア又はハードウェアにより実現される。
 また、顔認証装置200は、ストレージ203が補正情報記憶部31を実現する点が、図13に示された顔認証装置200と異なる。なお、図示されていないが、顔認証装置200が補正情報記憶部31を備えるため、位置推定装置10は補正情報記憶部31を備える必要はない。
 ***動作の説明***
 図6と、図20とを参照して、実施の形態3に係る位置推定システム1の動作を説明する。
 実施の形態3に係る位置推定システム1の動作は、実施の形態3に係る位置推定方法に相当する。また、実施の形態3に係る位置推定システム1の動作は、実施の形態3に係る位置推定プログラムの処理に相当する。
 図20を参照して、実施の形態3に係る顔認証装置200の動作を説明する。
 ステップS51からステップS53の処理は、図14のステップS31からステップS33の処理と同じである。また、ステップS54からステップS57の処理は、図16のステップS41からステップS44の処理と同じである。
 (ステップS58:補正情報送信処理)
 情報送信部213は、ステップS56で計算された絶対座標と、ステップS57で読み出された階層及び方向とを示す補正情報を、位置推定装置10に送信する。
 図6を参照して、実施の形態3に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 ステップS22からステップS23の処理と、ステップS25の処理とは、実施の形態1と同じである。
 (ステップS21:認証判定処理)
 制御部21は、顔認証装置200から補正情報が送信されたか否かを判定する。
 制御部21は、補正情報が送信されていない場合には、処理をステップS22に進める。一方、制御部21は、補正情報が送信された場合には、補正情報を取得した上で、処理をステップS24に進める。
 (ステップS24:第2推定処理)
 第2推定部24は、ステップS21で取得された認証端末IDが示すカメラ240から特定される補正情報に基づき、利用者の現在の移動方向及び現在の位置を推定する。
 具体的には、第2推定部24は、補正情報が示す絶対座標と階層とが、現在の位置であると推定する。また、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定する。
 ***実施の形態3の効果***
 以上のように、実施の形態3に係る位置推定システム1は、画像データの解析機能を顔認証装置200に持たせた。これにより、実施の形態2と同様の効果を得ることができる。
 実施の形態4.
 実施の形態4は、入室管理装置100に代えて、食堂といった場所に設置された料金の精算を行う、認証機能付きの精算装置を用いる点が実施の形態1と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図21を参照して、実施の形態4に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、1台以上の精算装置300とを備える。位置推定装置10と精算装置300とは、伝送路90を介して接続されている。
 精算装置300は、利用者を認証した上で、料金の精算をするコンピュータである。
 具体例としては、精算装置300は、食堂といった場所に設けられており、利用者を認証した上で料金の精算をする装置である。精算装置300は、認証システムの一例である。
 図22を参照して、実施の形態4に係る精算装置300の構成を説明する。
 精算装置300は、プロセッサ301と、メモリ302と、ストレージ303と、通信インタフェース304とのハードウェアを備える。プロセッサ301は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ301と、メモリ302と、ストレージ303と、通信インタフェース304とは、それぞれ、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14と同じである。
 精算装置300は、通信インタフェース304を介して、読取装置340と接続されている。読取装置340は、認証情報を読み取る装置である。読取装置340は、認証端末140と同様に、カードリーダ又は生体情報読取装置である。
 精算装置300は、機能構成要素として、認証部311と、精算処理部312と、情報送信部313とを備える。精算装置300の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ303には、精算装置300の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ301によりメモリ302に読み込まれ、プロセッサ301によって実行される。これにより、精算装置300の各機能構成要素の機能が実現される。
 また、ストレージ303は、精算履歴記憶部331を実現する。
 ***動作の説明***
 図6と、図23から図25とを参照して、実施の形態4に係る位置推定システム1の動作を説明する。
 実施の形態4に係る位置推定システム1の動作は、実施の形態4に係る位置推定方法に相当する。また、実施の形態4に係る位置推定システム1の動作は、実施の形態4に係る位置推定プログラムの処理に相当する。
 図23を参照して、実施の形態4に係る精算装置300の動作を説明する。
 精算装置300は、認証情報を読み取ると動作を開始する。
 (ステップS61:認証情報取得処理)
 認証部311は、読取装置340から認証情報を取得する。認証情報は、実施の形態1と同じである。
 (ステップS62:利用者認証処理)
 認証部311は、ステップS61で取得された認証情報に基づき、利用者の認証を行う。
 認証部311は、認証に成功した場合には、処理をステップS63に進める。一方、認証部311は、認証に失敗した場合には、処理を終了する。
 (ステップS63:精算処理)
 精算処理部312は、食事代金といった料金の精算処理を行う。
 (ステップS64:精算履歴記憶処理)
 精算処理部312は、精算情報を精算履歴記憶部331に書き込む。
 具体例としては、図24に示すように、精算処理部312は、精算装置300の識別子である精算装置IDと、日付と、時刻と、利用者IDとを精算履歴記憶部331に記憶する。これにより、いつ、だれが、精算を行ったかを特定することが可能になる。
 (ステップS65:認証情報送信処理)
 情報送信部313は、精算装置300の精算装置IDを位置推定装置10に送信する。
 図6を参照して、実施の形態4に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 ステップS22からステップS23の処理と、ステップS25の処理とは、実施の形態1と同じである。
 (ステップS21:認証判定処理)
 制御部21は、精算装置300から精算装置IDが送信されたか否かを判定する。
 精算装置IDが送信されていない場合には、処理をステップS22に進める。一方、制御部21は、精算装置IDが送信された場合には、精算装置IDを取得した上で、処理をステップS24に進める。
 (ステップS24:第2推定処理)
 第2推定部24は、ステップS21で取得された認証端末IDが示す精算装置300から特定される補正情報に基づき、利用者の現在の移動方向及び現在の位置を推定する。
 具体的には、第2推定部24は、補正情報記憶部31から、精算装置IDに対応した方向及び位置を示す補正情報を読み出す。そして、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定し、補正情報が示す位置が現在の位置であると推定する。
 図25に示すように、補正情報記憶部31には、精算装置ID毎に、方向及び位置が記憶されている。精算装置300の位置から認証された利用者の位置が分かる。また、精算装置300で精算を行う利用者は一方通行で進むことから、利用者の移動方向が分かる。そのため、補正情報記憶部31には、予め精算装置ID毎に、利用者がいると推定される位置と、利用者が移動すると推定される方向とが記憶されている。
 ***実施の形態4の効果***
 以上のように、実施の形態4に係る位置推定システム1は、精算装置300で利用者が認証された場合に、精算装置300から特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。精算装置300が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 実施の形態5.
 実施の形態5は、精算装置300に代えて、認証機能付きのコピー機を用いる点が実施の形態4と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図26を参照して、実施の形態5に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、1台以上のコピー機400とを備える。位置推定装置10とコピー機400とは、伝送路90を介して接続されている。
 コピー機400は、事務所といった場所に設けられており、利用者を認証した上でコピーを実行する装置である。コピー機400は、認証システムの一例である。
 図27を参照して、実施の形態5に係るコピー機400の構成を説明する。
 コピー機400は、プロセッサ401と、メモリ402と、ストレージ403と、通信インタフェース404とのハードウェアを備える。プロセッサ401は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ401と、メモリ402と、ストレージ403と、通信インタフェース404とは、それぞれ、プロセッサ301と、メモリ302と、ストレージ303と、通信インタフェース304と同じである。
 コピー機400は、通信インタフェース404を介して、読取装置440と接続されている。読取装置440は、認証情報を読み取る装置である。読取装置440は、実施の形態1における認証端末140と同様に、カードリーダ又は生体情報読取装置である。
 コピー機400は、機能構成要素として、認証部411と、コピー処理部412と、情報送信部413とを備える。コピー機400の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ403には、コピー機400の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ401によりメモリ402に読み込まれ、プロセッサ401によって実行される。これにより、コピー機400の各機能構成要素の機能が実現される。
 ***動作の説明***
 図28を参照して、実施の形態5に係る位置推定システム1の動作を説明する。
 実施の形態5に係る位置推定システム1の動作は、実施の形態5に係る位置推定方法に相当する。また、実施の形態5に係る位置推定システム1の動作は、実施の形態5に係る位置推定プログラムの処理に相当する。
 図28を参照して、実施の形態5に係るコピー機400の動作を説明する。
 コピー機400は、認証情報を読み取ると動作を開始する。
 (ステップS71:認証情報取得処理)
 認証部411は、読取装置440から認証情報を取得する。認証情報は、実施の形態1と同じである。
 (ステップS72:利用者認証処理)
 認証部411は、ステップS71で取得された認証情報に基づき、利用者の認証を行う。
 認証部411は、認証に成功した場合には、処理をステップS73に進める。一方、認証部411は、認証に失敗した場合には、処理を終了する。
 (ステップS73:コピー処理)
 コピー処理部412は、設定された書類のコピー処理を行う。
 (ステップS74:認証情報送信処理)
 情報送信部413は、コピー機400のコピー機IDを位置推定装置10に送信する。
 位置推定装置10の動作は、精算装置300をコピー機400と読み替え、精算装置IDをコピー機IDと読み替えれば、実施の形態4と同じである。
 ***実施の形態5の効果***
 以上のように、実施の形態5に係る位置推定システム1は、コピー機400で利用者が認証された場合に、コピー機400から特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。コピー機400が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 実施の形態6.
 実施の形態6は、精算装置300に代えて、認証機能付きのエレベータ500を用いる点が実施の形態4と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
 ***構成の説明***
 図29を参照して、実施の形態6に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、1台以上のエレベータ500とを備える。位置推定装置10とエレベータ500とは、伝送路90を介して接続されている。
 エレベータ500は、利用者を認証した上で、指定された階層まで昇降する装置である。エレベータ500は、認証システムの一例である。
 図30を参照して、実施の形態5に係るエレベータ500の構成を説明する。
 エレベータ500は、プロセッサ501と、メモリ502と、ストレージ503と、通信インタフェース504とのハードウェアを備える。プロセッサ501は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ501と、メモリ502と、ストレージ503と、通信インタフェース504とは、それぞれ、プロセッサ301と、メモリ302と、ストレージ303と、通信インタフェース304と同じである。
 エレベータ500は、通信インタフェース504を介して、読取装置540と接続されている。読取装置540は、認証情報を読み取る装置である。読取装置540は、実施の形態1における認証端末140と同様に、カードリーダ又は生体情報読取装置である。
 エレベータ500は、機能構成要素として、認証部511と、昇降処理部512と、情報送信部513とを備える。エレベータ500の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ503には、エレベータ500の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ501によりメモリ502に読み込まれ、プロセッサ501によって実行される。これにより、エレベータ500の各機能構成要素の機能が実現される。
 ***動作の説明***
 図6と、図31と、図32とを参照して、実施の形態6に係る位置推定システム1の動作を説明する。
 実施の形態6に係る位置推定システム1の動作は、実施の形態6に係る位置推定方法に相当する。また、実施の形態6に係る位置推定システム1の動作は、実施の形態6に係る位置推定プログラムの処理に相当する。
 図31を参照して、実施の形態6に係るエレベータ500の動作を説明する。
 エレベータ500は、認証情報を読み取ると動作を開始する。
 (ステップS81:認証情報取得処理)
 認証部511は、読取装置540から認証情報を取得する。認証情報は、実施の形態1と同じである。
 (ステップS82:利用者認証処理)
 認証部511は、ステップS81で取得された認証情報に基づき、利用者の認証を行う。
 認証部511は、認証に成功した場合には、処理をステップS83に進める。一方、認証部511は、認証に失敗した場合には、処理を終了する。
 (ステップS83:昇降処理)
 昇降処理部512は、指定された階層への昇降処理を行う。
 (ステップS84:認証情報送信処理)
 情報送信部513は、エレベータ500のエレベータIDと、利用者がエレベータ500の乗った階層とを位置推定装置10に送信する。情報送信部513は、利用者がエレベータ500の乗った階層ではなく、指定された階層を位置推定装置10に送信してもよい。
 図6を参照して、実施の形態6に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 ステップS22からステップS23の処理と、ステップS25の処理とは、実施の形態1と同じである。
 (ステップS21:認証判定処理)
 制御部21は、エレベータ500からエレベータIDが送信されたか否かを判定する。
 エレベータIDが送信されていない場合には、処理をステップS22に進める。一方、制御部21は、エレベータIDが送信された場合には、エレベータIDを取得した上で、処理をステップS24に進める。
 (ステップS24:第2推定処理)
 第2推定部24は、ステップS21で取得されたエレベータIDが示すエレベータ500から特定される補正情報と、ステップS21で取得された階層とに基づき、利用者の現在の移動方向及び現在の位置を推定する。
 具体的には、第2推定部24は、補正情報記憶部31から、エレベータIDに対応した方向及び位置を示す補正情報を読み出す。そして、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定し、補正情報が示す平面方向の位置及び階層が示す位置が現在の位置であると推定する。
 図32に示すように、補正情報記憶部31には、エレベータID毎に、方向及び平面方向の位置が記憶されている。エレベータ500の位置から認証された利用者の平面方向の位置が分かる。また、エレベータ500の出入口の方向から、利用者の移動方向が分かる。そのため、補正情報記憶部31には、予めエレベータID毎に、利用者がいると推定される平面方向の位置と、利用者が移動すると推定される方向とが記憶されている。
 ***実施の形態6の効果***
 以上のように、実施の形態6に係る位置推定システム1は、エレベータ500で利用者が認証された場合に、エレベータ500から特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。エレベータ500が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 実施の形態7.
 実施の形態7は、精算装置300に代えて、PC(Personal Computer)といった利用者用の固定端末を用いる点が実施の形態4と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
 図33を参照して、実施の形態7に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、1台以上の固定端末600とを備える。位置推定装置10と固定端末600とは、伝送路90を介して接続されている。
 固定端末600は、事務所の利用者の机といった場所に設けられており、利用者がログインを行うことにより使用可能な状態になるコンピュータである。固定端末600は、認証システムの一例である。
 図34を参照して、実施の形態7に係る固定端末600の構成を説明する。
 固定端末600は、プロセッサ601と、メモリ602と、ストレージ603と、通信インタフェース604とのハードウェアを備える。プロセッサ601は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ601と、メモリ602と、ストレージ603と、通信インタフェース604とは、それぞれ、プロセッサ301と、メモリ302と、ストレージ303と、通信インタフェース304と同じである。
 固定端末600は、機能構成要素として、認証部611と、情報送信部612とを備える。固定端末600の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ603には、固定端末600の各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ601によりメモリ602に読み込まれ、プロセッサ601によって実行される。これにより、固定端末600の各機能構成要素の機能が実現される。
 また、ストレージ603は、ログイン履歴記憶部631を実現する。
 ***動作の説明***
 図35を参照して、実施の形態7に係る位置推定システム1の動作を説明する。
 実施の形態7に係る位置推定システム1の動作は、実施の形態7に係る位置推定方法に相当する。また、実施の形態7に係る位置推定システム1の動作は、実施の形態7に係る位置推定プログラムの処理に相当する。
 図35を参照して、実施の形態7に係る固定端末600の動作を説明する。
 固定端末600は、キーボードといった入力装置から何らかの入力を受け付けると動作を開始する。
 (ステップS91:認証情報取得処理)
 認証部611は、入力装置により入力されたログイン情報を取得する。具体例としては、ログイン情報は、利用者ID及びパスワードである。
 (ステップS92:利用者認証処理)
 認証部611は、ステップS91で取得されたログイン情報に基づき、利用者の認証を行う。
 認証部611は、認証に成功した場合には、処理をステップS93に進める。一方、認証部611は、認証に失敗した場合には、処理を終了する。
 (ステップS93:ログイン履歴記憶処理)
 認証部611は、ログイン情報をログイン履歴記憶部631に書き込む。
 具体例としては、図36に示すように、認証部611は、固定端末600の識別子である固定端末IDと、日付と、時刻と、利用者IDとをログイン履歴記憶部631に記憶する。固定端末IDは、具体例としては、MAC(Media Access Control address)アドレスである。これにより、いつ、だれが、ログインを行ったかを特定することが可能になる。
 (ステップS94:認証情報送信処理)
 情報送信部612は、固定端末600の固定端末IDを位置推定装置10に送信する。
 位置推定装置10の動作は、精算装置300を固定端末600と読み替え、精算装置IDを固定端末IDと読み替えれば、実施の形態4と同じである。
 ***実施の形態7の効果***
 以上のように、実施の形態7に係る位置推定システム1は、固定端末600に利用者がログインした場合に、固定端末600から特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。固定端末600が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 実施の形態8.
 実施の形態8は、エレベータ500に代えて、認証機能を持たないエレベータ700を用いる点が実施の形態6と異なる。実施の形態8では、この異なる点を説明し、同一の点については説明を省略する。
 図37を参照して、実施の形態8に係る位置推定システム1の構成を説明する。
 位置推定システム1は、位置推定装置10と、1台以上のエレベータ700とを備える。位置推定装置10とエレベータ700とは、伝送路90を介して接続されている。
 実施の形態8では、位置推定装置10は、スマートフォンといった利用者に携帯される携帯端末であるとする。また、伝送路90は、エレベータ700又はエレベータ700付近に設置されたエレベータ700用の無線LAN(Local Area Network)といった無線ネットワークであるとする。
 エレベータ700は、利用者を認証することなく、指定された階層まで昇降する装置である。
 図38を参照して、実施の形態8に係るエレベータ700の構成を説明する。
 エレベータ700は、プロセッサ701と、メモリ702と、ストレージ703と、通信インタフェース704とのハードウェアを備える。プロセッサ701は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ701と、メモリ702と、ストレージ703と、通信インタフェース704とは、それぞれ、プロセッサ501と、メモリ502と、ストレージ503と、通信インタフェース504と同じである。
 エレベータ700は、機能構成要素として、情報送信部711を備える。エレベータ700の機能構成要素の機能はソフトウェアにより実現される。
 ストレージ703には、エレベータ700の機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ701によりメモリ702に読み込まれ、プロセッサ701によって実行される。これにより、エレベータ700の機能構成要素の機能が実現される。
 ***動作の説明***
 図39と、図40とを参照して、実施の形態8に係る位置推定システム1の動作を説明する。
 実施の形態8に係る位置推定システム1の動作は、実施の形態8に係る位置推定方法に相当する。また、実施の形態8に係る位置推定システム1の動作は、実施の形態8に係る位置推定プログラムの処理に相当する。
 図39を参照して、実施の形態8に係るエレベータ700の動作を説明する。
 (ステップS1001:情報送信処理)
 情報送信部711は、一定時間毎に、エレベータ700の識別子であるエレベータIDと、現在の階層とを伝送路90を介して周囲に送信する。
 なお、位置推定装置10の制御部21は、情報送信部711に送信されたエレベータIDと階層とを受信可能な場合には、エレベータIDと階層とを受信する。つまり、伝送路90である無線ネットワークの通信エリア内に位置推定装置10が入った場合には、制御部21はエレベータIDと階層とを受信する。
 図40を参照して、実施の形態8に係る位置推定装置10の動作を説明する。
 位置推定装置10は、利用者が屋内にいる間といった特定期間中に、基準時間毎に処理を繰り返し実行する。
 ステップS1102からステップS1103の処理と、ステップS1105の処理とは、図6のステップS22からステップS23の処理と、ステップS25の処理と同じである。
 (ステップS1101:利用判定処理)
 制御部21は、利用者がエレベータ700を利用しているか否かを判定する。具体的には、制御部21は、エレベータIDと階層とを受信し、かつ、判定期間内における位置推定装置10の移動距離が基準距離未満である場合には、利用者がエレベータ700を利用していると判定し、そうでない場合には利用者がエレベータ700を利用していないと判定する。つまり、制御部21は、エレベータ700の通信エリアに入り、かつ、判定期間における移動距離が基準距離未満の場合に、利用者がエレベータ700を利用していると判定し、そうでない場合には利用者がエレベータ700を利用していないと判定する。
 制御部21は、利用者がエレベータ700を利用していない場合には、処理をステップS1102に進める。一方、制御部21は、利用者がエレベータ700を利用している場合には、処理をステップS1104に進める。
 (ステップS1104:第2推定処理)
 第2推定部24は、ステップS1101で取得されたエレベータIDが示すエレベータ700から特定される補正情報と、ステップS1101で取得された階層とに基づき、利用者の現在の移動方向及び現在の位置を推定する。
 具体的には、第2推定部24は、補正情報記憶部31から、エレベータIDに対応した方向及び位置を示す補正情報を読み出す。そして、第2推定部24は、補正情報が示す方向が現在の移動方向であると推定し、補正情報が示す平面方向の位置及び階層が示す位置が現在の位置であると推定する。
 なお、補正情報記憶部31には、実施の形態6と同様に、図32に示す情報が記憶されている。
 ***実施の形態8の効果***
 以上のように、実施の形態8に係る位置推定システム1は、エレベータ700で利用者が認証された場合に、エレベータ700から特定される補正情報を用いて、利用者の移動方向及び現在の位置を推定する。
 これにより、センサデータに基づく利用者の移動方向のずれと、現在の位置のずれが補正され、位置の推定精度が高くなる。エレベータ700が導入されている場合には、ビーコン等の新たな機器を別途設置する必要がなく、位置推定システム1を容易に導入可能である。
 特に実施の形態8に係る位置推定システム1は、エレベータ700が認証機能を持たない。このように、認証機能を持たないエレベータ700は多くの建物に導入されている。そのため、位置推定システム1を多くの建物に容易に導入することができる。
 実施の形態9.
 実施の形態1~8では、位置推定装置10と、それぞれ異なる装置とを備える位置推定システム1を説明した。位置推定システム1は、位置推定装置10と、2つ以上の実施の形態で説明された装置とを備えてもよい。例えば、位置推定システム1は、実施の形態1で説明した入室管理装置100と、実施の形態2で説明した顔認証装置200とを備えてもよい。
 1 位置推定システム、10 位置推定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 制御部、22 センサデータ取得部、23 第1推定部、24 第2推定部、25 更新部、31 補正情報記憶部、32 位置情報記憶部、90 伝送路、100 入室管理装置、101 プロセッサ、102 メモリ、103 ストレージ、104 通信インタフェース、105 電子回路、111 認証部、112 扉制御部、113 情報送信部、131 入退室情報記憶部、140 認証端末、200 顔認証装置、201 プロセッサ、202 メモリ、203 ストレージ、204 通信インタフェース、211 画像取得部、212 顔認証部、213 情報送信部、231 認証履歴記憶部、240 カメラ、300 精算装置、301 プロセッサ、302 メモリ、303 ストレージ、304 通信インタフェース、311 認証部、312 精算処理部、313 情報送信部、331 精算履歴記憶部、340 読取装置、400 コピー機、401 プロセッサ、402 メモリ、403 ストレージ、404 通信インタフェース、411 認証部、412 コピー処理部、413 情報送信部、440 読取装置、500 エレベータ、501 プロセッサ、502 メモリ、503 ストレージ、504 通信インタフェース、511 認証部、512 昇降処理部、513 情報送信部、540 読取装置、600 固定端末、601 プロセッサ、602 メモリ、603 ストレージ、604 通信インタフェース、611 認証部、612 情報送信部、631 ログイン履歴記憶部、700 エレベータ、701 プロセッサ、702 メモリ、703 ストレージ、704 通信インタフェース、711 情報送信部。

Claims (15)

  1.  利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得部と、
     前記センサデータ取得部によって取得された前記センサデータに基づき前記利用者の移動距離を推定するとともに、前記センサデータと記憶装置に記憶された移動方向とに基づき前記利用者の現在の移動方向を推定して、前記移動距離及び前記現在の移動方向から前記利用者の現在の位置を推定する第1推定部と、
     認証システムによって前記利用者の認証が行われると、前記認証システムに基づき特定される補正情報に基づき、前記利用者の現在の移動方向を推定する第2推定部と、
     前記第1推定部又は前記第2推定部によって推定された現在の移動方向により、前記記憶装置に記憶された移動方向を更新する更新部と
    を備える位置推定装置。
  2.  前記第1推定部は、前記記憶装置に記憶された位置から、前記現在の移動方向に前記移動距離だけ移動した位置を、前記利用者の現在の位置と推定し、
     前記更新部は、前記第1推定部により推定された前記現在の位置により、前記記憶装置に記憶された位置を更新する
    請求項1に記載の位置推定装置。
  3.  前記第2推定部は、前記補正情報に基づき、前記利用者の現在の位置を推定し、
     前記更新部は、前記第2推定部により推定された前記現在の位置により、前記記憶装置に記憶された位置を更新する
    請求項2に記載の位置推定装置。
  4.  前記認証システムは、部屋の出入口に設置され、利用者の認証情報を読み取る認証端末を備え、
     前記補正情報は、前記利用者の認証情報を読み取った認証端末に応じた方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  5.  前記認証システムは、利用者の顔認証を行うための画像データを取得する撮像装置を備え、
     前記補正情報は、前記画像データを取得した撮像装置の位置と、前記画像データとから特定される方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  6.  前記第2推定部は、前記画像データを取得した前記撮像装置の位置と前記画像データとから前記補正情報を計算する
    請求項5に記載の位置推定装置。
  7.  前記第2推定部は、前記認証システムから前記補正情報を取得する
    請求項5に記載の位置推定装置。
  8.  前記認証システムは、利用者の認証を行い、料金の精算を行う精算装置を備え、
     前記補正情報は、前記利用者の認証を行った精算装置に応じた方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  9.  前記認証システムは、利用者の認証を行い、書類のコピーを行うコピー機を備え、
     前記補正情報は、前記利用者の認証を行ったコピー機に応じた方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  10.  前記認証システムは、利用者の認証を行い動作するエレベータを備え、
     前記補正情報は、前記利用者の認証を行ったエレベータに応じた方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  11.  前記認証システムは、利用者のログイン認証を行う利用者端末を備え、
     前記補正情報は、前記利用者の認証を行った利用者端末に応じた方向及び位置を示し、
     前記第2推定部は、前記補正情報が示す方向が前記現在の移動方向であると推定し、前記補正情報が示す位置が前記現在の位置であると推定する
    請求項1から3までのいずれか1項に記載の位置推定装置。
  12.  利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得工程と、
     前記センサデータ取得工程によって取得された前記センサデータに基づき前記利用者の移動距離を推定するとともに、前記センサデータと記憶装置に記憶された移動方向とに基づき前記利用者の現在の移動方向を推定して、前記移動距離及び前記現在の移動方向から前記利用者の現在の位置を推定する第1推定工程と、
     認証システムによって前記利用者の認証が行われると、前記認証システムに基づき特定される補正情報に基づき、前記利用者の現在の移動方向を推定する第2推定工程と、
     前記第1推定工程又は前記第2推定工程によって推定された現在の移動方向により、前記記憶装置に記憶された移動方向を更新する更新工程と
    を備える位置推定方法。
  13.  利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得処理と、
     前記センサデータ取得処理によって取得された前記センサデータに基づき前記利用者の移動距離を推定するとともに、前記センサデータと記憶装置に記憶された移動方向とに基づき前記利用者の現在の移動方向を推定して、前記移動距離及び前記現在の移動方向から前記利用者の現在の位置を推定する第1推定処理と、
     認証システムによって前記利用者の認証が行われると、前記認証システムに基づき特定される補正情報に基づき、前記利用者の現在の移動方向を推定する第2推定処理と、
     前記第1推定処理又は前記第2推定処理によって推定された現在の移動方向により、前記記憶装置に記憶された移動方向を更新する更新処理と
    をコンピュータに実行させる位置推定プログラム。
  14.  利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得部と、
     前記センサデータ取得部によって取得された前記センサデータに基づき、前記利用者の移動距離及び現在の移動方向を推定し、前記移動距離及び前記現在の移動方向と、記憶装置に記憶された位置とから、前記利用者の位置を推定する第1推定部と、
     認証システムによって前記利用者の認証が行われると、前記認証システムに基づき特定される補正情報に基づき、前記利用者の現在の位置を推定する第2推定部と、
     前記第1推定部又は前記第2推定部によって推定された現在の位置により、前記記憶装置に記憶された位置を更新する更新部と
    を備える位置推定装置。
  15.  利用者によって携帯される端末に搭載されたセンサからセンサデータを取得するセンサデータ取得部と、
     前記センサデータ取得部によって取得された前記センサデータに基づき前記利用者の移動距離を推定するとともに、前記センサデータと記憶装置に記憶された移動方向とに基づき前記利用者の現在の移動方向を推定して、前記移動距離及び前記現在の移動方向から前記利用者の現在の位置を推定する第1推定部と、
     エレベータ装置の通信エリアに入り、かつ、判定期間における移動距離が基準距離未満の場合に、前記エレベータ装置から特定される補正情報に基づき、前記利用者の現在の移動方向を推定する第2推定部と、
     前記第1推定部又は前記第2推定部によって推定された現在の移動方向により、前記記憶装置に記憶された移動方向を更新する更新部と
    を備える位置推定装置。
PCT/JP2017/030241 2017-08-24 2017-08-24 位置推定装置、位置推定方法及び位置推定プログラム WO2019038871A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/030241 WO2019038871A1 (ja) 2017-08-24 2017-08-24 位置推定装置、位置推定方法及び位置推定プログラム
JP2018506637A JPWO2019038871A1 (ja) 2017-08-24 2017-08-24 位置推定装置、位置推定方法及び位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/030241 WO2019038871A1 (ja) 2017-08-24 2017-08-24 位置推定装置、位置推定方法及び位置推定プログラム

Publications (1)

Publication Number Publication Date
WO2019038871A1 true WO2019038871A1 (ja) 2019-02-28

Family

ID=65438448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/030241 WO2019038871A1 (ja) 2017-08-24 2017-08-24 位置推定装置、位置推定方法及び位置推定プログラム

Country Status (2)

Country Link
JP (1) JPWO2019038871A1 (ja)
WO (1) WO2019038871A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343622A (zh) * 2022-03-18 2022-04-15 龙旗电子(惠州)有限公司 智能监测衣物、人体形态监测方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012205240A (ja) * 2011-03-28 2012-10-22 Nikon Corp 電子機器及び情報伝達システム
WO2014038041A1 (ja) * 2012-09-06 2014-03-13 株式会社東芝 位置検出装置、位置検出方法及び位置検出プログラム
JP2014142308A (ja) * 2013-01-25 2014-08-07 Ricoh Co Ltd 携帯端末、位置情報設定方法、位置情報設定システム及び位置情報設定プログラム
JP2014238414A (ja) * 2010-01-14 2014-12-18 クアルコム,インコーポレイテッド ロケーションコンテキスト識別子を用いた移動局ナビゲーションのためのスケーラブルルーティング
JP2015111096A (ja) * 2013-10-28 2015-06-18 株式会社リコー 方位推定装置、方位推定システム、方位推定方法およびプログラム
JP2015181252A (ja) * 2011-02-05 2015-10-15 アップル インコーポレイテッド 移動体ロケーション判定のための方法及び装置
JP2016109426A (ja) * 2014-12-01 2016-06-20 株式会社東芝 サーバコンピュータ、測位システム、測位方法およびプログラム
JP2016194522A (ja) * 2010-07-13 2016-11-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated 屋内尤度ヒートマップの生成

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016183921A (ja) * 2015-03-26 2016-10-20 株式会社東芝 サーバコンピュータ、測位システム、測位方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238414A (ja) * 2010-01-14 2014-12-18 クアルコム,インコーポレイテッド ロケーションコンテキスト識別子を用いた移動局ナビゲーションのためのスケーラブルルーティング
JP2016194522A (ja) * 2010-07-13 2016-11-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated 屋内尤度ヒートマップの生成
JP2015181252A (ja) * 2011-02-05 2015-10-15 アップル インコーポレイテッド 移動体ロケーション判定のための方法及び装置
JP2012205240A (ja) * 2011-03-28 2012-10-22 Nikon Corp 電子機器及び情報伝達システム
WO2014038041A1 (ja) * 2012-09-06 2014-03-13 株式会社東芝 位置検出装置、位置検出方法及び位置検出プログラム
JP2014142308A (ja) * 2013-01-25 2014-08-07 Ricoh Co Ltd 携帯端末、位置情報設定方法、位置情報設定システム及び位置情報設定プログラム
JP2015111096A (ja) * 2013-10-28 2015-06-18 株式会社リコー 方位推定装置、方位推定システム、方位推定方法およびプログラム
JP2016109426A (ja) * 2014-12-01 2016-06-20 株式会社東芝 サーバコンピュータ、測位システム、測位方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343622A (zh) * 2022-03-18 2022-04-15 龙旗电子(惠州)有限公司 智能监测衣物、人体形态监测方法及装置

Also Published As

Publication number Publication date
JPWO2019038871A1 (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
KR101749017B1 (ko) 주변 정보를 이용하는 스피드-업 탬플릿 매칭
US11859982B2 (en) System for determining position both indoor and outdoor
CN103827634B (zh) 用于室内定位的徽标检测
KR20190134922A (ko) 허브를 통해 복수의 전자 장치를 서버에 연결시키는 방법 및 이를 수행하는 전자 장치
CN108389264B (zh) 坐标系统确定方法、装置、存储介质及电子设备
CN105606086A (zh) 一种定位方法及终端
EP2981135A1 (en) Location estimation device, lo cation estimation method, terminal of concern, communication method, communication terminal, recording medium, and location estimation system
US20190011269A1 (en) Position estimation device, position estimation method, and recording medium
CN113094966A (zh) 用于使用粒子滤波器进行定位的基于射频的虚拟运动模型
US10048770B1 (en) Gesture onset detection on multiple devices
US20140341475A1 (en) Image matching
US8161201B2 (en) Methods and system for configuring a peripheral device with an information handling system
US10171464B2 (en) Data process apparatus, data sharing method, and data process system
WO2019038871A1 (ja) 位置推定装置、位置推定方法及び位置推定プログラム
WO2021125578A1 (ko) 시각 정보 처리 기반의 위치 인식 방법 및 시스템
CN110781809A (zh) 基于注册特征更新的识别方法、装置及电子设备
KR102543742B1 (ko) 이동 단말기 및 이동 단말기의 동작 방법을 기록한 컴퓨터로 읽을 수 있는 기록 매체
KR20140103021A (ko) 객체 인식이 가능한 전자 장치
TWI731340B (zh) 虛實結合之定位方法
KR20200069881A (ko) 사용자의 위치를 감지하기 위한 전자 장치 및 그에 관한 방법
JP6591594B2 (ja) 情報提供システム、サーバ装置、及び情報提供方法
KR20190143666A (ko) 이미지를 위치 데이터로 변환하여 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
KR20190117112A (ko) 주차 위치 확인 시스템 및 방법
CN114071003B (zh) 一种基于光通信装置的拍摄方法和系统
US11422949B2 (en) Communication device

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018506637

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17922807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17922807

Country of ref document: EP

Kind code of ref document: A1