WO2018220911A1 - 歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム - Google Patents

歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム Download PDF

Info

Publication number
WO2018220911A1
WO2018220911A1 PCT/JP2018/006303 JP2018006303W WO2018220911A1 WO 2018220911 A1 WO2018220911 A1 WO 2018220911A1 JP 2018006303 W JP2018006303 W JP 2018006303W WO 2018220911 A1 WO2018220911 A1 WO 2018220911A1
Authority
WO
WIPO (PCT)
Prior art keywords
stride
user
calculation device
unit
stride calculation
Prior art date
Application number
PCT/JP2018/006303
Other languages
English (en)
French (fr)
Inventor
善久 関口
創 窪田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201880036302.0A priority Critical patent/CN110691958A/zh
Priority to US16/618,103 priority patent/US20200158533A1/en
Publication of WO2018220911A1 publication Critical patent/WO2018220911A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Definitions

  • the present invention relates to a stride calculation device that calculates a user's stride using detected acceleration.
  • the navigation device is provided in devices such as a mobile phone, a smartphone, and a PDA.
  • the user can reach the target location without hesitation in an underground shopping center, indoor store, or the like.
  • GPS Global Positioning System
  • Patent Document 1 discloses a technique for realizing step length calculation. Specifically, Patent Document 1 discloses an apparatus that estimates the user's stride according to a correlation model formula determined in advance according to the user's walking speed using the Z-axis acceleration of the acceleration sensor.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2014-59315 (published on April 3, 2014)”
  • the prior art as described above is a process for setting the degree of correlation between the user's stride and the acceleration of the user's vertical movement (Z-axis), the degree of correlation between the user's stride and the user's walking speed, etc. for each user. Or the process which acquires is required, Therefore, there exists a problem that the process which calculates a stride becomes complicated.
  • the present invention has been made in view of the above-described problems, and an object of one aspect of the present invention is to realize a stride calculation device that calculates a user's stride without performing complicated processing.
  • a stride calculation device is a stride calculation device worn by a user, the acceleration sensor, and a vertical acceleration of the stride calculation device detected by the acceleration sensor.
  • an altitude difference calculating unit that calculates an altitude difference of the stride calculating device at two specific times
  • a stride calculating unit that calculates the user's stride from the altitude difference and the length of the user's foot. I have.
  • a mobile terminal includes a display unit, a reception unit that receives information indicating a movement vector for each step of the user from an external stride calculation device, A position calculation unit that calculates the position of the user by integrating movement vectors for each step, and a display control unit that displays an image indicating the position of the user on the display unit according to the calculated position of the user. ing.
  • a control method for a stride calculation device is a control method for a stride calculation device worn by a user, and is detected by an acceleration sensor included in the stride calculation device.
  • the height difference calculating step of calculating the height difference of the stride calculation device at two specific times using the vertical acceleration of the stride length calculation device, and the user from the height difference and the length of the user's foot And a step calculation step for calculating a step length.
  • Embodiment 1 Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 6.
  • FIG. 2 is a diagram showing an outline of the stride calculation device 1.
  • the stride calculation device 1 is mounted at a position above the user's waist (above the base of the foot).
  • the stride calculation device 1 detects the acceleration in the vertical direction, and uses the acceleration to calculate the altitude difference of the stride calculation device 1 at two time points.
  • the stride calculation device 1 calculates the user's stride from the calculated altitude difference and the length of the user's foot. Further, the stride calculation device 1 detects the traveling direction of the user.
  • the stride calculation device 1 calculates the user's movement vector from the calculated stride and the detected traveling direction, and calculates the user's current location using the movement vector.
  • the stride calculation device 1 displays the current location of the user.
  • the user can confirm his / her position by confirming the position displayed by the stride calculation device 1.
  • the stride calculation device 1 may be, for example, a tablet terminal, a smartphone, or the like, but is not particularly limited. According to said structure, an indoor navigation apparatus etc. are realizable.
  • FIG. 1 is a block diagram showing a main configuration of the stride calculation device 1.
  • the stride calculation device 1 includes a triaxial acceleration sensor (acceleration sensor) 11, a direction detection unit 12, a control unit 13, a storage unit 14, and a display unit 15.
  • the triaxial acceleration sensor 11 detects acceleration for each axial direction of directional axes (X axis, Y axis, and Z axis) indicating an orthogonal coordinate system in a three-dimensional space.
  • the triaxial acceleration sensor 11 transmits the detected acceleration to the amplitude calculation unit 131 of the control unit 13.
  • FIG. 3 is a diagram showing the relationship between the walking motion and the acceleration of the pedestrian's vertical movement.
  • the height of the waist moves up and down. The height of the waist is lowest when both feet are on the ground (both feet are landing). In addition, while carrying one foot forward, the height of the waist becomes the highest when the foot on the ground stands vertically (both feet are aligned).
  • the acceleration of a pedestrian's vertical motion fluctuates in walking motion. The acceleration increases when both feet of the pedestrian land, and decreases when the feet of the pedestrian are aligned (standing up).
  • the acceleration reaches a peak at the upper end when both feet of the pedestrian land. Further, the acceleration reaches a peak at the lower end when both feet of the pedestrian are aligned (standing up).
  • A1 shown in FIG. 3 indicates acceleration (upper end peak) at the time when both feet of the pedestrian land. Further, A2 shown in FIG. 3 indicates acceleration (peak at the lower end) at the time when both feet of the pedestrian land.
  • the direction detection unit 12 detects the walking direction of the user.
  • the direction detection unit 12 includes, for example, at least one of an angular velocity sensor (sensor that detects the walking direction) 121 and a geomagnetic sensor (sensor that detects the walking direction) 122.
  • the direction detection unit 12 transmits the detection value of at least one of the angular velocity sensor 121 and the geomagnetic sensor 122 to the movement vector calculation unit 133.
  • Control unit 13 The control unit 13 controls each unit of the stride calculation device 1 in an integrated manner.
  • the control unit 13 includes an amplitude calculation unit 131, a stride calculation unit 132, a movement vector calculation unit 133, a position calculation unit 134, and an image update unit (display control unit) 135.
  • the amplitude calculation unit 131 calculates the amplitude of the height of the stride calculation device 1.
  • the amplitude calculation unit 131 includes a vertical direction acceleration calculation unit (acceleration calculation unit) 1311, a relative altitude calculation unit 1312, and an altitude difference calculation unit 1313.
  • the vertical acceleration calculation unit 1311 calculates the acceleration in the vertical direction from the detection value of the triaxial acceleration sensor 11. For example, the axial direction of a specific axis (Z axis) of the triaxial acceleration sensor 11 is not always the same as the vertical direction depending on the posture of the stride calculation device 1. Therefore, the vertical acceleration calculation unit 1311 calculates the posture of the stride calculation device 1 using the fact that the gravitational acceleration always works in the vertical direction at about 9.8 G. The vertical acceleration calculation unit 1311 calculates the acceleration in the vertical direction of the stride calculation device 1 from the detection value of the triaxial acceleration sensor 11 by matrix calculation or the like according to the calculated posture of the stride calculation device 1.
  • the vertical acceleration calculation unit 1311 transmits the calculated vertical acceleration to the relative altitude calculation unit 1312.
  • the acceleration in the Z-axis direction may be set as the vertical acceleration.
  • the three-axis acceleration sensor 11 may transmit the detected acceleration in the Z-axis direction to the relative height calculation unit 1312.
  • the relative altitude calculating unit 1312 integrates the received vertical acceleration, and calculates a relative altitude that is the height of the stride calculating device based on a predetermined height.
  • FIG. 4 is a diagram showing the acceleration in the vertical direction of the stride calculation device and the relative altitude calculated from the acceleration.
  • FIG. 4A shows an example of the acceleration in the vertical direction of the stride calculation device 1.
  • FIG. 4B shows the relative altitude of the stride calculation device 1 calculated from the acceleration in the vertical direction.
  • the relative height calculation unit 1312 calculates the relative height by double-integrating the vertical acceleration at each time point.
  • the relative altitude calculation unit 1312 transmits the calculated relative altitude to the altitude difference calculation unit 1313.
  • the predetermined height as a reference for the relative altitude may be the height of the stride calculation device 1 when the stride calculation processing by the stride calculation device 1 is started.
  • the altitude difference calculation unit 1313 calculates the altitude difference of the stride calculation device 1 at two specific points in time using the vertical acceleration of the stride calculation device detected by the acceleration sensor.
  • the altitude difference calculation unit 1313 calculates the altitude difference of the stride calculation device 1 at two specific times using the relative altitude received from the relative altitude calculation unit 1312.
  • the above two specific time points are the time point when the height of the stride calculation device 1 reaches the peak at the upper end and the lower end point in the amplitude of the fluctuation of the height of the stride calculation device 1 during a predetermined period. It is a point in time when it reaches a peak. That is, the altitude difference calculation unit 1313 detects the peak at the lower end (valley) and the peak at the upper end (peak) in the waveform indicating the relative altitude of the stride calculation device 1. A specific description will be given with reference to FIG. As shown in FIG.
  • the altitude difference calculation unit 1313 calculates the altitude difference between the adjacent peak heights H ⁇ b> 1 and H ⁇ b> 2 in the height variation of the stride calculation device 1.
  • the above-mentioned predetermined period can be said to be a period including a time point when the height of the stride calculation device 1 reaches the peak at the upper end and a time point when the height of the stride calculation device 1 reaches the peak at the lower end.
  • the altitude difference calculation unit 1313 transmits the calculated altitude difference of the stride calculation device 1 to the stride calculation unit 132.
  • the stride calculation unit 132 calculates the user stride from the altitude difference of the stride calculation device 1 received from the altitude difference calculation unit 1313 and the length of the user's foot. For example, as shown in FIG. 2, the stride calculation unit 132 refers to foot length information 141 that is information indicating the length of the user's foot stored in the storage unit 14. The stride calculation unit 132 transmits the calculated stride to the movement vector calculation unit 133.
  • FIG. 5 is a diagram for explaining the stride calculation performed by the stride calculation unit 132.
  • an isosceles triangle having two feet on both sides and a stride on the bottom is formed.
  • the height of the isosceles triangle is H
  • the length of the base is D
  • the length of the side formed by both feet is L
  • the angle indicating the degree of opening is ⁇ .
  • the height H of the isosceles triangle can be calculated by the following formula 1. Further, the length (step length) D of the base can be calculated by the following formula 2.
  • ⁇ H which is the amplitude of the vertical fluctuation of the position of the stride calculation device 1 (the difference in altitude of the stride calculation device 1 at two specific points in time, the difference between the peak at the upper end and the peak at the lower end of the relative altitude), Can be calculated.
  • step 2 the stride length D can be calculated by the following step 4.
  • the stride D can be calculated from the altitude difference ⁇ H of the stride calculation device 1 and the pedestrian's foot length L.
  • the stride calculation unit 132 calculates the stride using Equation 4 above. Accordingly, the stride calculation unit 132 can calculate the stride of the user who wears the stride calculation device 1 above the waist position (base of the foot). For example, the height H of the isosceles triangle becomes lower as the foot opening is larger. Therefore, when the foot is wide open, that is, as the stride is large, the altitude difference ⁇ H is large. In other words, the stride calculation unit 132 calculates the stride wider as the user's foot opening is larger.
  • the stride calculation unit 132 may determine the degree of opening of the foot for each step of the user from the altitude difference ⁇ H. In this configuration, the stride calculation unit 132 calculates the stride widely as the determined degree of opening of the foot is large. Note that the leg length L is generally proportional to the height. Therefore, the stride calculation unit 132 may use the height as a parameter for calculating the stride.
  • FIG. 6 is a diagram showing the stride calculated by the above equation 4.
  • the vertical axis represents the calculated stride (cm)
  • the horizontal axis represents the altitude difference ⁇ H (vertical movement amplitude (cm)) of the stride calculation device 1.
  • ⁇ H vertical movement amplitude
  • the stride is calculated using Equation 4
  • the calculated step length error becomes large. Therefore, there is a possibility that the accuracy of the calculated stride is greatly reduced.
  • the configuration of the present embodiment since it is not necessary to calculate the user's walking speed in order to calculate the user's stride, it is possible to calculate a stride with high accuracy.
  • the movement vector calculation unit 133 calculates a movement vector for each step of the user according to the detected value of at least one of the angular velocity sensor 121 and the geomagnetic sensor 122 included in the direction detection unit 12 and the calculated step length of the user. To do.
  • the movement vector calculation unit 133 stores movement vector information 142 indicating the calculated movement vector in the storage unit 14 and transmits a signal indicating that the movement vector information 142 is stored to the position calculation unit 134.
  • the position calculation unit 134 calculates the position of the user by integrating the movement vectors for each step.
  • the position calculation unit 134 stores position information 143 that is information indicating the calculated user position in the storage unit 14, and transmits a signal indicating that the position information 143 is stored to the image update unit 135.
  • Image update unit 135) When the image update unit 135 receives a signal indicating that the position information 143 is stored in the storage unit 14 from the position calculation unit 134, the image update unit 135 refers to the position information 143 to update (generate) an image indicating the position of the user.
  • the image update unit 135 displays the updated image on the display unit 15. For example, the image update unit 135 may generate an image indicating the position of the user using a map image 144 that is an image of an indoor map or the like stored in the storage unit 14.
  • the storage unit 14 stores the above-described foot length information 141, movement vector information 142, position information 143, and a map image 144.
  • the display unit 15 has a display screen for displaying image data, receives an image signal from the control unit 13, and displays an image on the display screen based on the received image signal.
  • the display unit 15 may have any function as long as it has a function of displaying an image.
  • the display unit 15 may be composed of an LCD (Liquid Crystal Display) display device, an EL (Electro Luminescence) display device, or the like.
  • the display part 15 may be arrange
  • the stride calculation device 1 may start the process based on the user's instruction to start the stride calculation process received from the touch panel.
  • FIG. 7 is a flowchart illustrating an example of a flow of processing executed by the stride calculation device 1.
  • the vertical acceleration calculation unit 1311 calculates the posture of the stride calculation device 1 (S1), and calculates the vertical acceleration of the stride calculation device 1 (S2).
  • the relative altitude calculation unit 1312 calculates the relative altitude of the stride calculation device using the vertical acceleration of the stride calculation device 1 (S3).
  • the altitude difference calculation unit 1313 detects the peak at the lower end (valley) and the peak at the upper end (peak) in the waveform indicating the relative altitude of the stride calculation device 1 (S4). Subsequently, the altitude difference calculation unit 1313 calculates the difference between the lower peak and the upper peak in the relative altitude as the altitude difference of the stride calculation device 1 (S5: altitude difference calculating step). Subsequently, the stride calculation unit 132 calculates a stride from the height difference and the length of the user's foot (S6: stride calculation step).
  • the movement vector calculation unit 133 calculates a movement vector for each step of the user from the detection value of the direction detection unit 12 and the calculated stride (S7).
  • the position calculation unit 134 calculates the position of the user by integrating the movement vectors for each step (S8).
  • the image update unit 135 updates (generates) an image indicating the position of the user, and displays the image on the display unit 15 (S9). For example, upon receiving an end operation by the user, the stride calculation device 1 ends the process. If an end operation by the user is not accepted, the process returns to S1.
  • FIG. 8 is a diagram illustrating a configuration of the amplitude calculation unit 131a according to the present modification.
  • the amplitude calculation unit 131a includes a vertical acceleration calculation unit 1311, a relative altitude calculation unit 1312, an altitude difference calculation unit 1313a, and a walking motion specifying unit 1314a.
  • the vertical acceleration calculation unit 1311 and the relative altitude calculation unit 1312 are the same as those described above, and thus description thereof is omitted here.
  • the walking motion specifying unit 1314a specifies the time point when both feet are aligned in the user's walking motion and the time point when both feet are landing in the user's walking motion, according to the detection value detected by the triaxial acceleration sensor. Specifically, the walking motion specifying unit 1314a receives the vertical acceleration of the stride calculating device 1 from the vertical acceleration calculating unit 1311, and specifies the time when both feet are aligned and the time when both feet of the user land using the acceleration. To do. The walking motion specifying unit 1314a transmits the specified time point to the altitude difference calculating unit 1313a.
  • the vertical acceleration of the stride calculation device 1 increases when the user's both feet land and decreases when the user's both feet are aligned (standing up).
  • the walking motion specifying unit 1314a specifies the time when both feet of the user landed as the time when the acceleration reaches the uppermost peak (A1 in FIG. 3) in the vertical acceleration fluctuation waveform of the stride calculation device 1.
  • the walking motion specifying unit 1314a specifies the time when both feet of the user are aligned as the time when the acceleration reaches the peak at the lower end (A2 in FIG. 3) in the vertical acceleration fluctuation waveform of the stride calculation device 1.
  • the altitude difference calculation unit 1313a calculates the altitude difference of the stride calculation device 1 at two specific times using the relative altitude received from the relative altitude calculation unit 1312. That is, in this modification, two specific time points are a time point when both feet of the user are aligned in a predetermined period and a time point when both feet of the user land.
  • the altitude difference calculation unit 1313 transmits the calculated altitude difference of the stride calculation device 1 to the stride calculation unit 132.
  • FIG. 9 is a flowchart showing a modification of the flow of processing executed by the stride calculation device 1. Note that S1 to S3 and S6 to S9 are the same as the above-described processing, and thus description thereof is omitted here.
  • the walking motion specifying unit 1314a specifies the time when the user's feet are aligned and the time when the user's both feet are landed according to the acceleration in the vertical direction of the stride calculation device 1 (S11).
  • the altitude difference calculation unit 1313a calculates the altitude difference between the relative altitude at the time when both feet of the user are aligned and the relative altitude at the time when both feet of the user landed (S12: altitude difference calculating step).
  • FIG. 10 is a diagram showing an outline of the position information providing system 50 according to the present embodiment.
  • the stride calculation device 1b calculates the user's stride, and transmits movement vector information 142 indicating the movement vector to the portable terminal (external device) 2b.
  • the stride calculation apparatus 1c calculates a user's stride, and transmits the movement vector information 142 which is the information which shows a user's position to the portable terminal (external device) 2c.
  • the portable terminal 2b and the portable terminal 2c display an image indicating the position of the user.
  • FIG. 11 is a block diagram showing a main configuration of the stride calculation device 1b and the portable terminal 2b.
  • the stride calculation device 1b includes a triaxial acceleration sensor 11, a direction detection unit 12, a control unit 13b, a storage unit 14b, and a transmission unit 16b.
  • the configurations of the three-axis acceleration sensor 11 and the direction detection unit 12 are the same as the configurations described in the first embodiment, and thus description thereof is omitted here.
  • the controller 13b includes an amplitude calculator 131, a stride calculator 132, a movement vector calculator 133, and a transmission controller 136b.
  • the controller 13b may include an amplitude calculator 131a instead of the amplitude calculator 131.
  • the configuration of the amplitude calculation unit 131, the stride calculation unit 132, and the movement and movement vector calculation unit 133 is the same as the configuration described in the first embodiment, and thus description thereof is omitted here.
  • the transmission control unit 136b transmits movement vector information 142 indicating the movement vector to the mobile terminal 2b which is an external device.
  • the transmission control unit 136b receives a signal indicating that the movement vector information 142 is stored in the storage unit 14b from the movement vector calculation unit 133.
  • the transmission control unit 136b transmits the movement vector information 142 stored in the storage unit 14b to the mobile terminal 2b via the transmission unit 16b.
  • the transmission unit 16b transmits data to the external device.
  • the transmission unit 16b transmits the movement vector information 142 to the mobile terminal 2 in accordance with an instruction from the transmission control unit 136b.
  • the transmission unit 16b may use short-range wireless such as Bluetooth (registered trademark), for example.
  • the storage unit 14b stores foot length information 141 and movement vector information 142.
  • the portable terminal 2b includes a receiving unit 21b, a control unit 22b, a storage unit 23b, and a display unit 25b.
  • the mobile terminal 2b may be, for example, a tablet terminal or a smartphone.
  • the structure of the display part 25b is the same as that of the above-mentioned display part 15, description here is abbreviate
  • the receiving unit 21b receives data from an external device.
  • movement vector information 142 which is information indicating a movement vector for each step of the user, is received from the stride calculation device 1b, which is an external device.
  • the receiving unit 21b transmits the movement vector information 142 to the movement vector information acquisition unit 221b.
  • the control unit 22b includes a movement vector information acquisition unit 221b, a position calculation unit 222b, and an image update unit (display control unit) 223b.
  • the movement vector information acquisition unit 221b stores the received movement vector information 142 in the storage unit 23b.
  • the movement vector information acquisition unit 221b transmits a signal indicating that the movement vector information 142 is stored in the storage unit 23b to the position calculation unit 222b.
  • the position calculation unit 222b calculates the position of the user by integrating the movement vectors for each step.
  • the position calculation unit 222b stores position information 143, which is information indicating the calculated user position, in the storage unit 23b, and transmits a signal indicating that the position information 143 is stored to the image update unit 223b.
  • Image update unit 223b displays an image indicating the position of the user on the display unit 25b in accordance with the position information 143.
  • the details of the image update unit 223b are the same as those of the image update unit 135 described above, and thus the description thereof is omitted here.
  • the storage unit 23b stores movement vector information 142, position information 143, and a map image 144.
  • the detection values of the sensors included in the triaxial acceleration sensor 11 and the direction detection unit 12 worn by the user are transmitted to the portable terminal 2b such as a tablet or a smartphone, and the portable terminal 2b performs the above-described step calculation and position information. Processing such as calculation of the above may be performed.
  • FIG. 12 is a block diagram showing a main configuration of the stride calculation device 1c and the portable terminal 2c.
  • the stride calculation device 1c includes a triaxial acceleration sensor 11, a direction detection unit 12, a control unit 13c, a storage unit 14c, and a transmission unit 16c.
  • the configurations of the three-axis acceleration sensor 11 and the direction detection unit 12 are the same as the configurations described in the first embodiment, and thus description thereof is omitted here.
  • the controller 13c includes an amplitude calculator 131, a stride calculator 132, a movement vector calculator 133, a position calculator 134, and a transmission controller 136c.
  • the configurations of the amplitude calculation unit 131, the stride calculation unit 132, the movement vector calculation unit 133, and the position calculation unit 134 are the same as those described in the first embodiment, and thus description thereof is omitted here.
  • the control unit 13c may include an amplitude calculation unit 131a instead of the amplitude calculation unit 131.
  • the transmission control unit 136c transmits position information 143 indicating information indicating the position of the user to the mobile terminal 2c which is an external device.
  • the transmission control unit 136c receives a signal indicating that the position information 143 is stored in the storage unit 14c from the position calculation unit 134.
  • the transmission control unit 136c transmits the position information 143 stored in the storage unit 14c to the mobile terminal 2c via the transmission unit 16c.
  • the transmission unit 16c transmits the position information 143 to the mobile terminal 2 according to the instruction of the transmission control unit 136c.
  • the transmission unit 16c may use short-range radio such as Bluetooth, for example.
  • the storage unit 14c stores foot length information 141, movement vector information 142, and position information 143.
  • the mobile terminal 2c includes a receiving unit 21c, a control unit 22c, a storage unit 23c, and a display unit 25c.
  • the portable terminal 2c include a tablet terminal and a smartphone.
  • the structure of the display part 25c is the same as that of the above-mentioned display part 15, description here is abbreviate
  • the receiving unit 21c receives data from an external device.
  • position information 143 that is information indicating the position of the user is received from the stride calculation device 1c that is an external device.
  • the reception unit 21c transmits the position information 143 to the position information acquisition unit 224c.
  • Control unit 22c The control unit 22c includes a position information acquisition unit 224c and an image update unit (display control unit) 223c.
  • the position information acquisition unit 224c stores the received position information 143 in the storage unit 23c.
  • the position information acquisition unit 224c transmits a signal indicating that the position information 143 is stored in the storage unit 23c to the image update unit 223c.
  • Image update unit 223c displays an image indicating the position of the user on the display unit 25c according to the position information 143.
  • the details of the image update unit 223c are the same as those of the image update unit 135 described above, and thus the description thereof is omitted here.
  • the storage unit 23b stores position information 143 and a map image 144.
  • FIG. 13 is a diagram showing an outline of the position information providing system 100 according to the present embodiment.
  • the position information providing system 100 includes a stride calculation device 1b or a stride calculation device 1c, a gateway 3, a server 4, and an information terminal 5. Since the stride calculation device 1b and the stride calculation device 1c have been described in detail in the second embodiment, description thereof is omitted here.
  • Position information providing system example 1 First, the position information providing system 100 including the stride calculation device 1b will be described.
  • Gateway 3 receives movement vector information 142 from stride calculation device 1b.
  • the communication of the movement vector information 142 between the stride calculation device 1b and the gateway 3 may use near field radio such as Bluetooth.
  • the server 4 is, for example, a cloud server and communicates with the gateway 3.
  • the information terminal 5 includes a display unit and receives position information 143 from the server 4.
  • the information terminal 5 is a PC, a tablet terminal, a smartphone, or the like.
  • Either one of the gateway 3 and the server 4 calculates the position information 143 by integrating the movement vector information 142.
  • the gateway 3 transmits the position information 143 to the server 4.
  • the gateway 3 transmits the movement vector information 142 to the server 4.
  • the information terminal 5 receives the calculated position information 143 and displays an image indicating the position of the user wearing the stride calculation device 1b on the display unit according to the information.
  • the gateway 3 receives the position information 143 from the stride calculation device 1b.
  • the communication of the position information 143 between the stride calculation device 1c and the gateway 3 may use short-range radio such as Bluetooth.
  • the server 4 is a cloud server, for example, and receives the position information 143 from the gateway 3.
  • the information terminal 5 includes a display unit and receives position information 143 from the server 4.
  • the information terminal 5 is a PC, a tablet terminal, a smartphone, or the like.
  • the information terminal 5 receives the position information 143 and displays an image indicating the position of the user wearing the stride calculation device 1c on the display unit according to the information.
  • either the gateway 3 or the server 4 receives a detection value of a sensor included in the triaxial acceleration sensor 11 and the direction detection unit 12 attached to the user, and calculates position information 143 from the detection value. It is good also as composition to do.
  • Control blocks of the stride calculation device (1, 1b, 1c), portable terminal (2b, 2c), gateway 3, and server 4 are realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Alternatively, it may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the stride calculation device (1, 1b, 1c), the portable terminal (2b, 2c), the gateway 3, and the server 4 are a CPU that executes instructions of a program that is software that realizes each function, the above programs, and various A ROM (Read Only Memory) or storage device (referred to as “recording medium”) in which data is recorded so as to be readable by a computer (or CPU), a RAM (Random Access Memory) for developing the program, and the like are provided.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • an arbitrary transmission medium such as a communication network or a broadcast wave
  • one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • the stride calculation devices 1, 1b, 1c are stride calculation devices worn by a user, and are vertical of the acceleration sensor (three-axis acceleration sensor 11) and the stride calculation device detected by the acceleration sensor.
  • a stride calculation unit 132 is a stride calculation unit 132.
  • the user's stride is calculated only from the difference in altitude of the stride calculation device at two specific points in time and the length of the user's foot set in advance. Therefore, the user's stride can be calculated by a simple process.
  • the stride calculation device is the stride calculation device according to aspect 1, wherein the acceleration sensor is a triaxial acceleration sensor 11 and an acceleration calculation unit (vertical acceleration) calculates a vertical acceleration from a detection value of the acceleration sensor.
  • a calculating unit 1311) and a relative altitude calculating unit 1312 that integrates the acceleration in the vertical direction and calculates a relative altitude that is the height of the stride calculating device with reference to a predetermined height.
  • the difference calculation unit may calculate a difference in altitude between the stride calculation devices at two specific times using the relative altitude.
  • the altitude difference of the stride calculation device can be calculated from the relative altitude that is the height from the predetermined position of the stride calculation device.
  • the stride calculation device is the stride calculation device according to aspect 1 or 2, wherein the two specific points in time are amplitudes of fluctuations in height of the stride calculation device in a predetermined period. May be the time when the peak becomes the peak at the upper end and the time when the peak becomes the peak at the lower end.
  • the height difference between the height of the stride calculation device with the user's feet aligned and the height of the stride calculation device with the user's feet open and both feet landing is The stride can be calculated.
  • the stride calculation device includes the time when both feet in the user's walking motion are aligned and the both feet in the user's walking motion according to the detection value detected by the acceleration sensor.
  • the walking motion specifying unit 1314a for specifying the time point when the foot has landed may be provided, and the two specific time points may be a time point when both feet are aligned and a time point when both feet are landed in a predetermined period.
  • the user's stride is calculated from the altitude difference between the height of the stride calculation device with the user's feet aligned and the height of the stride calculation device with the user's feet open and both feet landing. Can be calculated.
  • the stride calculation device may be configured such that the stride calculation unit calculates the stride wider as the user's foot opening increases. According to the above configuration, the stride can be calculated according to the degree of opening of the user's legs.
  • the stride calculation device may calculate the stride wider as the length of the user's foot is longer. According to the above configuration, the stride can be calculated according to the length of the user's foot.
  • the stride calculation device in any one of aspects 1 to 6, includes a sensor (angular velocity sensor 121, geomagnetic sensor 122) that detects the walking direction of the user, and the walking direction of the user.
  • the movement vector for every step of a user is computable. Therefore, information indicating the movement of the user can be generated.
  • the stride calculation device may include the position calculation unit 134 that calculates the position of the user by integrating the movement vectors for each step in the aspect 7. According to said structure, the information which shows a user's movement from a specific time or a specific place is generable.
  • the stride calculation device 1b may include the transmission unit 16b that transmits information indicating the movement vector to the external device (the portable terminal 2b) in the aspect 7.
  • the information which shows a user's movement can be transmitted to external apparatuses (for example, indoor navigation apparatus etc.).
  • the stride calculation device 1c may include the transmission unit 16c that transmits the information indicating the position of the user to the external device (the portable terminal 2c) in the aspect 8. According to said structure, the information which shows a user's movement from a specific time or a specific place can be transmitted to an external apparatus.
  • the mobile terminal 2b includes a display unit 25b, a receiving unit 21b that receives information indicating a movement vector for each step of the user from the external stride calculation device 1b, and the movement vector for each step. And a display control unit (image update unit 223b) that displays an image indicating the user position on the display unit according to the calculated user position. And.
  • the position information providing system 100 communicates with the gateway, the stride calculation device according to aspect 9, the gateway 3 that receives information indicating the movement vector of each step of the user from the stride calculation device, and the gateway.
  • the gateway Including a server 4 and an information terminal 5 provided with a display unit that communicates with the server, wherein either the gateway or the server calculates the position of the user by integrating the movement vector for each step, and
  • the information terminal may receive information indicating the calculated position of the user, and display an image indicating the position of the user on the display unit according to the information.
  • the user wearing the stride calculation device in a place apart from the user wearing the stride calculation device is different from the user wearing the stride calculation device.
  • the position and the locus of movement can be confirmed. Therefore, it is possible to realize a factory flow line management system and the like.
  • the stride calculation device calculates the movement vector for each step, the amount of communication data in the system can be reduced. Therefore, it is possible to reduce the power consumption for communication and the processing amount of the server.
  • a position information providing system 100 includes a stride calculation device according to aspect 10, a gateway that receives information indicating the position of the user from the stride calculation device, a server that communicates with the gateway, and the server An information terminal provided with a display unit that communicates with the information terminal, wherein the information terminal receives information indicating the position of the user and displays an image indicating the position of the user on the display unit according to the information. Good.
  • the stride calculation device calculates information indicating the user's position obtained by integrating the movement vectors for each step, the amount of communication data in the system can be reduced.
  • a method for controlling a stride calculation device is a control method for a stride calculation device worn by a user, in the vertical direction of the stride calculation device detected by an acceleration sensor included in the stride calculation device.
  • an altitude difference calculating step (S5, S12) for calculating an altitude difference between the stride calculating devices at two specific times, and calculating the user's stride from the altitude difference and the length of the user's foot.
  • Step (S6) According to said structure, there can exist an effect similar to the aspect 1.
  • the stride calculation device, the portable terminal, the gateway, and the server according to each aspect of the present invention may be realized by a computer.
  • each unit (software) included in the stride calculation device, the portable terminal, the gateway, and the server in this case A control program for realizing the above-mentioned stride calculation device, portable terminal, gateway and server by a computer by operating as an element) and a computer-readable recording medium recording the control program also fall within the scope of the present invention.
  • Step length calculation device 2b 1, 1b, 1c Step length calculation device 2b, 2c Mobile terminal (external device) 3 gateway 4 server 5 information terminal 11 3-axis acceleration sensor (acceleration sensor) 16c, 16b Transmitting unit 21b Receiving unit 100 Position information providing system 121 Angular velocity sensor (sensor for detecting walking direction) 122 Geomagnetic sensor (sensor that detects walking direction) 132 step length calculation unit 133 movement vector calculation unit 134 position calculation unit 222b position calculation unit 223b image update unit (display control unit) 1311 Vertical direction acceleration calculation unit (acceleration calculation unit) 1312 Relative altitude calculation unit 1313, 1313a Altitude difference calculation unit S5, S12 Altitude difference calculation step S6 Step length calculation step

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Navigation (AREA)

Abstract

煩雑な処理を行うことなくユーザの歩幅を算出する歩幅算出装置を実現する。3軸加速度センサ(11)が検出した歩幅算出装置(1)の鉛直方向の加速度を用いて、2つの特定の時点における歩幅算出装置の高度差を算出する高度差算出部(1313)と、上記高度差とユーザの足の長さとからユーザの歩幅を算出する歩幅算出部(132)とを備えている歩幅算出装置。

Description

歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム
 本発明は検出した加速度を用いてユーザの歩幅を算出する歩幅算出装置に関する。
 これまでに、ユーザに対して地下鉄構内、屋内等を案内するナビゲーション装置が開発されている。例えば、ナビゲーション装置は携帯電話、スマートフォン、PDAなどの装置に備わっている。ユーザはナビゲーション装置から提供される案内情報に従って歩行することによって、地下街構内、屋内の店舗等で迷わずに目的の場所まで到達することが可能となる。
 ナビゲーション装置が詳細な案内情報をユーザに提供するためには、移動中のユーザの位置を、随時に、かつ、正確に取得することが求められる。移動中のユーザの位置をリアルタイムに測位しながらナビゲーションするための測位技術としては、衛星を利用したGPS(Global Positioning System)がすでに一般的となっている。しかし、GPSでは、駅ビル、地下街等の屋内において、衛星からの電波を受信することが困難である。そのため、ユーザの位置を測位できない。
 そこで、屋内をナビゲーションする装置を実現するために、加速度センサ、角速度センサ、磁気センサ等を用いてユーザの移動を相対的に測位する技術が提案されている。このような測位では、歩行するユーザの運動(移動変量)をセンサによって検出する。また、歩行するユーザの進行方向と歩幅を算出して1歩ごとの移動ベクトルを算出する。すなわち、ユーザの移動を正確に測位するためには、ユーザの歩幅を正確に算出する必要がある。例えば、特許文献1には歩幅算出を実現する技術が開示されている。詳細には、特許文献1には加速度センサのZ軸の加速度を用いて、ユーザの歩行速度に応じて予め定められた相関モデル式に従ってユーザの歩幅を推測する装置が開示されている。
日本国公開特許公報「特開平2014-59315号公報(2014年4月3日公開)」
 しかしながら、上述のような従来技術は、ユーザの歩幅とユーザの上下動(Z軸)の加速度との相関度合、ユーザの歩幅とユーザの歩行速度との相関度合等をユーザごとに設定する処理、または、取得する処理が必要となる、そのため、歩幅を算出する処理が煩雑となるという問題がある。
 本発明は、前記の問題点に鑑みてなされたものであり、本発明の一態様は、煩雑な処理を行うことなくユーザの歩幅を算出する歩幅算出装置を実現することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る歩幅算出装置は、ユーザが装着する歩幅算出装置であって加速度センサと、上記加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出部と、上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出部とを備えている。
 上記の課題を解決するために、本発明の一態様に係る携帯端末は、表示部と、ユーザの1歩ごとの移動ベクトルを示す情報を外部の歩幅算出装置から受信する受信部と、上記1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する位置算出部と算出された上記ユーザの位置に応じて上記ユーザの位置を示す画像を上記表示部に表示する表示制御部とを備えている。
 上記の課題を解決するために、本発明の一態様に係る歩幅算出装置の制御方法は、ユーザが装着する歩幅算出装置の制御方法であって、上記歩幅算出装置が備えている加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出ステップと、上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出ステップとを含む。
 本発明の一態様によれば、簡易な処理によってユーザの歩幅を算出することができるという効果を奏する。
本発明の実施形態1に係る歩幅算出装置の要部構成の一例を示すブロック図である。 本発明の実施形態1に係る歩幅算出装置の概要を示す図である。 歩行動作と鉛直方向の加速度との関係を示す図である。 本発明の実施形態1に係る歩幅算出装置の鉛直方向における加速度の一例と該加速度から算出される相対高度の一例とを示す図である。 本発明の実施形態1に係る歩幅算出装置の歩幅算出を説明するための図である。 本発明の実施形態1に係る歩幅算出の結果を示す図である。 本発明の実施形態1に係る歩幅算出装置の処理の流れの一例を示すフローチャートである。 本発明の実施形態1に係る振幅算出部の構成の変形例を示す図である。 本発明の実施形態1に係る歩幅算出装置の処理の流れの変形例を示すフローチャートである。 本発明の実施形態2に係る位置情報提供システムの概要を示す図である。 本発明の実施形態2に係る歩幅算出装置および携帯端末の要部構成の一例を示すブロック図である。 本発明の実施形態2に係る歩幅算出装置および携帯端末の要部構成の変形例を示すブロック図である。 本発明の実施形態3に係る位置情報提供システムの概要を示す図である。
 〔実施形態1〕
 以下、本発明の実施の形態について、図1から図6を参照して詳細に説明する。
 (歩幅算出装置1の概要)
 まず、本実施形態に係る歩幅算出装置1の概要について、図2を参照して説明する。図2は歩幅算出装置1の概要を示す図である。図2に示すように、歩幅算出装置1はユーザの腰から上の位置(足の付け根よりも上部)に装着される。歩幅算出装置1は鉛直方向の加速度を検出し、該加速度を用いて2つの時点における歩幅算出装置1の高度差を算出する。歩幅算出装置1は算出した高度差とユーザの足の長さとからユーザの歩幅を算出する。さらに、歩幅算出装置1はユーザの進行方向を検知する。歩幅算出装置1は算出した歩幅と検出した進行方向とからユーザの移動ベクトルを算出し、当該移動ベクトルを利用してユーザの現在地を算出する。そして、歩幅算出装置1はユーザの現在地を表示する。ユーザは歩幅算出装置1によって表示された位置を確認することで自らの位置を確認することができる。歩幅算出装置1は、例えば、タブレット型端末、スマートフォン等であってもよいが、特に限定されない。上記の構成によれば屋内ナビゲーション装置等を実現することができる。
 (歩幅算出装置1の構成)
 次に、歩幅算出装置1の構成について、図1を参照して説明する。図1は、歩幅算出装置1の要部構成を示すブロック図である。図1に示すように、歩幅算出装置1は、3軸加速度センサ(加速度センサ)11、方向検出部12、制御部13、記憶部14および表示部15を備えている。
  (3軸加速度センサ11)
 3軸加速度センサ11は、三次元空間の直交座標系を示す方向軸(X軸、YおよびZ軸)の軸方向ごとに加速度を検出する。3軸加速度センサ11は検出した加速度を制御部13の振幅算出部131に送信する。
 ここで、図3を用いて、歩行動作と歩行者の上下動の加速度(鉛直方向の加速度)との関係について説明する。図3は歩行動作と歩行者の上下動の加速度との関係を示す図である。ヒトの歩行動作では、腰の高さが上下動する。腰の高さは、両足が地面に付いている(両足が着地している)時が最も低い。また、片方の足を前に運んでいる最中において、地面に着いている足が鉛直に起立している(両足が揃う)時に腰の高さは最も高くなる。また、図3に示すように、歩行動作において歩行者の上下動の加速度は変動する。歩行者の両足が着地した時点において該加速度は大きくなり、歩行者の両足が揃う(起立)時点において該加速度は小さくなる。換言すると、歩行者の上下動の加速度の変動において、歩行者の両足が着地した時点にて該加速度は上端のピークとなる。また、歩行者の両足が揃う(起立)時点にて該加速度は下端のピークとなる。図3に示すA1は歩行者の両足が着地した時点における加速度(上端のピーク)を示している。また、図3に示すA2は歩行者の両足が着地した時点における加速度(下端のピーク)を示している。
  (方向検出部12)
 方向検出部12はユーザの歩行の方向を検出する。方向検出部12は、例えば、角速度センサ(歩行方向を検出するセンサ)121および地磁気センサ(歩行方向を検出するセンサ)122の少なくとも一つを備えている。方向検出部12は角速度センサ121および地磁気センサ122の少なくとも一方の検出値を移動ベクトル算出部133に送信する。
  (制御部13)
 制御部13は、歩幅算出装置1の各部を統括して制御する。制御部13は、振幅算出部131、歩幅算出部132、移動ベクトル算出部133、位置算出部134および画像更新部(表示制御部)135を備えている。
   (振幅算出部131)
 振幅算出部131は歩幅算出装置1の高さの振幅を算出する。振幅算出部131は鉛直方向加速度算出部(加速度算出部)1311、相対高度算出部1312および高度差算出部1313を備えている。
    (鉛直方向加速度算出部1311)
 鉛直方向加速度算出部1311は3軸加速度センサ11の検出値から鉛直方向の加速度を算出する。例えば、歩幅算出装置1の姿勢によって、3軸加速度センサ11の特定の軸(Z軸)の軸方向は常に鉛直方向と同じにはならない。そのため、鉛直方向加速度算出部1311は、重力加速度が常に約9.8Gにて鉛直方向に働いていることを利用して、歩幅算出装置1の姿勢を算出する。鉛直方向加速度算出部1311は算出した歩幅算出装置1の姿勢に応じた行列計算等によって、3軸加速度センサ11の検出値から歩幅算出装置1の鉛直方向の加速度を算出する。鉛直方向加速度算出部1311は算出した鉛直方向の加速度を相対高度算出部1312に送信する。なお、3軸加速度センサにより検出された直交3軸の加速度のうち、Z軸方向の加速度を鉛直方向の加速度としてもよい。当該構成の場合、3軸加速度センサ11は検出したZ軸方向の加速度を相対高度算出部1312に送信してもよい。
    (相対高度算出部1312)
 相対高度算出部1312は受信した鉛直方向の加速度を積分して、所定の高さを基準とした歩幅算出装置の高さである相対高度を算出する。図3を用いて、相対高度算出部1312が行う歩幅算出装置1の相対高度の算出の一例について説明する。図4は歩幅算出装置の鉛直方向における加速度と該加速度から算出される相対高度とを示す図である。図4の(a)は、歩幅算出装置1の鉛直方向の加速度の一例を示している。図4の(b)は、該鉛直方向の加速度から算出した歩幅算出装置1の相対高度を示している。相対高度算出部1312は、それぞれの時点の鉛直方向の加速度を二重積分して、相対高度を算出する。相対高度算出部1312は算出した相対高度を高度差算出部1313に送信する。なお、相対高度の基準となる所定の高さとは、歩幅算出装置1による歩幅算出処理が開始した時点の歩幅算出装置1の高さとしてもよい。
    (高度差算出部1313)
 高度差算出部1313は、加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における歩幅算出装置1の高度差を算出する。
 詳細には、高度差算出部1313は、相対高度算出部1312から受信した相対高度を用いて、2つの特定の時点における歩幅算出装置1の高度差を算出する。
 また、本実施形態においては、上記2つの特定の時点は、所定の期間における歩幅算出装置1の高さの変動の振幅において、歩幅算出装置1の高さが上端のピークとなる時点および下端のピークとなる時点である。すなわち、高度差算出部1313は歩幅算出装置1の相対高度を示す波形における下端(谷)のピークおよび上端(山)のピークを検出する。図4の(b)を参照して、具体的に説明する。図4の(b)に示すように、高度差算出部1313は歩幅算出装置1の高さの変動における隣り合う上端のピークの高さH1と下端のピークの高さH2との高度差を算出する。上述の所定の期間は、歩幅算出装置1の高さが上端のピークとなる時点と歩幅算出装置1の高さが下端のピークとなる時点とを含む期間といえる。高度差算出部1313は算出した歩幅算出装置1の高度差を歩幅算出部132に送信する。
   (歩幅算出部132)
 歩幅算出部132は、高度差算出部1313から受信した歩幅算出装置1の高度差とユーザの足の長さとからユーザの歩幅を算出する。例えば、図2に示すように、歩幅算出部132は記憶部14に格納されているユーザの足の長さを示す情報である足の長さ情報141を参照する。歩幅算出部132は、算出した歩幅を移動ベクトル算出部133に送信する。
 ここで、歩幅算出部132の歩幅の算出の詳細について、図5を参照して説明する。図5は歩幅算出部132が実行する歩幅算出を説明するための図面である。図5に示すように、歩行動作において両足が着地している時には、両足を2辺とし、歩幅を底辺とする二等辺三角形ができる。図5に示すように、当該二等辺三角形の高さをHとし、底辺の長さ(歩幅)をDとし、両足にて形成される辺の長さ(足の長さ)をL、足の開き具合を示す角度をθとする。
 二等辺三角形の高さHは下記の数式1によって算出することができる。また、底辺の長さ(歩幅)Dは、以下の数式2によって算出することができる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 また、歩幅算出装置1の位置の上下変動の振幅(2つの特定の時点における歩幅算出装置1の高度差、相対高度の上端のピークと下端のピークとの差)であるΔHは下記の数式3によって、算出することができる。
Figure JPOXMLDOC01-appb-M000003
 数式2および数式3から、歩幅Dは以下の数式4で算出することができる。
Figure JPOXMLDOC01-appb-M000004
 すなわち、歩幅Dは、歩幅算出装置1の高度差ΔHと歩行者の足の長さLとから算出することができる。歩幅算出部132は上記数式4を用いて歩幅を算出する。したがって、歩幅算出部132は、歩幅算出装置1を腰の位置(足の付け根)よりも上部に装着したユーザの歩幅を算出することができる。例えば、2等辺三角形の高さHは、足の開きが大きいほど低くなる。そのため、足を大きく開いた場合、すなわち、歩幅が大きいほど、高度差ΔHは大きくなる。換言すると、歩幅算出部132は、ユーザの足の開きが大きいほど歩幅を広く算出する。歩幅算出部132は高度差ΔHからユーザの一歩ごとの足の開きの程度を判定してもよい。この構成においては、歩幅算出部132は判定した足の開きの程度が大きいほど、歩幅を広く算出する。なお、足の長さLは、一般的に、身長に比例する。そのため、歩幅算出部132は身長を歩幅算出のパラメータとして使用してもよい。
 また、上記数式4を用いて、異なる足の長さ毎に歩幅を算出した。図6は、上記数式4によって算出した歩幅を示す図である。縦軸は算出された歩幅(cm)を示しており、横軸は歩幅算出装置1の高度差ΔH(上下動振幅(cm))を示している。図6に示すように、数式4を用いた場合、高度差ΔHが同じ値であっても、足の長さが長いほど歩幅Dは広く算出される。すなわち、歩幅算出部132は、ユーザの足の長さが長いほど歩幅を広く算出する。
 数式4によって歩幅を算出する本実施形態の構成によれば、ユーザの歩幅を算出するために、ユーザの歩行速度を検出あるいは算出する処理は必要がない。一方で、本実施形態とは異なる歩幅の算出のために歩行速度を算出する構成においては、ユーザの静止時からの移動方向の加速度を積分する必要がある。このような構成では、ユーザが動き続けていた場合、ユーザの移動の静止の検出があいまいとなった場合等において、算出される歩幅の誤差が大きくなる。したがって、算出される歩幅の精度が大きく低下する可能性がある。本実施形態の構成によれば、ユーザの歩幅を算出するためにユーザの歩行速度を算出する必要はないため、精度が高い歩幅の算出を行うことができる。
   (移動ベクトル算出部133)
 移動ベクトル算出部133は、方向検出部12が備えている角速度センサ121および地磁気センサ122のうち少なくとも一方の検出値と算出されたユーザの歩幅とに応じてユーザの1歩ごとの移動ベクトルを算出する。移動ベクトル算出部133は算出した移動ベクトルを示す移動ベクトル情報142を記憶部14に格納し、位置算出部134に移動ベクトル情報142を格納した旨の信号を送信する。
   (位置算出部134)
 位置算出部134は、1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する。位置算出部134は、算出したユーザの位置を示す情報である位置情報143を記憶部14に格納し、画像更新部135に位置情報143を格納した旨の信号を送信する。
   (画像更新部135)
 画像更新部135は、位置算出部134から位置情報143が記憶部14に格納された旨の信号を受信すると、位置情報143を参照しユーザの位置を示す画像を更新(生成)する。画像更新部135は、更新した画像を表示部15に表示する。例えば、画像更新部135は記憶部14に格納されている屋内の地図等の画像である地図画像144を用いて、ユーザの位置を示す画像を生成してもよい。
 (記憶部14)
 記憶部14は、上述した足の長さ情報141、移動ベクトル情報142、位置情報143および地図画像144を記憶している。
 (表示部15)
 表示部15は、画像データを表示するための表示画面を有しており、制御部13から画像信号を受信し、受信した画像信号に基づいてその表示画面に画像を表示する。表示部15は画像を表示する機能を備えているものであればよく、例えばLCD(Liquid CrystalDisplay)表示装置、EL(Electro Luminescence)表示装置等で構成することもできる。また、表示部15はタッチパネルに配置されていてもよく、タッチパネルは表示画面に対するユーザの接触操作を受け付けてもよい。例えば、歩幅算出装置1は、該タッチパネルから受け付けたユーザの歩幅算出処理開始の指示に基づいて当該処理を開始してもよい。
 (歩幅算出装置1の処理の流れ)
 次に図7を参照して、歩幅算出装置1の処理について説明する。図7は、歩幅算出装置1が実行する処理の流れの一例を示すフローチャートである。例えばユーザによる開始の操作を受け付けて歩幅算出装置1は処理を開始する。鉛直方向加速度算出部1311は歩幅算出装置1の姿勢を算出し(S1)、歩幅算出装置1の鉛直方向の加速度を算出する(S2)。続いて、相対高度算出部1312は歩幅算出装置1の鉛直方向の加速度を用いて歩幅算出装置の相対高度を算出する(S3)。続いて、高度差算出部1313は歩幅算出装置1の相対高度を示す波形における下端(谷)のピークおよび上端(山)のピークを検出する(S4)。続いて、高度差算出部1313は相対高度における下端のピークと上端のピークとの差を歩幅算出装置1の高度差として算出する(S5:高度差算出ステップ)。続いて、歩幅算出部132は、高度差とユーザの足の長さとから歩幅を算出する(S6:歩幅算出ステップ)。続いて、移動ベクトル算出部133は、方向検出部12の検出値と算出された歩幅とからユーザの1歩ごとの移動ベクトルを算出する(S7)。位置算出部134は、1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する(S8)。続いて、画像更新部135は、ユーザの位置を示す画像を更新(生成)し、該画像を表示部15に表示する(S9)。例えば、ユーザによる終了の操作を受け付けて歩幅算出装置1は処理を終了する。ユーザによる終了の操作を受け付けていない場合は、S1に戻る。
 (変形例)
 (振幅算出部131aの構成)
 次に、本変形例に係る振幅算出部131aについて、図3および図8を参照して説明する。図8は本変形例に係る振幅算出部131aの構成を示す図である。
 振幅算出部131aは鉛直方向加速度算出部1311、相対高度算出部1312、高度差算出部1313aおよび歩行動作特定部1314aを備えている。鉛直方向加速度算出部1311および相対高度算出部1312については、上述した構成と同様であるため、ここでの説明を省略する。
  (歩行動作特定部1314a)
 歩行動作特定部1314aは3軸加速度センサが検出した検出値に応じて、ユーザの歩行動作における両足が揃った時点と上記ユーザの歩行動作における両足が着地した時点とを特定する。詳細には、歩行動作特定部1314aは鉛直方向加速度算出部1311から歩幅算出装置1の鉛直方向の加速度を受信し、該加速度を用いて両足が揃った時点およびユーザの両足が着地した時点を特定する。歩行動作特定部1314aは特定した時点を高度差算出部1313aに送信する。
 歩行動作特定部1314aの処理をさらに詳細に説明する。図3に示すように、歩幅算出装置1の鉛直方向の加速度は、ユーザの両足が着地した時点において大きくなり、ユーザの両足が揃う(起立)時点において小さくなる。歩行動作特定部1314aは、ユーザの両足が着地した時点を、歩幅算出装置1の鉛直方向の加速度の変動の波形において加速度が上端のピーク(図3のA1)となる時点に特定する。また、歩行動作特定部1314aは、ユーザの両足が揃う時点を、歩幅算出装置1の鉛直方向の加速度の変動の波形において加速度が下端のピーク(図3のA2)となる時点に特定する。
  (高度差算出部1313a)
 高度差算出部1313aは、相対高度算出部1312から受信した相対高度を用いて、2つの特定の時点における歩幅算出装置1の高度差を算出する。すなわち、本変形例においては、2つの特定の時点が、所定の期間におけるユーザの両足が揃った時点とユーザの両足が着地した時点とである。高度差算出部1313は算出した歩幅算出装置1の高度差を歩幅算出部132に送信する。
 (歩幅算出装置1の処理の流れ:変形例)
 次に図9を参照して、歩幅算出装置1の処理の変形例について説明する。図9は、歩幅算出装置1が実行する処理の流れの変形例を示すフローチャートである。なお、S1からS3およびS6からS9については、上述した処理と同様であるためここでの説明を省略する。歩行動作特定部1314aは、歩幅算出装置1の鉛直方向の加速度から該加速度に応じてユーザの両足が揃った時点およびユーザの両足が着地した時点を特定する(S11)。続いて、高度差算出部1313aは、ユーザの両足が揃った時点の相対高度とユーザの両足が着地した時点の相対高度の高度差を算出する(S12:高度差算出ステップ)。
 〔実施形態2〕
 本発明の他の実施形態について、図10および図11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 (位置情報提供システム50の概要)
 図10は本実施形態に係る位置情報提供システム50の概要を示す図である。図10に示すように、位置情報提供システム50において、歩幅算出装置1bはユーザの歩幅を算出し、移動ベクトルを示す移動ベクトル情報142を携帯端末(外部機器)2bに送信する。また、本実施形態の変形例においては、歩幅算出装置1cはユーザの歩幅を算出し、ユーザの位置を示す情報である移動ベクトル情報142を携帯端末(外部機器)2cに送信する。携帯端末2bおよび携帯端末2cは、ユーザの位置を示す画像を表示する。
 (歩幅算出装置1bの構成)
 本実施形態に係る歩幅算出装置1bの構成について、図11を参照して説明する。図11は、歩幅算出装置1bおよび携帯端末2bの要部構成を示すブロック図である。図11に示すように、歩幅算出装置1bは、3軸加速度センサ11、方向検出部12、制御部13b、記憶部14bおよび送信部16bを備えている。3軸加速度センサ11および方向検出部12の構成については、実施形態1にて説明した構成と同様であるためここでの説明を省略する。
  (制御部13b)
 制御部13bは、振幅算出部131、歩幅算出部132、移動ベクトル算出部133および送信制御部136bを備えている。なお、制御部13bは振幅算出部131の代わりに振幅算出部131aを備えていてもよい。振幅算出部131、歩幅算出部132、移動および移動ベクトル算出部133の構成については、実施形態1にて説明した構成と同様であるためここでの説明を省略する。
   (送信制御部136b)
 送信制御部136bは移動ベクトルを示す移動ベクトル情報142を外部機器である携帯端末2bに送信する。
 詳細には、送信制御部136bは、移動ベクトル算出部133から移動ベクトル情報142を記憶部14bに格納した旨の信号を受信する。送信制御部136bは、記憶部14bに格納された移動ベクトル情報142を、送信部16bを介して携帯端末2bに送信する。
  (送信部16b)
 送信部16bは、外部機器にデータを送信する。特に、本実施形態では、送信部16bは、送信制御部136bの指示に従い、移動ベクトル情報142を携帯端末2に送信する。送信部16bは、例えば、Bluetooth(登録商標)のような近距離無線を用いてもよい。
  (記憶部14b)
 記憶部14bは、足の長さ情報141および移動ベクトル情報142を記憶している。
 (携帯端末2bの構成)
 次に、本実施形態に係る携帯端末2bの構成について、図11を参照して説明する。図11に示すように、携帯端末2bは、受信部21b、制御部22b、記憶部23bおよび表示部25bを備えている。携帯端末2bは、例えば、タブレット型端末、スマートフォン等であってもよい。なお、表示部25bの構成は、上述の表示部15と同様であるためここでの説明を省略する。
 (受信部21b)
 受信部21bは、外部機器からデータを受信する。特に、本実施形態では、ユーザの1歩ごとの移動ベクトルを示す情報である移動ベクトル情報142を外部機器である歩幅算出装置1bから受信する。受信部21bは移動ベクトル情報142を移動ベクトル情報取得部221bに送信する。
 (制御部22b)
 制御部22bは、移動ベクトル情報取得部221b、位置算出部222bおよび画像更新部(表示制御部)223bを備えている。
  (移動ベクトル情報取得部221b)
 移動ベクトル情報取得部221bは受信した移動ベクトル情報142を記憶部23bに格納する。移動ベクトル情報取得部221bは移動ベクトル情報142を記憶部23bに格納した旨の信号を位置算出部222bに送信する。
  (位置算出部222b)
 位置算出部222bは、1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する。位置算出部222bは、算出したユーザの位置を示す情報である位置情報143を記憶部23bに格納し、画像更新部223bに位置情報143を格納した旨の信号を送信する。
  (画像更新部223b)
 画像更新部223bは、位置情報143に応じてユーザの位置を示す画像を表示部25bに表示する。画像更新部223bの詳細については、上述の画像更新部135と同様であるためここでの説明を省略する。
 (記憶部23b)
 記憶部23bは、移動ベクトル情報142、位置情報143および地図画像144を記憶している。
 なお、ユーザに装着された3軸加速度センサ11および方向検出部12が備えているセンサの検出値を、タブレット、スマートフォン等の携帯端末2bに送信し、携帯端末2bが上述の歩幅算出、位置情報の算出等の処理を行ってもよい。
 (変形例)
 次に、本変形例に係る歩幅算出装置1cの構成について、図12を参照して説明する。図12は、歩幅算出装置1cおよび携帯端末2cの要部構成を示すブロック図である。図12に示すように、歩幅算出装置1cは、3軸加速度センサ11、方向検出部12、制御部13c、記憶部14cおよび送信部16cを備えている。3軸加速度センサ11および方向検出部12の構成については、実施形態1にて説明した構成と同様であるためここでの説明を省略する。
  (制御部13c)
 制御部13cは、振幅算出部131、歩幅算出部132、移動ベクトル算出部133、位置算出部134および送信制御部136cを備えている。振幅算出部131、歩幅算出部132、移動ベクトル算出部133および位置算出部134の構成については、実施形態1にて説明した構成と同様であるためここでの説明を省略する。なお、制御部13cは振幅算出部131の代わりに振幅算出部131aを備えていてもよい。
   (送信制御部136c)
 送信制御部136cはユーザの位置を示す情報を示す位置情報143を外部機器である携帯端末2cに送信する。
 詳細には、送信制御部136cは、位置算出部134から位置情報143を記憶部14cに格納した旨の信号を受信する。送信制御部136cは、記憶部14cに格納された位置情報143を、送信部16cを介して携帯端末2cに送信する。
  (送信部16c)
 送信部16cは、送信制御部136cの指示に従い、位置情報143を携帯端末2に送信する。送信部16cは、例えば、Bluetoothのような近距離無線を用いてもよい。
  (記憶部14c)
 記憶部14cは、足の長さ情報141、移動ベクトル情報142および位置情報143を記憶している。
 (携帯端末2cの構成)
 次に、本実施形態に係る携帯端末2cの構成について、図12を参照して説明する。図12に示すように、携帯端末2cは、受信部21c、制御部22c、記憶部23cおよび表示部25cを備えている。携帯端末2cの例としては、タブレット型端末、スマートフォン等を挙げることができる。なお、表示部25cの構成は、上述の表示部15と同様であるためここでの説明を省略する。
 (受信部21c)
 受信部21cは、外部機器からデータを受信する。特に、本実施形態では、ユーザの位置を示す情報である位置情報143を外部機器である歩幅算出装置1cから受信する。受信部21cは位置情報143を位置情報取得部224cに送信する。
 (制御部22c)
 制御部22cは、位置情報取得部224cおよび画像更新部(表示制御部)223cを備えている。
  (位置情報取得部224c)
 位置情報取得部224cは受信した位置情報143を記憶部23cに格納する。位置情報取得部224cは位置情報143を記憶部23cに格納した旨の信号を画像更新部223cに送信する。
  (画像更新部223c)
 画像更新部223cは、位置情報143に応じてユーザの位置を示す画像を表示部25cに表示する。画像更新部223cの詳細については、上述の画像更新部135と同様であるためここでの説明を省略する。
 (記憶部23c)
 記憶部23bは、位置情報143および地図画像144を記憶している。
 〔実施形態3〕
 本発明の他の実施形態について、図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 (位置情報提供システム100の概要)
 図13は本実施形態に係る位置情報提供システム100の概要を示す図である。図13に示すように、位置情報提供システム100は、歩幅算出装置1bまたは歩幅算出装置1c、ゲートウエイ3、サーバ4および情報端末5を含む。歩幅算出装置1bおよび歩幅算出装置1cは実施形態2にて詳細に説明したため、ここでの説明を省略する。
  (位置情報提供システム例1)
 はじめに、歩幅算出装置1bを含む位置情報提供システム100について説明する。
 ゲートウエイ3は、歩幅算出装置1bから移動ベクトル情報142を受信する。歩幅算出装置1bとゲートウエイ3と間における移動ベクトル情報142の通信はBluetoothのような近距離無線を用いてもよい。
 サーバ4は、例えば、クラウドサーバであり、ゲートウエイ3と通信する。情報端末5は表示部を備えており、サーバ4から位置情報143を受信する。情報端末5はPC、タブレット型端末、スマートフォン等である。
 ゲートウエイ3およびサーバ4のうち何れか一方は移動ベクトル情報142を積算して位置情報143を算出する。ゲートウエイ3が位置情報143を算出する構成では、ゲートウエイ3はサーバ4に位置情報143を送信する。また、サーバ4が位置情報143を算出する構成では、ゲートウエイ3はサーバ4に移動ベクトル情報142を送信する。
 情報端末5は、算出された位置情報143を受信し、当該情報に応じて歩幅算出装置1bを装着したユーザの位置を示す画像を表示部に表示する。
  (位置情報提供システム例2)
 次に、歩幅算出装置1cを含む位置情報提供システム100について説明する。
 ゲートウエイ3は、歩幅算出装置1bから位置情報143を受信する。歩幅算出装置1cとゲートウエイ3と間における位置情報143の通信はBluetoothのような近距離無線を用いてもよい。
 サーバ4は、例えば、クラウドサーバであり、ゲートウエイ3から位置情報143を受信する。情報端末5は表示部を備えており、サーバ4から位置情報143を受信する。情報端末5はPC、タブレット型端末、スマートフォン等である。
 情報端末5は、位置情報143を受信し、当該情報に応じて歩幅算出装置1cを装着したユーザの位置を示す画像を表示部に表示する。
 なお、ゲートウエイ3およびサーバ4のうちの何れか一方がユーザに装着された3軸加速度センサ11および方向検出部12が備えているセンサの検出値を受信し、該検出値から位置情報143を算出する構成としてもよい。
 〔ソフトウェアによる実現例〕
 歩幅算出装置(1、1b、1c)、携帯端末(2b、2c)、ゲートウエイ3、サーバ4の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、歩幅算出装置(1、1b、1c)、携帯端末(2b、2c)、ゲートウエイ3、サーバ4は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る歩幅算出装置1、1b、1cは、ユーザが装着する歩幅算出装置であって加速度センサ(3軸加速度センサ11)と、上記加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出部1313、1313aと、上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出部132とを備えている。
 上記の構成によれば、2つの特定の時点における歩幅算出装置の高度差および予め設定されているユーザの足の長さのみからユーザの歩幅を算出する。そのため、簡易な処理によってユーザの歩幅を算出することができる。
 本発明の態様2に係る歩幅算出装置は、上記態様1において、上記加速度センサは3軸加速度センサ11であり、上記加速度センサの検出値から鉛直方向の加速度を算出する加速度算出部(鉛直方向加速度算出部1311)と、上記鉛直方向の加速度を積分して、所定の高さを基準とした歩幅算出装置の高さである相対高度を算出する相対高度算出部1312とを備えており、上記高度差算出部は、上記相対高度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出してもよい。
 上記の構成によれば、歩幅算出装置の所定の位置からの高さである相対高度から歩幅算出装置の高度差を算出することができる。
 本発明の態様3に係る歩幅算出装置は、上記態様1または2において、上記2つの特定の時点が、所定の期間における上記歩幅算出装置の高さの変動の振幅において、上記歩幅算出装置の高さが上端のピークとなる時点と下端のピークとなる時点とであってもよい。
 所定の期間において歩幅算出装置の高さが上端のピークとなる時点では、ユーザの足が揃っている状態となっている可能性が高い。また、所定の期間において歩幅算出装置の高さが下端のピークとなる時点では、ユーザの足が開いて両足が着地している状態となっている可能性が高い。
 そのため、上記の構成によれば、ユーザの足が揃っている状態の歩幅算出装置の高さとユーザの足が開いて両足が着地している状態の歩幅算出装置の高さとの高度差からユーザの歩幅を算出することができる。
 本発明の態様4に係る歩幅算出装置は、上記態様1または2において、上記加速度センサが検出した検出値に応じて、上記ユーザの歩行動作における両足が揃った時点と上記ユーザの歩行動作における両足が着地した時点とを特定する歩行動作特定部1314aを備えており、上記2つの特定の時点が、所定の期間における上記両足が揃った時点と上記両足が着地した時点とであってもよい。
 上記の構成によれば、ユーザの足が揃っている状態の歩幅算出装置の高さとユーザの足が開いて両足が着地している状態の歩幅算出装置の高さとの高度差からユーザの歩幅を算出することができる。
 本発明の態様5に係る歩幅算出装置は、上記態様1から4の何れか1態様において、上記歩幅算出部は、上記ユーザの足の開きが大きいほど歩幅を広く算出してもよい。上記の構成によれば、ユーザの足の開き具合に応じて歩幅を算出することができる。
 本発明の態様6に係る歩幅算出装置は、上記態様1から5の何れか1態様において、上記歩幅算出部は、上記ユーザの足の長さが長いほど歩幅を広く算出してもよい。上記の構成によれば、ユーザの足の長さに応じて歩幅を算出することができる。
 本発明の態様7に係る歩幅算出装置は、上記態様1から6の何れか1態様において、上記ユーザの歩行方向を検出するセンサ(角速度センサ121、地磁気センサ122)と、上記ユーザの歩行方向を検出するセンサの検出値と算出された上記ユーザの歩幅とに応じて上記ユーザの1歩ごとの移動ベクトルを算出する移動ベクトル算出部133とを備えていてもよい。上記の構成によれば、ユーザの1歩ごとの移動ベクトルを算出することができる。そのため、ユーザの移動を示す情報を生成することができる。
 本発明の態様8に係る歩幅算出装置は、上記態様7において、上記1歩ごとの移動ベクトルを積算して、上記ユーザの位置を算出する位置算出部134を備えていてもよい。上記の構成によれば、特定の時点、または特定の場所からのユーザの移動を示す情報を生成することができる。
 本発明の態様9に係る歩幅算出装置1bは、上記態様7において、上記移動ベクトルを示す情報を外部機器(携帯端末2b)に送信する送信部16bを備えていてもよい。上記の構成によれば、ユーザの移動を示す情報を外部の機器(例えば、屋内ナビゲーション装置等)に送信することができる。
 本発明の態様10に係る歩幅算出装置1cは、上記態様8において、上記ユーザの位置を示す情報を外部機器(携帯端末2c)に送信する送信部16cを備えていてもよい。上記の構成によれば、特定の時点、または特定の場所からのユーザの移動を示す情報を外部の機器に送信することができる。
 本発明の態様11に係る携帯端末2bは、表示部25bと、ユーザの1歩ごとの移動ベクトルを示す情報を外部の歩幅算出装置1bから受信する受信部21bと、上記1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する位置算出部222bと、算出された上記ユーザの位置に応じて上記ユーザの位置を示す画像を上記表示部に表示する表示制御部(画像更新部223b)とを備えている。
 上記の構成によれば、歩幅算出装置1bを装着したユーザに自身の位置を表示するナビゲーション装置等を実現することができる。
 本発明の態様12に係る位置情報提供システム100は、態様9の歩幅算出装置と、上記歩幅算出装置からユーザの1歩ごとの移動ベクトルを示す情報を受信するゲートウエイ3と、上記ゲートウエイと通信するサーバ4と、上記サーバと通信する表示部を備えた情報端末5とを含み、上記ゲートウエイおよびサーバの何れか一方が上記1歩ごとの移動ベクトルを積算して上記ユーザの位置を算出し、上記情報端末は、算出された上記ユーザの位置を示す情報を受信し、当該情報に応じて上記ユーザの位置を示す画像を上記表示部に表示してもよい。
 上記の構成によれば、歩幅算出装置を装着しているユーザとは別のユーザが、歩幅算出装置を装着しているユーザいる場所から離れた場所にて、歩幅算出装置を装着しているユーザの位置、移動の軌跡を確認することができる。そのため、工場の動線管理システム等を実現することができる。また、1歩ごとの移動ベクトルの算出を歩幅算出装置が行うため、該システム内における通信データ量を低減させることができる。よって、通信のための消費電力およびサーバの等の処理量を低減することができる。
 本発明の態様13に係る位置情報提供システム100は、態様10の歩幅算出装置と、上記歩幅算出装置から上記ユーザの位置を示す情報を受信するゲートウエイと、上記ゲートウエイと通信するサーバと、上記サーバと通信する表示部を備えた情報端末とを含み、上記情報端末は上記ユーザの位置を示す情報を受信し、当該情報に応じて上記ユーザの位置を示す画像を上記表示部に表示してもよい。
 上記の構成によれば、態様12と同様の効果を奏することができる。さらに、1歩ごとの移動ベクトルを積算したユーザの位置を示す情報を歩幅算出装置が算出するため、該システム内における通信データ量を低減させることができる。
 本発明の態様14に係る歩幅算出装置の制御方法は、ユーザが装着する歩幅算出装置の制御方法であって、上記歩幅算出装置が備えている加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出ステップ(S5、S12)と、上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出ステップ(S6)とを含む。上記の構成によれば、態様1と同様の効果を奏することができる。
 本発明の各態様に係る歩幅算出装置、携帯端末、ゲートウエイおよびサーバは、コンピュータによって実現してもよく、この場合には、コンピュータを上記歩幅算出装置、携帯端末、ゲートウエイおよびサーバが備える各部(ソフトウェア要素)として動作させることにより上記歩幅算出装置、携帯端末、ゲートウエイおよびサーバをコンピュータにて実現させる制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 1、1b、1c    歩幅算出装置
 2b、2c      携帯端末(外部機器)
 3          ゲートウエイ
 4          サーバ
 5          情報端末
 11         3軸加速度センサ(加速度センサ)
 16c、16b    送信部
 21b        受信部
 100        位置情報提供システム
 121        角速度センサ(歩行方向を検出するセンサ)
 122        地磁気センサ(歩行方向を検出するセンサ)
 132        歩幅算出部
 133        移動ベクトル算出部
 134        位置算出部
 222b       位置算出部
 223b       画像更新部(表示制御部)
 1311       鉛直方向加速度算出部(加速度算出部)
 1312       相対高度算出部
 1313、1313a 高度差算出部
 S5、S12     高度差算出ステップ
 S6         歩幅算出ステップ

Claims (15)

  1.  ユーザが装着する歩幅算出装置であって
     加速度センサと、
     上記加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出部と、
     上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出部とを備えていることを特徴とする歩幅算出装置。
  2.  上記加速度センサは3軸加速度センサであり、
     上記加速度センサの検出値から鉛直方向の加速度を算出する加速度算出部と、
     上記鉛直方向の加速度を積分して、所定の高さを基準とした歩幅算出装置の高さである相対高度を算出する相対高度算出部とを備えており、
     上記高度差算出部は、上記相対高度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出することを特徴とする請求項1に記載の歩幅算出装置。
  3.  上記2つの特定の時点が、所定の期間における上記歩幅算出装置の高さの変動の振幅において、上記歩幅算出装置の高さが上端のピークとなる時点と下端のピークとなる時点とであることを特徴とする請求項1または2に記載の歩幅算出装置。
  4.  上記加速度センサが検出した検出値に応じて、上記ユーザの歩行動作における両足が揃った時点と上記ユーザの歩行動作における両足が着地した時点とを特定する歩行動作特定部を備えており、
     上記2つの特定の時点が、所定の期間における上記両足が揃った時点と上記両足が着地した時点とであることを特徴とする請求項1または2に記載の歩幅算出装置。
  5.  上記歩幅算出部は、上記ユーザの足の開きが大きいほど歩幅を広く算出することを特徴とする請求項1から4の何れか一項に記載の歩幅算出装置。
  6.  上記歩幅算出部は、上記ユーザの足の長さが長いほど歩幅を広く算出することを特徴とする請求項1から5の何れか一項に記載の歩幅算出装置。
  7.  上記ユーザの歩行方向を検出するセンサと、
     上記ユーザの歩行方向を検出するセンサの検出値と算出された上記ユーザの歩幅とに応じて上記ユーザの1歩ごとの移動ベクトルを算出する移動ベクトル算出部とを備えていることを特徴とする請求項1から6の何れか1項に記載の歩幅算出装置。
  8.  上記1歩ごとの移動ベクトルを積算して、上記ユーザの位置を算出する位置算出部を備えていることを特徴とする請求項7に記載の歩幅算出装置。
  9.  上記移動ベクトルを示す情報を外部機器に送信する送信部を備えていることを特徴とする請求項7に記載の歩幅算出装置。
  10.  上記ユーザの位置を示す情報を外部機器に送信する送信部を備えていることを特徴とする請求項8に記載の歩幅算出装置。
  11.  表示部と、
     ユーザの1歩ごとの移動ベクトルを示す情報を外部の歩幅算出装置から受信する受信部と、
     上記1歩ごとの移動ベクトルを積算して、ユーザの位置を算出する位置算出部と、
     算出された上記ユーザの位置に応じて上記ユーザの位置を示す画像を上記表示部に表示する表示制御部と、
    を備えていることを特徴とする携帯端末。
  12.  請求項9に記載の歩幅算出装置と、
     上記歩幅算出装置からユーザの1歩ごとの移動ベクトルを示す情報を受信するゲートウエイと、
     上記ゲートウエイと通信するサーバと、
     上記サーバと通信する表示部を備えた情報端末とを含み、
     上記ゲートウエイおよびサーバの何れか一方が上記1歩ごとの移動ベクトルを積算して上記ユーザの位置を算出し、
     上記情報端末は、算出された上記ユーザの位置を示す情報を受信し、当該情報に応じて上記ユーザの位置を示す画像を上記表示部に表示することを特徴とする位置情報提供システム。
  13.  請求項10に記載の歩幅算出装置と、
     上記歩幅算出装置から上記ユーザの位置を示す情報を受信するゲートウエイと、
     上記ゲートウエイと通信するサーバと、
     上記サーバと通信する表示部を備えた情報端末とを含み、
     上記情報端末は上記ユーザの位置を示す情報を受信し、当該情報に応じて上記ユーザの位置を示す画像を上記表示部に表示することを特徴とする位置情報提供システム。
  14.  ユーザが装着する歩幅算出装置の制御方法であって、
     上記歩幅算出装置が備えている加速度センサが検出した上記歩幅算出装置の鉛直方向の加速度を用いて、2つの特定の時点における上記歩幅算出装置の高度差を算出する高度差算出ステップと、
     上記高度差と上記ユーザの足の長さとから上記ユーザの歩幅を算出する歩幅算出ステップとを含むことを特徴とする歩幅算出装置の制御方法。
  15.  請求項1に記載の歩幅算出装置としてコンピュータを機能させるためのプログラムであって、上記高度差算出部および上記歩幅算出部としてコンピュータを機能させるためのプログラム。
PCT/JP2018/006303 2017-06-01 2018-02-21 歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム WO2018220911A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880036302.0A CN110691958A (zh) 2017-06-01 2018-02-21 步幅计算装置、便携式终端、位置信息提供系统、步幅计算装置的控制方法和程序
US16/618,103 US20200158533A1 (en) 2017-06-01 2018-02-21 Step-length calculating device, portable terminal, position-information providing system, step-length calculating device control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017109288 2017-06-01
JP2017-109288 2017-06-01

Publications (1)

Publication Number Publication Date
WO2018220911A1 true WO2018220911A1 (ja) 2018-12-06

Family

ID=64455246

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006303 WO2018220911A1 (ja) 2017-06-01 2018-02-21 歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20200158533A1 (ja)
CN (1) CN110691958A (ja)
WO (1) WO2018220911A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11162795B2 (en) 2017-06-23 2021-11-02 Beijing Fine Way Technology Co., Ltd. Method and device for detecting pedestrian stride length and walking path

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108871333B (zh) * 2018-05-31 2021-12-03 金华航大北斗应用技术有限公司 基于室内平面图拓扑信息的步长实时计算方法
US12085391B2 (en) * 2018-07-02 2024-09-10 Sony Corporation Positioning apparatus, positioning method, and program
JP2020113098A (ja) * 2019-01-15 2020-07-27 日本電信電話株式会社 歩数計測装置および方法、並びにプログラム
CN113204009B (zh) * 2021-05-12 2023-12-22 深圳康佳电子科技有限公司 跑步步长提醒方法、装置、终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037245A (ja) * 2010-08-03 2012-02-23 Rie:Kk 生体情報検出装置並びに被検者検出方法
JP2012117975A (ja) * 2010-12-02 2012-06-21 Ntt Docomo Inc 移動端末、システム及び方法
JP2012233731A (ja) * 2011-04-28 2012-11-29 Seiko Epson Corp 歩幅推測方法及び歩幅推測装置
JP2013113761A (ja) * 2011-11-30 2013-06-10 Seiko Epson Corp 状態検出装置、電子機器及びプログラム
JP2014059315A (ja) * 2013-11-14 2014-04-03 Seiko Epson Corp 電子機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877395B2 (ja) * 2010-01-19 2012-02-15 セイコーエプソン株式会社 歩幅推測方法及び歩幅推測装置
JP6064384B2 (ja) * 2011-11-29 2017-01-25 株式会社リコー 機器制御システム
WO2014117252A1 (en) * 2013-02-01 2014-08-07 Trusted Positioning Inc. Method and system for varying step length estimation using nonlinear system identification
CN105975753A (zh) * 2016-04-28 2016-09-28 努比亚技术有限公司 计算用户移动速度的方法及移动终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037245A (ja) * 2010-08-03 2012-02-23 Rie:Kk 生体情報検出装置並びに被検者検出方法
JP2012117975A (ja) * 2010-12-02 2012-06-21 Ntt Docomo Inc 移動端末、システム及び方法
JP2012233731A (ja) * 2011-04-28 2012-11-29 Seiko Epson Corp 歩幅推測方法及び歩幅推測装置
JP2013113761A (ja) * 2011-11-30 2013-06-10 Seiko Epson Corp 状態検出装置、電子機器及びプログラム
JP2014059315A (ja) * 2013-11-14 2014-04-03 Seiko Epson Corp 電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11162795B2 (en) 2017-06-23 2021-11-02 Beijing Fine Way Technology Co., Ltd. Method and device for detecting pedestrian stride length and walking path

Also Published As

Publication number Publication date
CN110691958A (zh) 2020-01-14
US20200158533A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
WO2018220911A1 (ja) 歩幅算出装置、携帯端末、位置情報提供システム、歩幅算出装置の制御方法およびプログラム
Ban et al. Indoor positioning method integrating pedestrian Dead Reckoning with magnetic field and WiFi fingerprints
TWI457539B (zh) 多姿態步距校正定位系統與方法
US20150247729A1 (en) System and method for device bearing estimation
JP4926424B2 (ja) 携帯機器及びその描画処理制御方法
JP5176145B2 (ja) 方位検出方法及び装置、並びに移動履歴算出方法及び装置
CN112334737A (zh) 定位设备、定位方法和程序
US9052203B2 (en) Methods and apparatus for low-cost inertial dead-reckoning using context detection
KR20070110107A (ko) 진행 방향 계측 장치 및 진행 방향 계측 방법
TWI626857B (zh) 無線定位系統
US11473911B2 (en) Heading determination device and method, rendering device and method
CN103207383A (zh) 基于单个移动节点对一静止节点进行二维无线定位的方法
JP2019007948A (ja) 歩行者の歩幅および歩行の軌跡を検出する方法および電子装置
US20150354962A1 (en) Method and Apparatus for Handling Vertical Orientations of Devices for Constraint Free Portable Navigation
JP2017009341A (ja) データ解析装置及びデータ解析方法、データ解析プログラム
JP2018194537A (ja) 位置決定及び追跡のための方法、プログラム、及びシステム
WO2015184741A1 (zh) 导航信息的获取方法及装置、移动终端
JP2014013202A (ja) 慣性航法装置及びプログラム
Qian et al. RPNOS: Reliable pedestrian navigation on a smartphone
US10261192B2 (en) Radionavigation for swimmers
KR101698681B1 (ko) 지자기력의 수평 경사각 산출 방법 및 이를 이용한 장치
CN105651304A (zh) 一种高尔夫球测距系统与方法
KR102212333B1 (ko) 자기교란 보상이 적용된 보행자 위치 추정 시스템
JP2008064729A (ja) 歩行者用の経路案内装置及び携帯電話機
JP2016206017A (ja) 電子機器、及び移動速度算出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18809071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18809071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP