WO2018116476A1 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
WO2018116476A1
WO2018116476A1 PCT/JP2016/088563 JP2016088563W WO2018116476A1 WO 2018116476 A1 WO2018116476 A1 WO 2018116476A1 JP 2016088563 W JP2016088563 W JP 2016088563W WO 2018116476 A1 WO2018116476 A1 WO 2018116476A1
Authority
WO
WIPO (PCT)
Prior art keywords
amount
information processing
movement
pedestrian
change
Prior art date
Application number
PCT/JP2016/088563
Other languages
English (en)
French (fr)
Inventor
隼人 立田
村瀬 有一
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2018557506A priority Critical patent/JPWO2018116476A1/ja
Priority to PCT/JP2016/088563 priority patent/WO2018116476A1/ja
Priority to EP16924293.0A priority patent/EP3561452A4/en
Publication of WO2018116476A1 publication Critical patent/WO2018116476A1/ja
Priority to US16/445,306 priority patent/US20190323842A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and an information processing program.
  • PDR pedestrian autonomous navigation
  • IoT Internet of Things
  • GPS Global Positioning System
  • positioning methods using map information of car navigation are common, but there are many cases where there is no map information indoors, and GPS radio waves cannot be received. It often happens. Therefore, in recent years, for indoor users, in addition to various radio wave positioning and acoustic positioning, the size of the stride is estimated from the amplitude of vertical vibration caused by walking, and the estimated stride size is used to estimate the PDR trajectory.
  • a technique for calculating position information with high accuracy by using the above is known.
  • the position measurement accuracy decreases when the measurement subject changes direction. For example, when the pedestrian changes the direction of travel, the pedestrian steps unconsciously, and the effect of centrifugal force accompanying the direction change is superimposed, and the detected vertical vibration increases, thus estimating the step length. The value becomes larger than the actual value, and the PDR trajectory is disturbed.
  • An object of the present invention is to provide an information processing apparatus, an information processing method, and an information processing program that can reduce a decrease in position accuracy when a pedestrian travel direction changes.
  • the information processing apparatus includes a detection unit that detects a change in the moving direction of a pedestrian wearing the information processing apparatus.
  • the information processing device detects the amount of movement of each step of the pedestrian from the amplitude component in the vertical direction of the information processing device while the amount of change in the movement direction is less than the threshold, and uses the estimated amount of movement
  • a first estimation unit for estimating the position of the pedestrian.
  • the information processing apparatus uses the amount of movement detected by the first estimating unit while the amount of change is less than the threshold to determine the position of the pedestrian.
  • FIG. 1 is a diagram illustrating a hardware configuration example of the IoT device according to the first embodiment.
  • FIG. 2 is a functional block diagram of a functional configuration of the IoT device according to the first embodiment.
  • FIG. 3 is a diagram for explaining vertical vibration components of acceleration data.
  • FIG. 4 is a diagram illustrating an example of posture estimation.
  • FIG. 5 is a diagram for explaining an estimated image of the traveling direction.
  • FIG. 6 is a diagram illustrating an example of estimating the traveling direction.
  • FIG. 7 is a diagram illustrating an example of correcting the stride.
  • FIG. 8 is a flowchart showing the overall processing flow.
  • FIG. 9 is a flowchart showing the flow of the direction change detection process.
  • FIG. 10 is a diagram for explaining the direction change according to the second embodiment.
  • FIG. 11 is a flowchart illustrating a flow of direction change detection processing according to the second embodiment.
  • FIG. 12 is a flowchart illustrating the flow of the direction change detection process
  • the IoT device 10 is an example of an information processing apparatus on which a three-axis acceleration sensor, a gyro sensor, and a geomagnetic sensor are mounted, and is attached to the trunk of a user typified by a badge.
  • the IoT device 10 applies the same algorithm as a general pedometer, and counts the number of steps of the user wearing the IoT device 10. Further, the IoT device 10 periodically acquires the user's position and generates a user's movement trajectory.
  • the locus generation method employs an algorithm similar to that of a general PDR.
  • FIG. 1 is a diagram illustrating a hardware configuration example of the IoT device 10 according to the first embodiment.
  • the IoT device 10 includes a wireless unit 11, an acceleration sensor 12, a gyro sensor 13, a geomagnetic sensor 14, a storage unit 15, and a processor 20.
  • the hardware configuration shown here is an example, and other hardware such as a display, a hard disk, and an atmospheric pressure sensor may be included.
  • the radio unit 11 transmits and receives data to and from other terminals and servers via the antenna 11a, and is used for radio positioning such as receiving nearby Wi-Fi (Wireless-Fidelity) base stations and beacon radio waves.
  • the acceleration sensor 12 is a sensor that measures the acceleration of the IoT device 10 and outputs it to the processor 20, and is a three-axis acceleration sensor that measures accelerations (acceleration vectors) in three directions on the XYZ axes.
  • the gyro sensor 13 is a sensor that measures the angle and angular velocity of the IoT device 10 and outputs the measured value to the processor 20.
  • the geomagnetic sensor 14 is a sensor that measures the azimuth and outputs it to the processor 20.
  • the storage unit 15 is a storage device that stores programs and data, such as a memory or a hard disk.
  • the processor 20 is a CPU (Central Processing Unit) or the like, and reads out and executes a program that defines the contents of various processes described later from the storage unit 15 and executes a process that exhibits the same functions as various processes described later. Various processes relating to PDR are executed.
  • FIG. 2 is a functional block diagram of a functional configuration of the IoT device 10 according to the first embodiment.
  • the IoT device 10 has a stride length DB 15a and a PDR trajectory DB 15b.
  • the IoT device 10 includes a reference position input unit 21, a sensor detection unit 22, a gravity direction detection unit 23, a walking motion detection unit 24, a stride detection unit 25, a posture detection unit 26, a traveling direction detection unit 27, and a direction change detection unit. 28, a stride length estimation unit 29, and a current position update unit 30.
  • the stride length DB 15a and the PDR trajectory DB 15b are stored in a storage device such as the storage unit 15.
  • the current position update unit 30 is an example of an electronic circuit included in the processor 20 or an example of a process executed by the processor 20.
  • the stride length DB 15 a is a database that stores the stride length estimated by the stride length detection unit 25.
  • the stride length DB 15a stores the estimated time and the stride in association with each other.
  • the PDR trajectory DB 15b is a database that stores the PDR trajectory generated by the current position update unit 30.
  • the reference position input unit 21 is a processing unit that measures the reference position using a beacon or the like that complies with GPS (Global Positioning System) or BLE (Bluetooth (registered trademark) Low Energy). For example, the reference position input unit 21 detects data with a small prediction error radius from position information obtained by GPS and a result of radio wave positioning using a beacon radio wave. The reference position input unit 21 inputs the detected data to the current position update unit 30 as a reference position. Various known methods can be adopted as the measurement method.
  • the sensor detection unit 22 is a processing unit that acquires sensor values acquired by various sensors and outputs the sensor values to each processing unit.
  • the sensor detection unit 22 acquires acceleration data sensed by the acceleration sensor 12, and outputs the acceleration data to the gravity direction detection unit 23, the walking motion detection unit 24, the stride detection unit 25, the traveling direction detection unit 27, and the like.
  • the sensor detection unit 22 outputs the angular velocity data acquired by the gyro sensor 13 to the posture detection unit 26 and the like. Further, the sensor detection unit 22 outputs the geomagnetic data acquired by the geomagnetic sensor 14 to the posture detection unit 26 and the like.
  • the gravity direction detector 23 is a processor that extracts the direction of gravity from the acceleration data input from the sensor detector 22. For example, the gravity direction detection unit 23 passes the acceleration data through a low-pass filter or the like, and calculates the steady component of acceleration as the gravity direction (gravity vector). Then, the gravity direction detector 23 outputs the detected gravity direction to the walking motion detector 24 and the like.
  • the walking motion detection unit 24 extracts the vertical vibration component from the gravity direction detected by the gravity direction detection unit 23 and the acceleration data input from the sensor detection unit 22, and the step length and the number of steps from the extracted vertical vibration component. It is a processing unit for detecting a walking parameter such as a temporal section for each step. For example, the walking motion detection unit 24 passes the input acceleration data through a bandpass filter, extracts a frequency near a predetermined frequency, and calculates a vibration component. An example of the frequency to be extracted is 0.5 Hz to 3 Hz.
  • the walking motion detection unit 24 calculates a vertical vibration component from the gravity direction (gravity vector) of the acceleration data and the inner product value of the vibration components. Furthermore, the walking motion detection unit 24 can obtain a section and the number of steps for one step by detecting a peak or a zero cross point from the vertical vibration component. Then, the walking motion detection unit 24 outputs the vertical vibration component and the number of steps to the stride detection unit 25 and the like.
  • FIG. 3 is a diagram for explaining the vibration component in the vertical direction of the acceleration data.
  • the vertical axis in FIG. 3 is frequency, and the horizontal axis is time.
  • amplitude components at peak values of about 5000 and ⁇ 5000 are shown, and the walking motion detection unit 24 detects a point where the frequency is about 0 as a zero cross point.
  • the walking motion detection unit 24 detects three zero cross points as a section for one step.
  • the stride detection unit 25 is a processing unit that detects the number of steps using the vertical vibration component input from the walking motion detection unit 24, the section for one step, and the like. For example, the stride detection unit 25 determines the stride by performing Fourier series expansion of the vibration component in the gravitational direction with respect to the section every two steps. That is, the stride detection unit 25 detects the stride every two steps, and associates the detected time with the stride and stores them in the stride DB 15a.
  • the stride detection method is not limited to this, and various known methods can be employed.
  • the stride detection unit 25 can also estimate the stride of one section by calculating the time taken for one section using the number of sections detected within a predetermined time.
  • the attitude detection unit 26 is a processing unit that detects the attitude of the IoT device 10. Specifically, the posture detection unit 26 uses the known general technique to determine the north direction and the east direction from the magnetic north data sensed by the geomagnetic sensor 14 and the gravity direction detected by the gravity direction detection unit 23. Identify.
  • FIG. 4 is a diagram illustrating an example of posture estimation. As shown in FIG. 4, since the axis of the IoT device 10 and the world coordinates do not match, the posture detection unit 26 converts the conversion parameter to the world coordinates formed in the vertical, north, and east directions from the axis of the IoT device 10. It is detected as the posture of the device 10.
  • the traveling direction detection unit 27 is a processing unit that detects the traveling direction of the IoT device 10. Specifically, the traveling direction detection unit 27 estimates the traveling direction of the IoT device 10 on the world coordinates by using the attitude of the IoT device 10 and the vertical direction, the north direction, and the east direction.
  • FIG. 5 is a diagram for explaining an estimated image of the traveling direction. As shown in FIG. 5, the traveling direction detection unit 27 represents the attitude of the IoT device 10 on the world coordinates, and detects the traveling direction of the IoT device 10 on the world coordinates using the inclination of the attitude. To do. Then, the traveling direction detection unit 27 outputs the detected traveling direction to the current position update unit 30.
  • the advancing direction detection unit 27 can set a specific direction predetermined in the IoT device 10 as the advancing direction, and can also detect the advancing direction by frequency analysis of the acceleration in the horizontal direction. It is also possible to detect the traveling direction by applying principal component analysis to.
  • FIG. 6 is a diagram illustrating an example of estimating the traveling direction.
  • the upper diagram of FIG. 6 shows the amplitude component of acceleration in the vertical direction, that is, the vertical direction, and the lower diagram shows the separated vibration component in the east and north directions, that is, the horizontal vibration component.
  • the vibration component in the horizontal direction of the acceleration data changes greatly by stepping on or kicking out.
  • the traveling direction detection unit 27 calculates the traveling direction every two steps as one set by stepping on the left and right. If the stride and the direction of travel can be estimated, the amount of movement from the previous current position can be known, so that the current position can be updated using a known method.
  • the direction change detection unit 28 is a processing unit that detects a pedestrian's direction change. Specifically, the direction change detection unit 28 calculates an inner product of the amplitude component in the gravity direction of the acceleration detected by the gravity direction detection unit 23 and the angular velocity data detected by the gyro sensor 13, and calculates the direction change component. Extract. The direction change detection unit 28 determines that there is a direction change when the inner product value (angular velocity) after performing noise removal by applying a low-pass filter to the extracted direction change component is equal to or greater than a certain value. Thereafter, the direction change detection unit 28 outputs information indicating whether or not there is a direction change to the stride length estimation unit 29. Here, a large angular velocity is detected with emphasis on responsiveness.
  • the stride length estimation unit 29 is a processing unit that executes estimation of a stride length used for updating the current position and calculating the PDR trajectory depending on whether or not there is a direction change. Specifically, the stride estimation unit 29 determines that the stride detected by the stride detection unit 25 is to be used when the direction change detection unit 28 notifies that there is no direction change, and the direction change detection unit 28 determines that there is a direction change. Is notified, it is determined not to use the stride detected by the stride detection unit 25 but to use the stride when it is determined that there is no direction change in the past or immediately before.
  • the stride estimation unit 29 reads the latest stride from the stride DB 15a and outputs it to the current position update unit 30.
  • the stride length estimation unit 29 reads not the latest stride length from the stride length DB 15 a but the step length detected immediately before, that is, the stride length two steps before and outputs it to the current position update unit 30.
  • the stride estimation unit 29 is not limited to two steps before, for example, when a step is detected step by step, the stride one previous step can be read and output, and an average value of several steps is calculated and output. You can also
  • the stride length estimation unit 29 continues to notify the current position update unit 30 of the past stride while the direction change occurs. For example, when the direction change occurs continuously, the stride length estimation unit 29 continuously notifies the stride notified when the direction change is first detected, not the stride one step before. More specifically, the stride length estimation unit 29 determines that the time T1: straight travel, the time T2: turn, the time T3: turn, the time T4: turn, and the time T5: straight travel, from time T2 to time T4. In the interval, the stride at time T1 is notified, and at step T5, the stride at that time is notified.
  • the current position update unit 30 is a processing unit that generates a PDR trajectory of a pedestrian and stores it in the PDR trajectory DB 15b. Specifically, the current position update unit 30 uses the position input from the reference position input unit 21 as a reference position (start), and the step notified from the step estimation unit 29 and the progress notified from the traveling direction detection unit 27. The current position is updated using the direction, and a trajectory connecting the current position from the reference position is calculated as a PDR trajectory.
  • the current position update unit 30 basically calculates the PDR trajectory using the stride detected by the stride detection unit 25, but only when the direction change occurs, it is not the latest detected stride.
  • the PDR trajectory is calculated using the past stride saved until now.
  • FIG. 7 is a diagram for explaining an example of correcting the stride.
  • the trajectory shown in FIG. 7A is a trajectory of an actual pedestrian who has changed direction at the fourth step, and the IoT device 10 generates a PDR trajectory close to this trajectory.
  • the estimation accuracy of the gravitational direction of acceleration deteriorates due to the influence of the centrifugal force generated by the direction change, and the lateral vibration due to the centrifugal force and walking overlaps, and the accuracy of the moving direction deteriorates. To do.
  • the stepping force becomes stronger due to the change of direction, and the moving distance is estimated to be large, and the position accuracy is further deteriorated.
  • the IoT device 10 uses the stride detected when the direction change does not occur instead of the current step length (PDR trajectory ((c in FIG. 7)). )), The error from the actual trajectory can be reduced. It should be noted that various known methods can be employed as the PDR trajectory calculation method.
  • FIG. 8 is a flowchart showing the overall processing flow. As shown in FIG. 8, when the sensor detection unit 22 of the IoT device 10 detects a sensor value (S101: Yes), the gravity direction detection unit 23 extracts the gravity direction from the acceleration data input from the sensor detection unit 22. (S102).
  • the walking motion detector 24 detects the vertical vibration component and the stride from the gravity direction detected by the gravity direction detector 23 and the acceleration data input from the sensor detector 22 (S103).
  • the stride detection unit 25 detects the number of steps using the vertical vibration component input from the walking motion detection unit 24, the section for one step, and the like (S104), and associates it with the detection time in the stride DB 15a. Hold (S105).
  • the posture detection unit 26 detects the posture of the IoT device 10 from the magnetic north data sensed by the geomagnetic sensor 14 and the gravity direction detected by the gravity direction detection unit 23 (S106).
  • the advancing direction detection part 27 detects the advancing direction of the IoT device 10 on a world coordinate using the attitude
  • the stride estimation unit 29 determines not to use the current stride detected by the stride detection unit 25 but to use the stride a predetermined time ago. Then, the current position update unit 30 updates the current position using the determined stride (S109).
  • the stride estimation unit 29 determines to use the current stride detected by the stride detection unit 25, and the current position update unit 30 The current position is updated using the determined stride (S110).
  • the current position update unit 30 generates a PDR locus from the current position updated in S109 or S110 and the positional relationship so far, and stores it in the PDR locus DB 15b (S111).
  • FIG. 9 is a flowchart showing the flow of the direction change detection process.
  • the direction change detection unit 28 acquires angular velocity data from the sensor detection unit 22 (S201), and acquires the gravity component detected by the gravity direction detection unit 23 (S202).
  • the direction change detection unit 28 calculates the inner product of the gravity component and the angular velocity, and extracts the direction change component (S203). Thereafter, the direction change detection unit 28 performs noise removal on the extracted direction change component (S204), and if the angular velocity that is the direction change component after noise removal is equal to or greater than the threshold (S205: Yes), the direction change is performed. If it is determined that there is a turn (S206) and the angular velocity is less than the threshold (S205: No), it is determined that there is no turn (S207).
  • the IoT device 10 records the amount of movement for each step when the pedestrian is moving straight, compares the amount of movement when the pedestrian's traveling direction changes with the recorded amount of movement, If there is a difference greater than a certain threshold, the position of the pedestrian is estimated using the recorded movement amount. Therefore, the IoT device 10 can suppress a decrease in position accuracy when the traveling direction of the pedestrian changes, and can also suppress a decrease in accuracy of the PDR trajectory. In addition, in the case of detecting a user state change event using a change in pace as a trigger, erroneous detection at the time of turning can be suppressed.
  • FIG. 10 is a diagram for explaining the direction change according to the second embodiment.
  • the IoT device 10 detects a stride every two steps and generates a PDR locus.
  • the IoT device 10 generates a PDR locus, and then detects a change in the traveling direction from the locus information two steps before and six steps before the current position.
  • the IoT device 10 calculates a vector from 6 steps before to 2 steps before from the PDR locus to the current position. Then, the IoT device 10 detects that the direction change has occurred when the angle between the current position and the vector indicating the traveling direction from 6 steps before to 2 steps is equal to or greater than the threshold value.
  • the accuracy of the PDR trajectory can be improved.
  • FIG. 11 is a flowchart illustrating a flow of direction change detection processing according to the second embodiment. As shown in FIG. 11, the processing from S301 to S305 is the same as the processing from S201 to S205, and thus detailed description thereof is omitted.
  • the direction change detection unit 28 calculates a vector from 6 steps before to 2 steps before from the PDR locus up to the current position, and from 6 steps before to 2 steps before.
  • the direction change angle is calculated from the angle between the current position and the vector indicating the traveling direction until (S306).
  • the current position update unit 30 corrects the current position using the stride calculated a predetermined time (S308), and uses the corrected current position.
  • the PDR trajectory is corrected (S309).
  • the process is terminated as it is without correcting the current position and the PDR trajectory.
  • S305 when it is determined that the angular velocity is equal to or higher than the threshold (S305: Yes), S308 and subsequent steps are executed. If it is determined that the angular velocity is equal to or greater than the threshold value, the process can be terminated without modification. That is, the update result according to the first embodiment can be maintained.
  • Example 1 Although the example which produces
  • FIG. 12 is a flowchart illustrating the flow of the direction change detection process according to the third embodiment. As shown in FIG. 12, the processing from S401 to S408 is the same as the processing from S101 to S108 described in FIG.
  • the stride estimation unit 29 calculates the difference between the latest stride, that is, the stride measured when the direction point change is detected, and the previous stride, that is, the stride measured when going straight (S408). It is determined whether or not the difference is greater than or equal to a threshold value (S409).
  • the current position update unit 30 calculates the previous stride, that is, the stride measured when going straight ahead. Use to update the current position (S411).
  • the current position update unit 30 determines the current stride detected by the stride detection unit 25 (the latest step). The current position is updated using the (step length) (S412).
  • the current position update unit 30 generates a PDR locus from the current position updated in S411 or S412 and the positional relationship so far, and stores it in the PDR locus DB 15b (S413).
  • the IoT device 10 can generate a PDR trajectory using the actually detected stride when the stepping of the user at the time of turning is weak or when the turning angle is small. Generation of a PDR locus closer to the walking locus can be realized.
  • the method of the third embodiment can also be combined with the first and second embodiments.
  • the IoT device 10 can compare the amount of movement for each step as needed, and can determine whether or not a direction change has occurred when the amount of movement exceeds a threshold. More specifically, every time a stride is detected, the IoT device 10 calculates a difference from the previous stride. The IoT device 10 may determine whether or not a turn has occurred using the method of the first or second embodiment when a stride whose difference from the previous time is greater than or equal to a predetermined value is detected. it can.
  • the IoT device 10 determines that the floor is moved or the stepladder is raised or lowered when a stride whose difference from the previous time is greater than or equal to a predetermined value is detected and no change in direction is detected. Then, the IoT device 10 can determine that an abnormality has been detected for the user's behavior, and can notify an administrator or the like of an alarm.
  • the difference in the above stride includes not only detecting that the latest stride is larger than expected than the previous time but also detecting that the latest stride is smaller than expected than the previous time. .
  • the current position is updated using the past stride, and even if a change in direction is detected, the difference in the stride from the previous time Can be updated using the estimated stride as it is.
  • the present invention is not limited to this, and the server receives various information from the IoT device 10 and receives the above information.
  • the processing of each embodiment can also be executed.
  • the IoT device 10 can update the current position, and the server can generate a PDR trajectory.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure. That is, all or a part of them can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • IoT device 15a stride DB 15b PDR locus DB DESCRIPTION OF SYMBOLS 21 Reference position input part 22 Sensor detection part 23 Gravity direction detection part 24 Walking motion detection part 25 Stride detection part 26 Posture detection part 27 Travel direction detection part 28 Direction change detection part 29 Stride estimation part 30 Current position update part

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Distances Traversed On The Ground (AREA)

Abstract

IoTデバイスは、IoTデバイスを装着する歩行者の移動方向の変化を検出する。そして、IoTデバイスは、移動方向の変化量が閾値未満の間、IoTデバイスの上下方向の振幅成分から歩行者の1歩ごとの移動量を検出する。そして、IoTデバイスは、推定された移動量を用いて歩行者の位置を推定する。その後、IoTデバイスは、移動方向の変化量が閾値以上となった場合、推定された変化量が閾値未満の間に検出された移動量を用いて、歩行者の位置を推定する。

Description

情報処理装置、情報処理方法および情報処理プログラム
 本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
 従来から、スマートフォンやIoT(Internet of Things)デバイスなどを利用した歩行者の自律航法(PDR:Pedestrian Dead Reckoning)が知られている。例えば、高齢者などの対象者にIoTデバイスを装着して対象者のPDR軌跡を測定し、見守り等を行うサービスなども普及している。
 屋外の測位では、GPS(Global Positioning System)や、カーナビの地図情報等を併用した測位手法が一般的であるが、屋内などでは地図情報のないことも少なくなく、またGPSの電波を受信できなくなってしまう事が多い。このため、近年では、屋内ユーザ向けに、様々な電波測位や音響測位に加え、歩行による上下方向の振動の振幅から歩幅の大きさを推定し、推定した歩幅の大きさを用いて、PDR軌跡を併用し、高精度の位置情報を算出する技術が知られている。
特開2012-208011号公報 特開2000-097722号公報
 しかしながら、上記技術では、測定対象者が方向転換を行ったときに、位置の測定精度が低下する。例えば、歩行者が進行方向を変える際、歩行者が無意識に踏み込む動作を行うほか、方向転換に伴う遠心力の影響が重畳し、検出される上下方向の振動が大きくなることから、歩幅の推定値が実際よりも大きくなり、PDR軌跡が乱れる。
 一つの側面では、歩行者の進行方向が変化したときの位置精度の低下を低減できる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
 第1の案では、情報処理装置は、前記情報処理装置を装着する歩行者の移動方向の変化を検出する検出部を有する。情報処理装置は、前記移動方向の変化量が閾値未満の間、前記情報処理装置の上下方向の振幅成分から前記歩行者の1歩ごとの移動量を検出し、推定された前記移動量を用いて前記歩行者の位置を推定する第1推定部を有する。情報処理装置は、前記移動方向の変化量が閾値以上となった場合、前記第1推定部によって前記変化量が前記閾値未満の間に検出された前記移動量を用いて、前記歩行者の位置を推定する第2推定部を有する。
 一実施形態によれば、歩行者の進行方向が変化したときの位置精度の低下を低減できる。
図1は、実施例1にかかるIoTデバイスのハードウェア構成例を示す図である。 図2は、実施例1にかかるIoTデバイスの機能構成を示す機能ブロック図である。 図3は、加速度データの上下方向の振動成分を説明する図である。 図4は、姿勢の推定例を説明する図である。 図5は、進行方向の推定イメージを説明する図である。 図6は、進行方向の推定例を説明する図である。 図7は、歩幅の補正例を説明する図である。 図8は、全体的な処理の流れを示すフローチャートである。 図9は、方向転換の検出処理の流れを示すフローチャートである。 図10は、実施例2にかかる方向転換を説明する図である。 図11は、実施例2にかかる方向変換の検出処理の流れを示すフローチャートである。 図12は、実施例3にかかる方向転換の検出処理の流れを示すフローチャートである。
 以下に、本発明にかかる情報処理装置、情報処理方法および情報処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[IoTデバイスの説明]
 実施例1にかかるIoTデバイス10は、3軸の加速度センサ、ジャイロセンサ、地磁気センサが搭載されている情報処理装置の一例であり、バッヂ等に代表されるユーザの体幹部に装着される。また、IoTデバイス10は、一般的な歩数計と同様のアルゴリズムを適用し、IoTデバイス10を装着するユーザの歩数を計数する。さらに、IoTデバイス10は、ユーザの位置を定期的に取得し、ユーザの移動軌跡を生成する。なお、軌跡の生成手法は、一般的なPDRと同様のアルゴリズムを採用する。
[IoTデバイスのハードウェア構成]
 図1は、実施例1にかかるIoTデバイス10のハードウェア構成例を示す図である。図1に示すように、IoTデバイス10は、無線部11、加速度センサ12、ジャイロセンサ13、地磁気センサ14、記憶部15、プロセッサ20を有する。なお、ここで示したハードウェア構成は一例であり、ディスプレイやハードディスク、気圧センサなど他のハードウェアを有していてもよい。
 無線部11は、アンテナ11aを介して、他の端末やサーバとデータの送受信を実行するとともに、周辺のWi-Fi(Wireless-Fidelity)基地局やビーコン電波を受信する等の電波測位に使用される。加速度センサ12は、IoTデバイス10の加速度を測定してプロセッサ20に出力するセンサであり、XYZ軸の3方向の加速度(加速度ベクトル)を測定する3軸加速度センサである。ジャイロセンサ13は、IoTデバイス10の角度や角速度を測定してプロセッサ20に出力するセンサである。地磁気センサ14は、方位を測定してプロセッサ20に出力するセンサである。
 記憶部15は、プログラムやデータを記憶する記憶装置であり、例えばメモリやハードディスクなどである。プロセッサ20は、CPU(Central Processing Unit)などであり、後述する各種処理の内容が規定されるプログラムを記憶部15から読み出して実行し、後述する各種処理と同様の機能を発揮するプロセスを実行して、PDRに関する各種処理を実行する。
[IoTデバイスの機能構成]
 図2は、実施例1にかかるIoTデバイス10の機能構成を示す機能ブロック図である。図2に示すように、IoTデバイス10は、歩幅DB15a、PDR軌跡DB15bを有する。また、IoTデバイス10は、基準位置入力部21、センサ検出部22、重力方向検出部23、歩行動作検出部24、歩幅検出部25、姿勢検出部26、進行方向検出部27、方向転換検出部28、歩幅推定部29、現在位置更新部30を有する。
 なお、歩幅DB15a、PDR軌跡DB15bは、記憶部15等の記憶装置に記憶される。基準位置入力部21、センサ検出部22、重力方向検出部23、歩行動作検出部24、歩幅検出部25、姿勢検出部26、進行方向検出部27、方向転換検出部28、歩幅推定部29、現在位置更新部30は、プロセッサ20が有する電子回路の一例やプロセッサ20が実行するプロセスの一例である。
 歩幅DB15aは、歩幅検出部25によって推定された歩幅を記憶するデータベースである。例えば、歩幅DB15aは、推定時刻と歩幅とを対応付けて記憶する。PDR軌跡DB15bは、現在位置更新部30によって生成されたPDR軌跡を記憶するデータベースである。
 基準位置入力部21は、GPS(Global Positioning System)またはBLE(Bluetooth(登録商標) Low Energy)に準拠したビーコン等を用いて基準位置を測定する処理部である。例えば、基準位置入力部21は、GPSで得られる位置情報や、ビーコンの電波を利用した電波測位の結果から、予測誤差半径の小さなデータを検出する。そして、基準位置入力部21は、検出したデータを基準位置として、現在位置更新部30に入力する。なお、測定手法は、公知の様々な手法を採用することができる。
 センサ検出部22は、各種センサによって取得されたセンサ値を取得して、各処理部に出力する処理部である。例えば、センサ検出部22は、加速度センサ12がセンシングした加速度データを取得して、重力方向検出部23、歩行動作検出部24、歩幅検出部25、進行方向検出部27等に出力する。
 また、センサ検出部22は、ジャイロセンサ13で取得した角速度データを姿勢検出部26等へ出力する。また、センサ検出部22は、地磁気センサ14で取得した地磁気データを姿勢検出部26等へ出力する。
 重力方向検出部23は、センサ検出部22から入力された加速度データから重力方向を抽出する処理部である。例えば、重力方向検出部23は、加速度データをローパスフィルタなどに通して、加速度の定常成分を重力方向(重力ベクトル)として算出する。そして、重力方向検出部23は、検出した重力方向を歩行動作検出部24等に出力する。
 歩行動作検出部24は、重力方向検出部23によって検出された重力方向とセンサ検出部22から入力された加速度データから上下方向の振動成分を抽出し、抽出した上下方向の振動成分から歩幅および歩数、1歩ごとの時間的区画等の歩行パラメータを検出する処理部である。例えば、歩行動作検出部24は、入力された加速度データをバンドパスフィルタに通して、所定周波数付近の周波数を抽出し、振動成分を算出する。なお、抽出する周波数の一例としては、0.5Hzから3Hzなどが挙げられる。
 その後、歩行動作検出部24は、加速度データの重力方向(重力ベクトル)と振動成分の内積値から上下方向の振動成分を算出する。さらに、歩行動作検出部24は、上下方向の振動成分から、ピークもしくはゼロクロス点を検出することで、一歩分の区画と歩数を得ることができる。そして、歩行動作検出部24は、上下方向の振動成分および歩数を歩幅検出部25等に出力する。
 図3は、加速度データの上下方向の振動成分を説明する図である。図3の縦軸は周波数であり、横軸は時間である。図3に示す例では、約5000と約-5000とピーク時とする振幅成分を示しており、歩行動作検出部24は、周波数が約0となる点をゼロクロス点として検出する。また、歩行動作検出部24は、3つ分のゼロクロス点を一歩分の区画として検出する。
 歩幅検出部25は、歩行動作検出部24から入力された上下方向の振動成分や一歩分の区間等を用いて、歩数を検出する処理部である。例えば、歩幅検出部25は、2歩ごとの区画に対して、重力方向の振動成分のフーリエ級数展開を行うことで、歩幅を決定する。つまり、歩幅検出部25は、2歩ごとに歩幅を検出し、検出した時間と歩幅とを対応付けて、歩幅DB15aに格納する。
 なお、歩幅の検出方法は、これに限定されず、公知の様々な手法を採用することができる。例えば、歩幅検出部25は、所定時間内に検出された区間の数を用いて、1区間にかかる時間を算出して、1区間の歩幅を推定することもできる。
 姿勢検出部26は、IoTデバイス10の姿勢を検出する処理部である。具体的には、姿勢検出部26は、地磁気センサ14によってセンシングされた磁北データと重力方向検出部23によって検出された重力方向とから、公知の一般的な手法を用いて北方向と東方向を特定する。図4は、姿勢の推定例を説明する図である。図4に示すように、姿勢検出部26は、IoTデバイス10の軸と世界座標とが一致しないことから、IoTデバイス10の軸から上下・北・東方で成す世界座標への変換パラメータを、IoTデバイス10の姿勢として検出する。
 進行方向検出部27は、IoTデバイス10の進行方向を検出する処理部である。具体的には、進行方向検出部27は、IoTデバイス10の姿勢と上下方向・北方向・東方向とを用いることで、世界座標上でIoTデバイス10の進行方向を推定する。図5は、進行方向の推定イメージを説明する図である。図5に示すように、進行方向検出部27は、IoTデバイス10の姿勢を世界座標上で表現し、当該姿勢の傾き等を利用して、世界座標上でのIoTデバイス10の進行方向を検出する。そして、進行方向検出部27は、検出した進行方向を現在位置更新部30へ出力する。
 なお、進行方向の検出には、公知の様々な手法を採用することができる。例えば、進行方向検出部27は、IoTデバイス10において予め定めた特定の方向を進行方向とすることもでき、水平方向の加速度を周波数解析して進行方向を検出することもでき、水平方向の加速度に主成分分析をかけることで進行方向を検出することもできる。
 図6は、進行方向の推定例を説明する図である。図6の上図は、垂直方向すなわち上下方向の加速度の振幅成分であり、下図は、分離された東方向と北方向の振動成分すなわち水平方向の振動成分である。図6に示すように、踏み込みや蹴り出しによって、加速度データの水平方向の振動成分が大きく変化する。ここで、進行方向検出部27は、左右の踏み込みで1セットとして2歩ごとに進行方向の算出を行うこととする。なお、歩幅と進行方向が推定できれば、前回の現在位置からの移動量が分かるので、公知の手法を用いて、現在位置を更新できる。
 方向転換検出部28は、歩行者の方向転換を検出する処理部である。具体的には、方向転換検出部28は、重力方向検出部23によって検出された加速度の重力方向の振幅成分と、ジャイロセンサ13が検出した角速度データとの内積を算出して、方向転換成分を抽出する。そして、方向転換検出部28は、抽出した方向転換成分に、ローパスフィルタをかけてノイズ除去を実行した後の内積値(角速度)が一定以上の場合に方向転換ありと判定する。その後、方向転換検出部28は、方向転換ありまたは方向転換なしの情報を歩幅推定部29に出力する。ここでは、即応性を重視して、大きな角速度を検出する。
 歩幅推定部29は、方向転換の有無によって、現在位置更新やPDR軌跡の算出に使用する歩幅の推定を実行する処理部である。具体的には、歩幅推定部29は、方向転換検出部28によって方向転換なしが通知された場合、歩幅検出部25によって検出された歩幅を使用すると判定し、方向転換検出部28によって方向転換ありが通知された場合、歩幅検出部25によって検出された歩幅ではなく、過去もしくは直前に方向転換なしと判定されたときの歩幅を使用すると判定する。
 例えば、歩幅推定部29は、方向転換なしの場合、歩幅DB15aから最新の歩幅を読み出して現在位置更新部30に出力する。一方で、歩幅推定部29は、方向転換ありの場合、歩幅DB15aから最新の歩幅ではなく、一つ前に検出された歩幅すなわち2歩前の歩幅を読み出して現在位置更新部30に出力する。なお、歩幅推定部29は、2歩前に限らず、例えば一歩ずつ歩幅が検出されている場合は、一方前の歩幅を読み出して出力することもでき、数歩の平均値を算出して出力することもできる。
 また、歩幅推定部29は、方向転換が発生している間は、過去の歩幅を現在位置更新部30に通知し続ける。例えば、歩幅推定部29は、連続して方向転換が発生している場合は、1歩前の歩幅ではなく、方向転換が最初に検出されたときに通知した歩幅を連続して通知する。より詳細には、歩幅推定部29は、時刻T1:直進、時刻T2:方向転換、時刻T3:方向転換、時刻T4:方向転換、時刻T5:直進と判定された場合、時刻T2から時刻T4の間は時刻T1の歩幅を通知し、時刻T5ではそのときの歩幅を通知する。
 現在位置更新部30は、歩行者のPDR軌跡を生成してPDR軌跡DB15bに格納する処理部である。具体的には、現在位置更新部30は、基準位置入力部21から入力された位置を基準位置(スタート)として、歩幅推定部29から通知された歩幅と進行方向検出部27から通知された進行方向とを用いて現在位置を更新し、基準位置から現在位置を結んだ軌跡をPDR軌跡として算出する。
 つまり、現在位置更新部30は、基本的には歩幅検出部25によって検出された歩幅を用いてPDR軌跡を算出するが、方向転換が発生したときだけ、最新の検出された歩幅ではなく、それまでに保存された過去の歩幅を用いてPDR軌跡を算出する。
 図7は、歩幅の補正例を説明する図である。図7の(a)に示す軌跡は、4歩目で方向転換を行った実際の歩行者の軌跡であり、IoTデバイス10は、この軌跡に近いPDR軌跡を生成する。ここで、方向転換が発生した場合、方向転換によって生じる遠心力の影響で加速度の重力方向の推定精度が悪くなり、遠心力と歩行による横方向への振動が重畳し、移動方向の精度が悪化する。さらに、方向転換のため踏み込みが強くなり、移動距離が大きく見積もられて余計に位置精度が悪化する。
 つまり、図7の(b)に示すように、方向転換が発生した場合の歩幅をそのまま利用すると、移動方向時に一部の軌跡で歩幅が急激に増大するので、図7の(a)に示す実際の軌跡と大きく異なるPDR軌跡が生成される。そこで、実施例1にかかるIoTデバイス10は、方向転換が発生した場合に、その時の歩幅ではなく、方向転換が発生していないときに検出された歩幅を用いてPDR軌跡(図7の(c))を生成することで、実際の軌跡との誤差を小さくすることができる。なお、PDR軌跡の算出方法は、公知の様々な手法を採用することができる。
[全体的な処理の流れ]
 図8は、全体的な処理の流れを示すフローチャートである。図8に示すように、IoTデバイス10のセンサ検出部22がセンサ値を検出すると(S101:Yes)、重力方向検出部23は、センサ検出部22から入力された加速度データから重力方向を抽出する(S102)。
 続いて、歩行動作検出部24は、重力方向検出部23によって検出された重力方向とセンサ検出部22から入力された加速度データから、上下方向の振動成分および歩幅を検出する(S103)。
 そして、歩幅検出部25は、歩行動作検出部24から入力された上下方向の振動成分や一歩分の区間等を用いて、歩数を検出して(S104)、検出時間と対応付けて歩幅DB15aに保持する(S105)。続いて、姿勢検出部26は、地磁気センサ14によってセンシングされた磁北データと重力方向検出部23によって検出された重力方向とから、IoTデバイス10の姿勢を検出する(S106)。
 そして、進行方向検出部27は、IoTデバイス10の姿勢と上下方向・北方向・東方向とを用いて、世界座標上でIoTデバイス10の進行方向を検出する(S107)。
 その後、方向転換検出部28によって方向転換が検出された場合(S108:Yes)、歩幅推定部29が、歩幅検出部25によって検出された現在の歩幅ではなく、所定時間前の歩幅を用いると決定し、現在位置更新部30は、決定された歩幅を用いて、現在位置を更新する(S109)。
 一方、方向転換検出部28によって方向転換が検出されない場合(S108:No)、歩幅推定部29が、歩幅検出部25によって検出された現在の歩幅を用いると決定し、現在位置更新部30は、決定された歩幅を用いて、現在位置を更新する(S110)。
 その後、現在位置更新部30は、S109またはS110で更新された現在位置と、それまでの位置関係等から、PDR軌跡を生成してPDR軌跡DB15bに保存する(S111)。
[方向転換検出処理]
 図9は、方向転換の検出処理の流れを示すフローチャートである。図9に示すように、方向転換検出部28は、センサ検出部22から角速度データを取得し(S201)、重力方向検出部23が検出した重力成分を取得する(S202)。
 続いて、方向転換検出部28は、重力成分と、角速度との内積を算出して、方向転換成分を抽出する(S203)。その後、方向転換検出部28は、抽出した方向転換成分に対してノイズ除去を実行した後(S204)、ノイズ除去後の方向転換成分である角速度が閾値以上である場合(S205:Yes)、方向転換ありと判定し(S206)、角速度が閾値未満である場合(S205:No)、方向転換なしと判定する(S207)。
[効果]
 上述したように、IoTデバイス10は、歩行者が直進しているとき、一歩ごとの移動量を記録し、歩行者の進行方向が変化したときの移動量と記録した移動量とを比較し、一定閾値以上の差異がある場合、記録した移動量を用いて歩行者の位置を推定する。したがって、IoTデバイス10は、歩行者の進行方向が変化したときの位置精度の低下を抑制することができ、PDR軌跡の精度低下も抑制できる。また、歩調の変化時をトリガとしてユーザの状態変化イベント検出を行う場合においては、方向転換時の誤検出を抑えることができる。
 ところで、実施例1では、即応性を重視して、大きな角速度を検出することで方向転換を検出する例を説明したが、これに限定されるものではない。例えば、実際に検出されたPDR軌跡から確実に方向転換を検出することもできる。そこで、実施例2では、実際に検出されたPDR軌跡から方向転換を検出した場合に、PDR軌跡を修正する例を説明する。
 図10は、実施例2にかかる方向転換を説明する図である。図10に示すように、IoTデバイス10は、2歩ごとに歩幅を検出してPDR軌跡を生成する。ここで、図10の左図に示すように、IoTデバイス10は、PDR軌跡を生成した後、現在の位置より2歩前、6歩前の軌跡情報から進行方向の変化を検出する。
 例えば、IoTデバイス10は、現在位置までのPDR軌跡から、6歩前から2歩前までのベクトルを算出する。そして、IoTデバイス10は、6歩前から2歩前までの進行方向を示すベクトルと、現在位置との角度が閾値以上であるときに、方向転換が発生したと検出する。
 つまり、歩行者が横歩きした場合は角速度の変化が小さく、実施例1の手法だけでは正確性にかけることもあるが、実施例2の手法を用いることで、横歩きによる方向転換を検出できるので、PDR軌跡の精度を向上させることができる。
 図11は、実施例2にかかる方向変換の検出処理の流れを示すフローチャートである。図11に示すように、S301からS305までの処理は、S201からS205までの処理と同様なので、詳細な説明を省略する。
 そして、角速度が閾値未満の場合(S305:No)、方向転換検出部28は、現在位置までのPDR軌跡から、6歩前から2歩前までのベクトルを算出し、6歩前から2歩前までの進行方向を示すベクトルと現在位置との角度とから方向転換角度を算出(S306)。
 そして、現在位置更新部30は、方向転換角度が閾値以上である場合(S307:Yes)、所定時間前に算出された歩幅を用いて現在位置を修正し(S308)、修正した現在位置を用いてPDR軌跡を修正する(S309)。一方、方向転換角度が閾値未満である場合(S307:No)、現在位置およびPDR軌跡の補正を行わずに、そのまま処理を終了する。
 また、S305において、角速度が閾値以上と判定された場合(S305:Yes)、S308以降が実行される。なお、角速度が閾値以上と判定された場合は、修正は行わずに、そのまま処理を終了することもできる。すなわち、実施例1による更新結果を維持することもできる。
 このように、実施例1で説明した即応性の高い角速度に加えて、実際に検出されたPDR軌跡から方向転換を検出してPDR軌跡を修正することができるので、PDR軌跡の精度を向上させることができる。なお、実施例1と実施例2の手法は、それぞれ単独で実行することもでき、組み合わせることもできる。
 ところで、実施例1では、方向転換が検出された場合は、直進時の歩幅を用いてPDR軌跡を生成する例を説明したが、実際には一定以上の歩幅の変化を検出した際に、方向転換の検出を行うこともできる。そこで、実施例3では、実施例1と異なり、歩幅の変化時にのみ方向転換時の検出を行う例を説明する。
 図12は、実施例3にかかる方向転換の検出処理の流れを示すフローチャートである。図12に示すように、S401からS408までの処理は、図8で説明したS101からS108までの処理と同様なので、詳細な説明は省略する。
 そして、進行方向が検出されると、歩幅推定部29は、最新の歩幅すなわち方向点転換検出時に測定された歩幅と、前回の歩幅すなわち直進時に測定された歩幅との差を算出し(S408)、差が閾値以上か否かを判定する(S409)。
 ここで、現在位置更新部30は、差が閾値以上であり(S409:Yes)、方向転換があったことが検出された場合(S410:Yes)、前回の歩幅すなわち直進時に測定された歩幅を用いて、現在位置を更新する(S411)。
 一方、現在位置更新部30は、差が閾値未満であった場合(S409:No)、もしくは、方向転換がない場合(S410:No)、歩幅検出部25によって検出された現在の歩幅(最新の歩幅)を用いて、現在位置を更新する(S412)。
 その後、現在位置更新部30は、S411またはS412で更新された現在位置と、それまでの位置関係等から、PDR軌跡を生成してPDR軌跡DB15bに保存する(S413)。
 このように、IoTデバイス10は、方向転換時のユーザの踏み込みが弱い場合や方向転換の角度等が小さい場合、実際に検出された歩幅を用いてPDR軌跡を生成することができるので、実際の歩行軌跡により近いPDR軌跡の生成を実現できる。なお、実施例3の手法も実施例1や実施例2と組み合わせることができる。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
[方向転換の検出例、挙動検出]
 例えば、IoTデバイス10は、1歩ごとの移動量を随時比較し、移動量が閾値以上となったときに、方向転換が発生したか否かを判定することもできる。より詳細には、IoTデバイス10は、歩幅が検出されるたびに、前回の歩幅との差を算出する。そして、IoTデバイス10は、前回との差が所定値以上の歩幅が検出された場合に、実施例1や実施例2の手法を用いて、方向転換が発生したか否かを判定することもできる。
 さらに、IoTデバイス10は、前回との差が所定値以上の歩幅が検出されるとともに、方向転換が検出されなかった場合、フロア移動や脚立の昇降などと判断する。そして、IoTデバイス10は、ユーザの挙動に対する異常検出と判断して、管理者等にアラームを通知することもできる。なお、上記歩幅の差は、最新の歩幅が前回よりも予想以上に大きくなったことを検出するだけではなく、最新の歩幅が前回よりも予想以上に小さくなったことを検出する場合も含まれる。なお、方向転換が検出されるとともに、前回との歩幅の差が閾値以上である場合に、過去の歩幅を用いて現在位置を更新し、方向転換が検出されても、前回との歩幅の差が閾値未満である場合に、推定された歩幅をそのまま用いて現在位置を更新することもできる。
 また、上記実施例では、IoTデイバス10で現在位置を更新してPDR軌跡を生成する例を説明したが、これに限定されるものではなく、サーバがIoTデバイス10から各種情報を受信して上記各実施例の処理を実行することもできる。また、IoTデバイス10が現在位置を更新し、サーバがPDR軌跡を生成することもできる。
[システム]
 また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、上記実施例で説明した各処理のフローは、矛盾のない範囲内で処理の順番を入れ替えることができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 10 IoTデバイス
 15a 歩幅DB
 15b PDR軌跡DB
 21 基準位置入力部
 22 センサ検出部
 23 重力方向検出部
 24 歩行動作検出部
 25 歩幅検出部
 26 姿勢検出部
 27 進行方向検出部
 28 方向転換検出部
 29 歩幅推定部
 30 現在位置更新部

Claims (7)

  1.  情報処理装置において、
     前記情報処理装置を装着する歩行者の移動方向の変化を検出する検出部と、
     前記移動方向の変化量が閾値未満の間、前記情報処理装置の上下方向の振幅成分から前記歩行者の1歩ごとの移動量を検出し、推定された前記移動量を用いて前記歩行者の位置を推定する第1推定部と、
     前記移動方向の変化量が閾値以上となった場合、前記第1推定部によって前記変化量が前記閾値未満の間に検出された前記移動量を用いて、前記歩行者の位置を推定する第2推定部と
     を有することを特徴とする情報処理装置。
  2.  前記情報処理装置の角速度と前記情報処理装置の重力成分との内積値を算出する第1算出部をさらに有し、
     前記検出部は、前記内積値が閾値以上である場合に、前記移動方向の変化量が閾値以上であると検出することを特徴とする請求項1に記載の情報処理装置。
  3.  前記情報処理装置の角速度と前記情報処理装置の重力成分との内積値が閾値未満である場合、前記第2推定部によって推定された前記歩行者の現在位置と、前記現在位置までの前記歩行者の軌跡とから、前記現在位置と前記現在位置の直前の位置との方向転換角度を算出する第2算出部をさらに有し、
     前記第2推定部は、前記方向転換角度が閾値以上である場合は、前記第1推定部によって前記変化量が前記閾値未満の間に検出された前記移動量を用いて前記歩行者の位置を再度推定し、前記現在位置を更新することを特徴とする請求項2に記載の情報処理装置。
  4.  前記第2推定部は、前記情報処理装置の上下方向の振幅成分から前記歩行者の前記移動量を検出し、検出した前記移動量と前記第1推定部によって検出された前記移動量との差が閾値以上の場合は、前記第1推定部によって検出された前記移動量を用いて前記歩行者の位置を推定し、前記差が閾値未満の場合は、前記上下方向の振幅成分から検出した前記移動量を用いて前記歩行者の位置を推定することを特徴とする請求項1に記載の情報処理装置。
  5.  前記検出部は、前記情報処理装置の上下方向の振幅成分から推定される前記移動量が閾値以上変化した場合に、前記閾値以上の移動量が推定されたときの前記歩行者の移動方向が前記閾値以上の移動量が推定された直前の前記歩行者の移動方向から閾値以上変化しているか否かを判定することを特徴とする請求項1に記載の情報処理装置。
  6.  情報処理装置が、
     前記情報処理装置を装着する歩行者の移動方向の変化を検出し、
     前記移動方向の変化量が閾値未満の間、前記情報処理装置の上下方向の振幅成分から前記歩行者の1歩ごとの移動量を検出し、推定された前記移動量を用いて前記歩行者の位置を推定し、
     前記移動方向の変化量が閾値以上となった場合、前記変化量が前記閾値未満の間に検出された前記移動量を用いて、前記歩行者の位置を推定する
     処理を実行することを特徴とする情報処理方法。
  7.  情報処理装置に、
     前記情報処理装置を装着する歩行者の移動方向の変化を検出し、
     前記移動方向の変化量が閾値未満の間、前記情報処理装置の上下方向の振幅成分から前記歩行者の1歩ごとの移動量を検出し、推定された前記移動量を用いて前記歩行者の位置を推定し、
     前記移動方向の変化量が閾値以上となった場合、前記変化量が前記閾値未満の間に検出された前記移動量を用いて、前記歩行者の位置を推定する
     処理を実行させることを特徴とする情報処理プログラム。
PCT/JP2016/088563 2016-12-22 2016-12-22 情報処理装置、情報処理方法および情報処理プログラム WO2018116476A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018557506A JPWO2018116476A1 (ja) 2016-12-22 2016-12-22 情報処理装置、情報処理方法および情報処理プログラム
PCT/JP2016/088563 WO2018116476A1 (ja) 2016-12-22 2016-12-22 情報処理装置、情報処理方法および情報処理プログラム
EP16924293.0A EP3561452A4 (en) 2016-12-22 2016-12-22 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND INFORMATION PROCESSING PROGRAM
US16/445,306 US20190323842A1 (en) 2016-12-22 2019-06-19 Information processing apparatus, information processing method, and computer-readable recording medium recording information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/088563 WO2018116476A1 (ja) 2016-12-22 2016-12-22 情報処理装置、情報処理方法および情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/445,306 Continuation US20190323842A1 (en) 2016-12-22 2019-06-19 Information processing apparatus, information processing method, and computer-readable recording medium recording information processing program

Publications (1)

Publication Number Publication Date
WO2018116476A1 true WO2018116476A1 (ja) 2018-06-28

Family

ID=62626064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088563 WO2018116476A1 (ja) 2016-12-22 2016-12-22 情報処理装置、情報処理方法および情報処理プログラム

Country Status (4)

Country Link
US (1) US20190323842A1 (ja)
EP (1) EP3561452A4 (ja)
JP (1) JPWO2018116476A1 (ja)
WO (1) WO2018116476A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10627239B2 (en) * 2018-05-24 2020-04-21 Idhl Holdings, Inc. Methods, architectures, apparatuses, systems directed to improved dead reckoning for pedestrian navigation
US10845197B2 (en) * 2018-11-27 2020-11-24 Aptiv Technologies Limited Dead-reckoning guidance system and method with cardinal-direction based coordinate-corrections
IT202000027636A1 (it) 2020-11-19 2021-02-19 Ottavia S R L S Dispositivo d'assistenza motoria ottimizzato e relativo metodo

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097722A (ja) 1998-09-26 2000-04-07 Jatco Corp 携帯用位置検出装置および位置管理システム
WO2011093447A1 (ja) * 2010-01-29 2011-08-04 独立行政法人産業技術総合研究所 計算装置、計算装置の制御方法、制御プログラム、及び記録媒体
JP2012208011A (ja) 2011-03-30 2012-10-25 Nippon Telegraph & Telephone West Corp 位置判定装置、位置判定方法及びコンピュータプログラム
JP2012526991A (ja) * 2009-05-12 2012-11-01 クゥアルコム・インコーポレイテッド ロケーションベースのサービスのための動的レポートスキーム
WO2014010727A1 (ja) * 2012-07-13 2014-01-16 独立行政法人産業技術総合研究所 移動体の進行方向推定装置及び進行方向推定方法
WO2015108066A1 (ja) * 2014-01-15 2015-07-23 旭化成株式会社 情報処理装置、マップマッチング装置、情報処理方法、およびプログラム
WO2016111068A1 (ja) * 2015-01-05 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016218026A (ja) * 2015-05-26 2016-12-22 株式会社東芝 情報処理装置、測位方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826477B2 (en) * 2001-04-23 2004-11-30 Ecole Polytechnique Federale De Lausanne (Epfl) Pedestrian navigation method and apparatus operative in a dead reckoning mode
JP4877395B2 (ja) * 2010-01-19 2012-02-15 セイコーエプソン株式会社 歩幅推測方法及び歩幅推測装置
JP5206764B2 (ja) * 2010-10-22 2013-06-12 カシオ計算機株式会社 測位装置、測位方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097722A (ja) 1998-09-26 2000-04-07 Jatco Corp 携帯用位置検出装置および位置管理システム
JP2012526991A (ja) * 2009-05-12 2012-11-01 クゥアルコム・インコーポレイテッド ロケーションベースのサービスのための動的レポートスキーム
WO2011093447A1 (ja) * 2010-01-29 2011-08-04 独立行政法人産業技術総合研究所 計算装置、計算装置の制御方法、制御プログラム、及び記録媒体
JP2012208011A (ja) 2011-03-30 2012-10-25 Nippon Telegraph & Telephone West Corp 位置判定装置、位置判定方法及びコンピュータプログラム
WO2014010727A1 (ja) * 2012-07-13 2014-01-16 独立行政法人産業技術総合研究所 移動体の進行方向推定装置及び進行方向推定方法
WO2015108066A1 (ja) * 2014-01-15 2015-07-23 旭化成株式会社 情報処理装置、マップマッチング装置、情報処理方法、およびプログラム
WO2016111068A1 (ja) * 2015-01-05 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016218026A (ja) * 2015-05-26 2016-12-22 株式会社東芝 情報処理装置、測位方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3561452A4

Also Published As

Publication number Publication date
EP3561452A4 (en) 2020-01-01
US20190323842A1 (en) 2019-10-24
EP3561452A1 (en) 2019-10-30
JPWO2018116476A1 (ja) 2019-07-18

Similar Documents

Publication Publication Date Title
Tian et al. A multi-mode dead reckoning system for pedestrian tracking using smartphones
TWI490497B (zh) 慣性裝置、方法以及儲存媒體
US10234293B2 (en) Inertial device including an acceleration, method performed by the same, and program
Lan et al. Using smart-phones and floor plans for indoor location tracking-Withdrawn
Ahn et al. RescueMe: An indoor mobile augmented-reality evacuation system by personalized pedometry
US9863784B2 (en) Orientation estimation utilizing a plurality of adaptive filters
Lee et al. An experimental heuristic approach to multi-pose pedestrian dead reckoning without using magnetometers for indoor localization
JP2012215547A (ja) キャリブレーション方法、情報処理装置及びキャリブレーションプログラム
CN111024126B (zh) 一种行人导航定位中的自适应零速修正方法
Tian et al. An enhanced pedestrian dead reckoning approach for pedestrian tracking using smartphones
US20190323842A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium recording information processing program
JP5742794B2 (ja) 慣性航法装置及びプログラム
KR20150058704A (ko) 보행자의 이동 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 보행자 이동 방향 추정 장치.
WO2016198933A1 (en) Determining sensor orientation in indoor navigation
CN106461401B (zh) 信息处理设备、信息处理方法和计算机程序
US20180292216A1 (en) Method, device and system for determining an indoor position
US11898874B2 (en) Gyroscope bias estimation
Do-Xuan et al. Smartphone-based pedestrian dead reckoning and orientation as an indoor positioning system
Zhou et al. An improved dead reckoning algorithm for indoor positioning based on inertial sensors
JP5082001B2 (ja) 物体の進行方向検知方法、位置検知方法、進行方向検知装置、位置検知装置、移動動態認識方法及び移動動態認識装置
KR101523147B1 (ko) 실내 측위 장치 및 방법
JP2014219340A (ja) オフセット補正方法及びオフセット補正装置
JP2015224932A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2015017858A (ja) 参照値生成装置及び参照値生成方法
JP2022189953A (ja) 測位装置、測位方法及び測位プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16924293

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018557506

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016924293

Country of ref document: EP

Effective date: 20190722