WO2011083572A1 - 移動状態推定装置、方法およびプログラム - Google Patents
移動状態推定装置、方法およびプログラム Download PDFInfo
- Publication number
- WO2011083572A1 WO2011083572A1 PCT/JP2010/050086 JP2010050086W WO2011083572A1 WO 2011083572 A1 WO2011083572 A1 WO 2011083572A1 JP 2010050086 W JP2010050086 W JP 2010050086W WO 2011083572 A1 WO2011083572 A1 WO 2011083572A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- state
- terminal
- movement state
- movement
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M19/00—Current supply arrangements for telephone systems
- H04M19/02—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
- H04M19/04—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W52/00—Power management, e.g. TPC [Transmission Power Control], power saving or power classes
- H04W52/02—Power saving arrangements
- H04W52/0209—Power saving arrangements in terminal devices
- H04W52/0251—Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
- H04W52/0254—Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Definitions
- the present invention relates to a movement state estimation apparatus, method, and program for estimating a movement state of a user using an acceleration sensor.
- the present invention has been made to solve the above-described problem, and provides a moving state estimation device, method, and program that reduce estimation errors over a long period of time and in a wider range when estimating a moving state of a user. Objective.
- the movement state estimation apparatus includes a sensor unit that detects acceleration in the triaxial direction of a terminal as acceleration information, a storage unit that stores a movement state estimation model including a movement state of a user of the terminal, and the acceleration Based on the information and the movement state estimation model, a movement state estimation unit that estimates, for each movement state, a certainty level representing the possibility that the user is in the movement state, and the direction of the terminal from the acceleration information
- a terminal state estimation unit that calculates and estimates a terminal state indicating the state of the terminal from the orientation of the terminal and the acceleration information; and a combination of the movement state and the terminal state is a true movement state of the user and the terminal
- a reliability that indicates a possibility of matching with a combination of true terminal states for each moving state, and the certainty factor for each moving state according to the reliability Corrected, characterized by comprising a correction unit for obtaining a correction movement state is a moving state where confidence is corrected.
- estimation errors can be reduced over a long period of time and in a wider range when estimating the movement state of the user.
- the block diagram which shows the movement state estimation apparatus which concerns on 2nd Embodiment The figure which shows an example of the screen displayed on a display part. The figure which shows an example of the reliability calculation model updated after receiving an input signal.
- the movement state estimation apparatus 100 includes an acceleration sensor unit 101, a movement state estimation model storage unit 102, a movement state estimation unit 103, a terminal state estimation unit 104, a reliability calculation model storage unit 105, and a reliability calculation.
- Unit 106 and certainty factor correction unit 107 are included in The movement state estimation apparatus 100 according to the first embodiment.
- the acceleration sensor unit 101 measures the acceleration accompanying the movement of the user and obtains it as acceleration information.
- the acceleration sensor unit 101 needs to be able to measure acceleration with three or more directional axes.
- the measurement method is generally assumed to be a small sensor using a MEMS (micro electro mechanical systems) method, but is not limited to this, and any method that can measure acceleration may be used.
- the movement state estimation model storage unit 102 stores a movement state estimation model.
- a movement state estimation model a neural network that has been learned in advance using data that associates acceleration information acquired from the acceleration sensor unit 101 with the movement state of the user is stored.
- the moving state indicates a moving state when the user is stationary or when the user is moving.
- the moving state will be described later with reference to FIG.
- a neural network is used as the movement state estimation model.
- the present invention is not limited to this, and a table is created by associating the occurrence pattern of the acceleration data with the movement state, and the acquired acceleration data. And a method of performing pattern matching using this table and a method of performing classification using an HMM (Hidden Markov Model).
- HMM Hidden Markov Model
- the movement state estimation unit 103 receives acceleration information from the acceleration sensor unit 101 and a movement state estimation model from the movement state estimation model storage unit 102, and associates a certainty factor for each movement state with reference to the movement state estimation model. presume.
- the certainty factor represents the possibility of how likely the user is in the moving state. The operation of the movement state estimation unit 103 will be described later with reference to FIG.
- the terminal state estimation unit 104 receives acceleration information from the acceleration sensor unit 101, and estimates the terminal state using this acceleration information.
- the terminal state indicates the state of the terminal including a state where the user is holding the terminal or a state where the user is using the terminal. The operation of the terminal state estimation unit 104 will be described later with reference to FIG.
- the reliability calculation model storage unit 105 stores a table in which the reliability is set in advance for the combination of the movement state and the terminal state as the reliability calculation model.
- the reliability indicates the possibility that the combination of the movement state and the terminal state matches the combination of the user's true movement state and the terminal's true terminal state.
- true indicates what is actually happening. Specifically, when the user is walking on the road while viewing the map information of the terminal, the true movement state is “walking”, and the true terminal state is “terminal in operation”.
- the reliability calculation model will be described later with reference to FIG.
- the reliability calculation unit 106 receives the movement state from the movement state estimation unit 103 and the terminal state from the terminal state estimation unit 104, and refers to the reliability calculation model stored in the reliability calculation model storage unit 105 to move For each state, the reliability of the combination of the moving state and the terminal state is calculated.
- the format of the reliability calculation model is not limited to the table, and may be calculated using an arbitrary calculation formula.
- the certainty correction unit 107 receives all the movement states from the movement state estimation unit 103 and the reliability from the reliability calculation unit 106, and corrects the certainty for each movement state with reference to the reliability.
- the movement state with the highest certainty factor among the movement states with the certainty factor corrected is output to the external movement state utilization application as the user movement state at a certain time.
- not only the movement state with the highest certainty level, but also an arbitrary number may be output from the top of the movement state with the high certainty level, or the movement state with the certainty level equal to or higher than the threshold value may be output, Alternatively, all the movement states may be output.
- the moving state is not limited to these, and the moving state may be further defined.
- the movement state “stationary” indicates a state where the user is stationary due to waiting for a train at a station or the terminal is placed away from the user such as during a meal.
- walking and “ride” as the classification of the state in which the user is moving
- walking indicates a state in which the user is walking and moving, for example, a short time such as waiting for a signal within 1 minute. Including stoppage.
- “Ride” indicates a state in which a vehicle is on a vehicle such as a train or a bus, and includes a stop section such as a station or a bus stop.
- a stop section such as a station or a bus stop.
- the states of “hold in hand”, “in bag”, “terminal operation”, “hold state transition”, “impact”, and “determination impossible” are defined.
- other terminal states may be defined.
- the terminal state is estimated using the acceleration information from the acceleration sensor unit 101.
- the terminal state is not limited to the illuminance sensor and other types of sensors. May be estimated.
- the terminal state can be estimated such that the holding state transition has occurred.
- step S401 the acceleration sensor unit 101 acquires acceleration information accompanying the movement of the user.
- the interval at which the acceleration sensor unit 101 acquires acceleration information may be an interval that can detect sudden acceleration such as acceleration caused by an impact of dropping the terminal.
- step S402 the movement state estimation unit 103 estimates the movement state and the certainty factor corresponding to the movement state with reference to the acceleration information and the movement state estimation model.
- step S403 the terminal state estimation unit 104 estimates the terminal state as shown in FIG. 3 based on the acceleration information.
- step S404 the reliability calculation unit 106 calculates the reliability corresponding to the combination of the movement state and the terminal state for each movement state based on the reliability calculation model.
- step S405 the certainty factor correction unit 107 corrects the certainty factor for each movement state based on the reliability, and obtains a final movement state.
- step S406 it is determined whether or not there is an instruction to stop moving state estimation from the user or whether or not a certain period has elapsed when the moving state estimation is automatically stopped after a predetermined period. To do. When there is a stop instruction or when a certain period of time has elapsed, the movement state estimation process ends. If there is no stop instruction or if a certain period has not yet elapsed, the process returns to step S401, and the processing from step S401 to step S405 is repeated.
- step S501 acceleration information is received from the acceleration sensor unit 101.
- step S502 three-dimensional feature values F1 (t), F2 (t), and F3 (t) are calculated based on the acceleration information.
- a gravity vector is first estimated. Utilizing the fact that 1G of gravity is always applied to the acceleration sensor, the average vector of the XYZ axes in a certain time interval wG is estimated as the gravity vector.
- the gravity vector ⁇ G (t) at time t is expressed by the following equation using the triaxial acceleration vector ⁇ (t).
- the gravity vector ⁇ G (t) is subtracted from the triaxial acceleration vector ⁇ (t) to obtain a normalized acceleration vector.
- the normalized acceleration vector ⁇ n (t) at time t is defined by the following equation.
- the acceleration vector ⁇ n (t) and the gravity Cross product values with the vector ⁇ G (t) are calculated as feature quantities F1 (t), F2 (t), and F3 (t) at time t, respectively. That is, the feature amounts F1 (t), F2 (t), and F3 (t) are three-dimensional feature amounts.
- the reason for calculating the three-dimensional feature value is to remove the influence of the moving direction of the terminal.
- the feature quantities F1 (t), F2 (t), and F3 (t) at time t are expressed by the following equations.
- step S503 for each of the three-dimensional feature values F1 (t), F2 (t), and F3 (t) that do not depend on the orientation of the terminal calculated in step S502, within a certain time interval wG from time t.
- Three types of statistics are calculated: average value, maximum value, and variance value. That is, since three types of statistics are calculated for one feature amount, a total of nine types of feature amounts are calculated. This is called a 9-dimensional feature value.
- the reason for calculating the 9-dimensional feature value is that the normalized feature value is an instantaneous snapshot and is short with respect to the period of human behavior change. May not be detected.
- step S504 referring to the movement state estimation model stored in the movement state estimation model storage unit 102, the movement state is classified from the nine-dimensional feature amount, and all the movement states and the certainty factors corresponding to the movement states are obtained. Is calculated.
- 9-dimensional feature values are input to a neural network to classify moving states. Since the neural network has three types of movement states in the first embodiment, the reliability of the three types of movement states is all output in the range from 0 to 1. Here, the total sum of the three types of certainty at a certain time is indefinite within a range from 0 to 3.
- step S505 the movement state calculated in step S504 is corrected by the transition probability model.
- the reason for the correction is that when the movement state is simply estimated from the behavior of the acceleration sensor, for example, when a train or bus stops temporarily, or when it pauses while walking, it may be estimated as “still” Therefore, in order to prevent such estimation, a temporary stop is included in the “ride” as in the definition of the movement state in FIG. 2, and a temporary stop such as waiting for a signal is included in the “walk”. .
- step S506 a movement state having a certainty degree or more is output with respect to the certainty degree corresponding to the movement state corrected in step S505.
- the movement state and the certainty factor corresponding to each movement state may be output to the certainty factor correction unit 107 without providing a threshold value.
- an example of the certainty factor corresponding to the movement state calculated in step S505 will be briefly described with reference to FIG.
- the certainty is associated with “0.2”, “0.6”, and “0.7” for the three types of movement states “stationary”, “walking”, and “riding”, respectively.
- step S506 will be specifically described with reference to the example of FIG. 6.
- the certainty threshold is “0.5”
- three types of movement states “stationary”, “walking”, and “riding” are displayed.
- the movement states having a certainty level equal to or greater than the threshold are “walking” (confidence level 0.6) and “riding” (confidence level 0.7).
- the terminal state detection criteria used for the terminal state estimation process in the terminal state estimation unit 104 in step S403 are shown in FIG.
- the terminal state is estimated based on a detection criterion using acceleration information.
- the detection criterion when using acceleration information is “terminal The orientation (hereinafter also referred to as the terminal direction) is not vertical or horizontal, and no sudden acceleration more than a certain number of times has been detected within a certain time period.
- the terminal state can be estimated using the acceleration information.
- step S ⁇ b> 801 after receiving acceleration information from the acceleration sensor unit 101, the terminal state estimation unit 104 similarly performs normalization on the acceleration information performed by the movement state estimation unit 103.
- step S802 it is determined whether or not a large acceleration is suddenly detected within the window of the time interval wG. If a large acceleration is detected suddenly, it is estimated that the terminal state is “impacted”. If no sudden large acceleration is detected, the process proceeds to step S803.
- step S803 the terminal direction is estimated and the change in the terminal direction is calculated.
- a gravity vector ⁇ G (t) normalized based on the gravity direction performed by the movement state estimation unit 103 is used. Since the gravity vector ⁇ G (t) is a vector dependent on the terminal direction, the direction in which the terminal is facing can be estimated using this. Since the terminal direction calculated in this way is merely a snapshot at time t, a change in the terminal direction within the window of the time interval wG is also considered using the window of the time interval wG as in the case of acceleration.
- step S804 it is determined whether a large acceleration is detected in a short time and the terminal direction has changed.
- the “short time” in step S804 represents a longer time than step S802.
- step S802 it is assumed that a large acceleration is applied instantaneously, but in step S804, it is assumed that a large acceleration is detected in a time of about 1 second to 2 seconds.
- step S804 it is assumed that a large acceleration is detected in a time of about 1 second to 2 seconds.
- the terminal state is “holding state transition”.
- the terminal state is “holding state transition”
- the terminal is transitioned from a state where the terminal is held in a bag to a state held in hand.
- step S805 it is determined whether the terminal direction is near horizontal or near vertical. If the terminal direction is almost horizontal or vertical, the terminal state is estimated to be “in the bag”. This is because when a terminal is stored in a bag, the terminal is often stored in a predetermined position, so that the direction of the terminal is small and the direction is often fixed in the horizontal or vertical direction. . If the terminal direction is not horizontal or vertical, the process proceeds to step S806.
- step S806 it is determined whether the terminal direction is oblique. If the terminal direction is oblique, the process proceeds to step S807. If the terminal state is not oblique, it is estimated that the terminal state is “determination impossible”.
- step S807 it is determined whether or not a sudden acceleration more than a certain number of times has been detected within a certain time.
- the “within a certain time” in step S807 represents a time longer than the “short time” in step S804. If a certain number of sudden accelerations are detected within a certain period of time, it is considered that the user is performing some operation such as pressing a button on the terminal. It is estimated that. If no sudden acceleration more than a certain number of times is detected within a certain time, it is estimated that the terminal state is “held in hand”. Thus, the terminal state estimation process ends.
- the reliability calculation model stored in the reliability calculation model storage unit will be described in detail with reference to FIG.
- a reliability calculation model that outputs reliability in three stages of “high”, “medium”, and “low” for all combinations of the movement state and the terminal state is assumed.
- the reliability is set to “low”. The reason for this is that when the terminal is held in the hand, vibration due to the hand shake of the user is added, and this vibration is confused with the vibration applied to the terminal while riding, and the true movement state is not "riding” This is because the state estimation result may be estimated as “riding”.
- the reliability is set to “high” for the combination of the terminal state and the moving state whose terminal state is “in the bag”. This is because the terminal state “in the bag” is unlikely to be added with factors that affect the estimation accuracy such as camera shake, and the estimation is considered to be close to the true movement state.
- the terminal state is “undecidable”, correction that combines the moving state and the terminal state cannot be performed. Therefore, the reliability is “high” in the sense that the output from the moving state estimation unit 103 is unconditionally trusted. "Is set.
- the combination of the terminal state and the movement state which has many factors that affect the estimation accuracy of the movement state, such as camera shake and acceleration other than the movement of the user, is likely to cause the error in the movement state estimation.
- the estimation accuracy can be improved by considering that there are few errors in the estimation of the moving state in the combination with few factors affecting the movement.
- the certainty factors corresponding to the result of the movement state estimation estimated by the movement state estimation unit 103 are 0.2 for “still”, 0.6 for “walking”, and 0 for “ride”, respectively.
- the terminal state estimated by the terminal state estimation unit 104 is “held in hand”, referring to the table shown in FIG. 9, the combination of the terminal state “held in hand” and each movement state is The reliability of the state “still” is “medium”, the reliability of “walking” is “high”, and the reliability of “ride” is “low”.
- the certainty correction unit 107 for example, when the reliability is “high”, the certainty is output as it is, and when the reliability is “medium”, a value obtained by multiplying the certainty by 0.5 is output. When the reliability is “low”, the certainty factor is set to 0.1 and output in advance. Then, when the certainty correction unit 107 calculates using the reliability from the reliability calculation unit 106 and the movement state from the movement state estimation unit 103, as shown in FIG. It is possible to obtain values of 0.1 for "still”, 0.6 for "walking", and 0.1 for "ride”. Therefore, the “walking” with the highest certainty among the three moving states at a certain time is output as the finally estimated moving state. In addition, not only the movement state with the highest certainty level, but also an arbitrary number may be output from the top of the movement state with the high certainty level, or all the movement states may be output.
- the table shown in FIG. 9 is a heuristic (heuristic method) for avoiding, for example, when a mobile terminal is held in a hand and the movement state is erroneously estimated as “riding” due to camera shake. Therefore, the final moving state output result output through the processing by the certainty factor correction unit 107 has a reduced moving state estimation error.
- the reliability of the movement state estimation result is calculated for each combination of the terminal state and the movement state, and the reliability of the movement state is corrected using the reliability.
- the result of the movement state estimation after the certainty factor correction is output.
- there is a method of controlling the operation of the mobile phone terminal based on the movement state which reduces an error in the movement state estimation regarding the movement state “ride”. Accordingly, the manner mode of the cellular phone terminal can be automatically and accurately switched on and off.
- the certainty factor correction is performed by referring only to a predetermined reliability calculation model.
- the estimation of the movement state may not always match depending on the environment in which the user exists. Therefore, in the second embodiment, in addition to correcting the certainty factor with reference to the reliability calculation model, the user can further estimate the movement state more appropriately by correcting the certainty factor. .
- the movement state estimation apparatus according to the second embodiment will be described in detail with reference to FIG.
- the movement state estimation device 1100 according to the second embodiment further includes an input unit 1101 and a display unit 1102 in addition to the movement state estimation device 100 according to the first embodiment.
- the input unit 1101 receives an input from a user and generates an input signal indicating a user input instruction.
- the input unit 1101 is a touch panel or a button, for example, and can generate an input signal when the user touches the screen or presses the button. Note that the input unit 1101 is not limited to a touch panel and buttons, and may be any input instruction from a user such as a microphone.
- the display unit 1102 receives the movement state from the certainty correction unit 107 and displays it on the screen.
- the input unit 1101 is a touch panel, the input unit 1101 may be displayed on the display unit 1102.
- the reliability calculation unit 1103 performs substantially the same operation as the reliability calculation unit 106 according to the first embodiment, but receives an input signal from the input unit 1101 and updates the reliability calculation model based on the input signal. Is different.
- FIG. 12 shows a user interface displayed on a screen having a touch panel function incorporated in the terminal.
- a window 1201 indicating an area for receiving an input from the user
- a window 1202 indicating an area for displaying an output from the certainty correction unit 107 are included.
- the window 1202 displays “stationary” that is the estimation result of the movement state
- the window 1201 displays “movement state is incorrect”.
- the movement state estimation unit 103 outputs “stationary” as the movement state, and the terminal state estimation unit 104 outputs “hold in hand”. think of.
- the display unit 1102 “still” is displayed on the window 1202 as the movement state as an output from the certainty factor correction unit 107 as shown in FIG.
- the input unit 1101 receives an input instruction from the user, generates an input signal, and sends the generated input signal to the reliability calculation unit 1103.
- the reliability calculation unit 1103 corrects the reliability calculation model so as to lower the reliability of the combination of the moving state and the terminal state at the time when the input signal is received. .
- the reliability calculation unit 1103 corrects the reliability of this combination to be lowered from “medium” to “low”, and updates the reliability calculation model.
- the reliability calculation model is corrected only in the direction of decreasing the reliability.
- the reliability is corrected in the direction of increasing the reliability. May be. By doing so, it is possible to learn the correct movement state estimation result, and it is possible to estimate the movement state more suitable for the user's environment.
- the reliability calculation model is adapted only to a specific environment, and when the movement state is estimated in another environment, the reliability is corrected.
- the estimation accuracy of the moving state may be deteriorated from the previous reliability calculation model. Therefore, in order to prevent such deterioration in estimation accuracy, the reliability calculation model in a state where correction is not performed is stored in the reliability calculation model storage unit 105. Then, when a certain period of time has passed, or when the change in the environment is detected by another sensor, or when it is detected by a change in the service area of the base station, etc., the reliability updated with repeated corrections You may reset to the reliability calculation model in the state which has not corrected about a calculation model.
- the user can update the reliability calculation model as needed according to the situation, so that the movement state estimation more suitable for the actual movement state of the user can be performed.
- the movement state estimation apparatus according to the third embodiment will be described in detail with reference to FIG.
- the movement state estimation device 1400 according to the third embodiment further includes a positioning unit 1401 in addition to the movement state estimation device 100 according to the first embodiment.
- the positioning unit 1401 may be a positioning device such as a GPS or a geomagnetic sensor.
- GPS is used as the positioning unit 1401
- positioning information indicating the latitude and longitude indicating the current position of the user and the time when positioning is performed is output.
- the movement state estimation unit 1402 performs substantially the same operation as the movement state estimation unit 103 illustrated in FIG. 1, but is different from the movement state estimation unit 103 in that it receives positioning information from the positioning unit 1401.
- positioning information For example, when the user moves on a train, it is possible to read from the positioning information that the user has moved a long distance in a short time, so the estimation result of the moving state using this positioning information It is considered that the estimation accuracy when the movement state is “riding” can be improved by correcting.
- the moving state estimation device when GPS is used, power consumption increases, and particularly when the moving state estimation device according to the present embodiment is used in a portable terminal and used in an environment where the power source is limited, the time that the terminal can be used is short. May arise.
- positioning may be performed using the positioning unit 1401 together. Specifically, for example, a case is considered in which the difference between the moving state “stationary” with the highest certainty degree only by the movement state estimation by the acceleration sensor unit 101 and the moving state “riding” with the next highest certainty degree is smaller than a threshold value. .
- the GPS positioning information is used, even if the movement state is “still”, it is determined that the vehicle is moving within a certain time within a certain distance that cannot be moved in the movement state “still”. If it is possible, it can be estimated that the moving state is “riding”.
- the terminal can be used for a relatively long time even in an environment where the power source is limited. Furthermore, when a geomagnetic sensor is used instead of GPS, a change in the direction in which the terminal is facing can be detected.
- the instructions shown in the processing procedure shown in the above embodiment can be executed based on a program that is software.
- the general-purpose computer system stores this program in advance and reads this program, so that it is possible to obtain the same effect as that obtained by the moving state estimation device described above.
- the instructions described in the above-described embodiments are, as programs that can be executed by a computer, magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD). ⁇ R, DVD ⁇ RW, etc.), semiconductor memory, or a similar recording medium. As long as the recording medium is readable by the computer or the embedded system, the storage format may be any form.
- the computer reads the program from the recording medium and causes the CPU to execute instructions described in the program based on the program, the same operation as the movement state estimation apparatus of the above-described embodiment can be realized.
- the computer acquires or reads the program, it may be acquired or read through a network.
- the OS operating system
- database management software database management software
- MW middleware
- a part of each process for performing may be executed.
- the recording medium in the present invention is not limited to a medium independent of a computer or an embedded system, but also includes a recording medium in which a program transmitted via a LAN or the Internet is downloaded and stored or temporarily stored.
- the number of recording media is not limited to one, and when the processing in the present embodiment is executed from a plurality of media, it is included in the recording media in the present invention, and the configuration of the media may be any configuration.
- the computer or the embedded system in the present invention is for executing each process in the present embodiment based on a program stored in a recording medium, and includes a single device such as a personal computer or a microcomputer, Any configuration such as a system in which apparatuses are connected to a network may be used.
- the computer in the embodiment of the present invention is not limited to a personal computer, but includes an arithmetic processing device, a microcomputer, and the like included in an information processing device, and a device capable of realizing the functions in the embodiment of the present invention by a program, The device is a general term.
- the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
- various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
- constituent elements over different embodiments may be appropriately combined.
- the moving state estimation apparatus is effective for route search with a mobile phone, for example.
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Environmental & Geological Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
- Telephone Function (AREA)
Abstract
Description
また、GPSを受信することができない場所(例えば、地下鉄、地下街)では、ユーザの位置情報と地図情報とを正確に参照することができないため、移動状態の推定誤りが大きくなる。
第1の実施形態に係る移動状態推定装置100は、加速度センサ部101、移動状態推定モデル格納部102、移動状態推定部103、端末状態推定部104、信頼度算出モデル格納部105、信頼度算出部106、および確信度補正部107を含む。
なお、第1の実施形態では移動状態推定モデルとしてニューラルネットを用いるが、これに限定されず、他に加速度データの生起パターンと移動状態とを対応させてテーブルを作成し、取得された加速度データとこのテーブルとを用いてパターンマッチングを行う方式や、HMM(Hidden Markov Model:隠れマルコフモデル)を用いて分類を行う方式などでもよい。
なお、最も確信度の高い移動状態だけではなく、確信度の高い移動状態の上位から任意の数だけ出力してもよいし、確信度が閾値以上である移動状態を出力してもよいし、あるいは全ての移動状態を出力してもよい。
第1の実施形態では、移動状態として「静止」「歩行」「乗車」を定義する。なお、移動状態はこれらに限定されず、さらに移動状態を定義してもよい。
具体的には、移動状態が「静止」とは、駅での電車待ちなどでユーザが静止している、または食事中などでユーザから離れた場所に端末を置いている、という状態を示す。さらに、ユーザが移動している状態の分類として「歩行」「乗車」があり、「歩行」とは、ユーザが歩いて移動している状態を示し、例えば1分以内の信号待ちなど短時間の停止も含む。「乗車」とは、電車、バスなどの乗り物に乗っている、駅やバス停などの停車区間も含む、という状態を示す。なお、「歩行」における1分以内の停止や、「乗車」における停車区間における停車については、通常の移動状態推定では「静止」と推定されうるが、実際にはユーザの一連の行動として「歩行」または「乗車」に含める方が適切であると考えられるため、上述のように「歩行」と「乗車」とを定義する。
第1の実施形態に係る具体例としては「手に保持」「カバンの中」「端末操作中」「保持状態遷移」「衝撃が加わる」「判定不能」の状態を定義しているが、これに限定されず、他の端末状態を定義してもよい。
なお、第1の実施形態においては、加速度センサ部101からの加速度情報を用いて端末状態を推定することを想定しているが、照度センサをはじめ、他の種類のセンサを利用して端末状態を推定してもよい。例えば、照度センサを用いる場合は、照度の値と単位時間あたりの変化量とを利用して、照度の値が高い場合は手に保持、照度の値が低い場合はカバンの中に保持、照度の値が単調増加または単調減少している場合は保持状態の遷移が起きている、というように端末状態の推定を行うことができる。
ステップS501では、加速度センサ部101から加速度情報を受信する。
ステップS502では、加速度情報に基づいて3次元特徴量F1(t)、F2(t)、F3(t)を算出する。
3次元特徴量F1(t)、F2(t)、F3(t)を算出する際に、初めに重力ベクトルを推測する。加速度センサには常に1Gの重力がかかることを利用し、一定の時間間隔wGにおけるXYZ軸の平均ベクトルを重力ベクトルとして推定する。時刻tでの重力ベクトルνG(t)は3軸加速度ベクトルν(t)を用いて以下の式で表される。
9次元特徴量を算出する理由は、正規化された特徴量はある一瞬のスナップショットであり、人間の行動変化の周期に対して短いため、時間的な変動の傾向や一定時間内での変動を加味した特性を検知できないことがある。よって、移動状態の推定に有効な特徴量を得るために、現在時刻から一定の時間間隔wGのウィンドウ内での基本的な統計量を算出する必要があるからである。この9次元特徴量により、一定時間間隔wG内での端末の状態の特徴を表すことができる。
ステップS504では、移動状態推定モデル格納部102に格納される移動状態推定モデルを参照して、9次元特徴量から移動状態の分類を行い、全ての移動状態と各移動状態に対応する確信度とを算出する。第1の実施形態では、9次元特徴量をニューラルネットに入力して移動状態の分類を行う。ニューラルネットは、第1の実施形態では移動状態を3種類としているので、3種類の移動状態の確信度を0から1までの範囲で全て出力する。ここで、ある時刻における3種類の確信度の総和は0から3までの範囲で不定である。
補正する理由は、単純に加速度センサの挙動から移動状態を推定した場合、例えば電車やバスが一時的に停車した際や、歩行中に一時停止した際には「静止」と推定される可能性が高いので、このような推定を防止するために、図2の移動状態の定義にあるように一時停車を「乗車」に含め、信号待ちのような一時停止は「歩行」に含めるためである。
例えば、乗り物から降りた直後には通常は歩行が行われる場合が多いので、ニューラルネットの出力が「乗車」から「歩行」に変化した場合にはスムーズに変化するが、「乗車」から「静止」に移った場合にはすぐに「静止」には変化させず、数秒間の静止を確認してから遷移するような処理を行う。このようなある移動状態から他の移動状態への変化しやすさの度合いを、遷移確率モデルで表現して補正する。
ここで、ステップS505で算出された移動状態に対応する確信度との一例について図6を参照して簡単に説明する。3種類の移動状態「静止」「歩行」「乗車」に対して確信度が「0.2」「0.6」「0.7」とそれぞれ対応付けられている。
加速度情報を用いた検出基準に基づいて端末状態の推定を行う。具体的には、端末状態が「手に保持」である場合、定義としては「ユーザが手に保持している」という状態を示すが、加速度情報を用いた場合の検出基準としては「端末の向き(以下、端末方向ともいう)が垂直あるいは水平ではなく、一定時間内に、一定回数以上の突発的な加速度が検出されていない」とする。このように、端末状態推定処理では加速度情報を用いて端末状態を推定することができる。
ステップS801では、加速度センサ部101から加速度情報を受信したのち、端末状態推定部104が、移動状態推定部103で行う加速度情報に対する正規化を同様に行う。
短時間に大きな加速度を検出しかつ端末方向が変化した場合、端末状態が「保持状態遷移」であると推定する。端末状態が「保持状態遷移」にある状況としては、例えば、カバンの中に端末が保持されている状態から手に保持する状態に遷移する場合がある。この場合には比較的短い時間に大きな加速度がかかり、かつ端末方向も大きく変化するといった特徴的な加速度データの生起パターンとなる。短時間に大きな加速度を検出していない、または端末方向が変化していない場合は、ステップS805へ進む。
ここでは単純化した例として、移動状態と端末状態との全ての組み合わせに対して、「高」「中」「低」の3段階で信頼度を出力するような信頼度算出モデルを想定する。具体例としては、例えば端末状態「手に保持」と移動状態「乗車」との組み合わせについては、信頼度を「低」と設定する。この理由は、端末が手に保持されている場合、ユーザの手ブレによる振動が加わり、この振動が乗車中に端末に加わる振動と混同され、真の移動状態は「乗車」ではないのに移動状態推定の結果が「乗車」と推定されることがあるからである。また、端末状態が「カバンの中」である端末状態と移動状態との組み合わせについては、信頼度を「高」と設定する。この理由は、端末状態「カバンの中」については、手ブレなどの推定精度に影響を及ぼす要因が加わりにくく、推定が真の移動状態に近いと考えられるためである。
なお、端末状態が「判定不能」である場合は、移動状態と端末状態とを組み合わせた補正を行えないため、移動状態推定部103からの出力を無条件に信頼するという意味で信頼度「高」を設定する。
移動状態推定部103で推定された移動状態推定の結果に対応する確信度が、図2に示すようにそれぞれ、「静止」が0.2、「歩行」が0.6、「乗車」が0.7である場合を考える。このとき、端末状態推定部104により推定された端末状態が「手に保持」である場合、図9に示すテーブルを参照すると、端末状態「手に保持」と各移動状態との組み合わせは、移動状態「静止」の信頼度は「中」、「歩行」の信頼度は「高」、「乗車」の信頼度は「低」である。
ここで確信度補正部107において、例えば、信頼度「高」の場合には確信度はそのまま出力する、信頼度「中」の場合には確信度に0.5を掛けた値を出力する、信頼度「低」の場合には確信度を0.1として出力する、というように予め設定する。その上で、確信度補正部107において、信頼度算出部106からの信頼度と移動状態推定部103からの移動状態とを用いて計算すると、図10に示すように最終的な確信度として「静止」が0.1、「歩行」が0.6、「乗車」が0.1という値をそれぞれ得ることができる。
よって、ある時刻における3つの移動状態のうち最も確信度の高い「歩行」が、最終的に推定した移動状態として出力される。なお、最も確信度の高い移動状態だけではなく、確信度の高い移動状態の上位から任意の数だけ出力してもよいし、あるいは全ての移動状態を出力してもよい。
第1の実施形態では、予め定められた信頼度算出モデルのみを参照して確信度の補正を行っているが、ユーザの存在する環境によっては移動状態の推定が必ずしも一致しないことがある。よって、第2の実施形態では、信頼度算出モデルを参照して確信度を補正することに加え、さらにユーザが確信度の補正をかけることで、より適切な移動状態の推定を行うことができる。
第2の実施形態に係る移動状態推定装置1100は、第1の実施形態に係る移動状態推定装置100に加え、さらに入力部1101、および表示部1102を含む。
入力部1101は、ユーザからの入力を受け付け、ユーザの入力指示を示す入力信号を生成する。また、入力部1101は、例えばタッチパネルまたはボタンであり、ユーザが画面に触れることにより、またはボタンを押下することにより入力信号を生成することができる。なお、入力部1101は、タッチパネルやボタンに限らずマイクロホンなどユーザからの入力指示を受けることができればよい。
図12は、端末に組み込まれるタッチパネル機能を備えた画面上に表示されるユーザインタフェースである。画面上には、ユーザからの入力を受け付ける領域を示すウィンドウ1201と、確信度補正部107からの出力を表示する領域を示すウィンドウ1202とを含む。具体的には、ウィンドウ1202には移動状態の推定結果である「静止」が表示され、ウィンドウ1201には「移動状態が誤っている」が表示されている。
まず、ユーザが本実施形態に係る移動状態推定装置を取り出したときに、移動状態推定部103は移動状態として「静止」を出力し、端末状態推定部104は「手に保持」を出力した場合を考える。表示部1102には、最終的に確信度補正部107からの出力として、図12に示すように移動状態として「静止」がウィンドウ1202に表示される。
このときユーザは歩行しており、ユーザが実際の移動状態は「歩行」と表示されるほうが正しいと判断した場合、ユーザは画面上の「移動状態が誤っている」と表示されたウィンドウ1201を触れることで、その時点での移動状態推定が誤っているという入力指示を行うことができる。具体的には、入力部1101は、ユーザからの入力指示を受けて入力信号を生成し、生成された入力信号を信頼度算出部1103へ送る。
図13に示す信頼度算出モデルは、移動状態が「静止」と端末状態が「手に保持」との組み合わせの信頼度は、最初は「中」に設定されている。ここで、入力部1101から移動状態は誤りであるという指示の入力信号が入力された場合は、この時点での移動状態が「静止」と端末状態が「手に保持」との組み合わせの推定は、誤りである可能性が大きい。よって、信頼度算出部1103は、この組み合わせの信頼度を「中」から「低」に下げるように補正し、信頼度算出モデルを更新する。
加速度センサのみを用いてユーザの移動状態を推定した場合に、確信度が最も高い移動状態と、次に確信度が高い移動状態との差がほとんど無く、どちらの移動状態であるかを判定することが難しい場合がある。よって、第3の実施形態では、加速度センサに加え、加速度センサ以外のセンサを利用することで移動状態の推定精度をさらに高めることができる。
第3の実施形態に係る移動状態推定装置1400は、第1の実施形態に係る移動状態推定装置100に加え、さらに測位部1401を含む。
GPSを用いた測位を行うことで、例えばユーザが電車で移動する場合は、短時間で長距離を移動したことを測位情報から読み取ることができるので、この測位情報を用いて移動状態の推定結果を補正することで、移動状態が「乗車」である場合の推定精度を高めることができると考えられる。
さらに、GPSでなく地磁気センサを用いる場合は、端末の向いている方角の変化を検出することができる。
図15に示すように、「静止」の場合は、ある1つの方角を向き続けると考えられるため方角の変化はほとんど無い。「歩行」の場合は、交差点を曲がったり、施設に入ったりするなど比較的短時間に頻繁に方角の変化が起こる。「乗車」の場合は、電車である場合は線路のカーブなど緩やかな方角の変化が起こる。このように、各移動状態について端末の向いている方角の変わりやすさが異なることを利用し、移動状態の推定を行うことができる。
すなわち、加速度センサ部101からの入力のみでは、移動状態が「静止」であるか、または「乗車」であるかの推定を行うことが困難な場合がある。この際、加速度センサに加え地磁気センサを用いると、ほぼ方角の変化が起きていない場合は「静止」、ある程度の方角の変化が起きている場合は「乗車」と推定することができる。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (7)
- 端末の3軸方向の加速度を加速度情報として検出するセンサ部と、
前記端末の使用者の移動状態を含む移動状態推定モデルを格納する格納部と、
前記加速度情報と前記移動状態推定モデルとに基づいて、前記使用者が前記移動状態にある可能性を表す確信度を該移動状態ごとに推定する移動状態推定部と、
前記加速度情報から前記端末の向きを算出し、前記端末の向きおよび前記加速度情報から前記端末の状態を示す端末状態を推定する端末状態推定部と、
前記移動状態および前記端末状態の組み合わせが前記使用者の真の移動状態および前記端末の真の端末状態の組み合わせと一致する可能性を示す信頼度を、前記移動状態ごとに算出する算出部と、
前記信頼度に応じて前記移動状態ごとに前記確信度を補正し、確信度が補正された移動状態である補正移動状態を得る補正部と、を具備することを特徴とする移動状態推定装置。 - 前記端末状態は、前記端末を手に保持している第1状態、該端末をカバンの中に収納している第2状態、前記使用者が該端末を操作している第3状態、該端末に衝撃が加わる第4状態、および前記第1状態から前記第4状態までのいずれかの状態から他の状態へ遷移する間の状態を示す第5状態を含むことを特徴とする請求項1に記載の移動状態推定装置。
- 前記補正移動状態を表示する表示部と、
前記使用者による前記表示部に表示された補正移動状態が誤りであるかどうかの入力に応じて入力信号を生成する入力部と、をさらに具備し、
前記算出部は、前記表示部に表示された補正移動状態が誤りであることを前記入力信号が示す場合、表示された補正移動状態と前記端末状態との組み合わせの信頼度を下げるように設定することを特徴とする請求項1または請求項2に記載の移動状態推定装置。 - 前記移動状態推定部は、補正移動状態の確信度が第1閾値よりも低い場合、または確信度が最も高い補正移動状態と次に確信度が高い補正移動状態との確信度の差が第2閾値以内である場合の少なくともどちら一方である場合、GPSまたは地磁気センサを含む他のセンサを併用して移動状態を推定することを特徴とする請求項1に記載の移動状態推定装置。
- 前記算出部は、前記移動状態と前記端末状態との全ての組み合わせについて前記信頼度を算出することを特徴とする請求項1に記載の移動状態推定装置。
- 端末の3軸方向の加速度を加速度情報として検出し、
前記端末の使用者の移動状態を含む移動状態推定モデルを格納し、
前記加速度情報と前記移動状態推定モデルとに基づいて、前記使用者が前記移動状態にある可能性を表す確信度を該移動状態ごとに推定し、
前記加速度情報から前記端末の向きを算出し、前記端末の向きおよび前記加速度情報から前記端末の状態を示す端末状態を推定し、
前記移動状態および前記端末状態の組み合わせが前記使用者の真の移動状態および前記端末の真の端末状態の組み合わせと一致する可能性を示す信頼度を、前記移動状態ごとに算出し、
前記信頼度に応じて前記移動状態ごとに前記確信度を補正し、確信度が補正された移動状態である補正移動状態を得ることを特徴とする移動状態推定方法。 - コンピュータを、
端末の3軸方向の加速度を加速度情報として検出するセンサ手段と、
前記端末の使用者の移動状態を含む移動状態推定モデルを格納する格納手段と、
前記加速度情報と前記移動状態推定モデルとに基づいて、前記使用者が前記移動状態にある可能性を表す確信度を該移動状態ごとに推定する移動状態推定手段と、
前記加速度情報から前記端末の向きを算出し、前記端末の向きおよび前記加速度情報から前記端末の状態を示す端末状態を推定する端末状態推定手段と、
前記移動状態および前記端末状態の組み合わせが前記使用者の真の移動状態および前記端末の真の端末状態の組み合わせと一致する可能性を示す信頼度を、前記移動状態ごとに算出する算出手段と、
前記信頼度に応じて前記移動状態ごとに前記確信度を補正し、確信度が補正された移動状態である補正移動状態を得る補正手段として機能させるための移動状態推定プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2010/050086 WO2011083572A1 (ja) | 2010-01-07 | 2010-01-07 | 移動状態推定装置、方法およびプログラム |
JP2011548886A JP5225475B2 (ja) | 2010-01-07 | 2010-01-07 | 移動状態推定装置、方法およびプログラム |
CN201080038891.XA CN102484660B (zh) | 2010-01-07 | 2010-01-07 | 移动状态推测装置、方法及程序 |
US13/542,112 US20130179107A1 (en) | 2010-01-07 | 2012-07-05 | Moving stage estimation apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2010/050086 WO2011083572A1 (ja) | 2010-01-07 | 2010-01-07 | 移動状態推定装置、方法およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US13/542,112 Continuation US20130179107A1 (en) | 2010-01-07 | 2012-07-05 | Moving stage estimation apparatus, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011083572A1 true WO2011083572A1 (ja) | 2011-07-14 |
Family
ID=44305316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/050086 WO2011083572A1 (ja) | 2010-01-07 | 2010-01-07 | 移動状態推定装置、方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130179107A1 (ja) |
JP (1) | JP5225475B2 (ja) |
CN (1) | CN102484660B (ja) |
WO (1) | WO2011083572A1 (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012063208A (ja) * | 2010-09-15 | 2012-03-29 | Fujitsu Ltd | 状態判定装置および状態判定プログラム |
WO2013040493A1 (en) * | 2011-09-16 | 2013-03-21 | Qualcomm Incorporated | Detecting that a mobile device is riding with a vehicle |
JP2013217798A (ja) * | 2012-04-10 | 2013-10-24 | Lapis Semiconductor Co Ltd | 半導体装置および電子端末 |
JP2013243584A (ja) * | 2012-05-22 | 2013-12-05 | Kyocera Corp | 電子機器 |
WO2014069048A1 (ja) * | 2012-11-02 | 2014-05-08 | 富士ゼロックス株式会社 | 状態推定プログラム及び状態推定装置 |
WO2014129169A1 (ja) * | 2013-02-22 | 2014-08-28 | 旭化成株式会社 | 保持状態変化検知装置、保持状態変化検知方法、およびプログラム |
WO2014129166A1 (ja) * | 2013-02-22 | 2014-08-28 | 旭化成株式会社 | 保持状態判定装置およびプログラム |
JP2014171041A (ja) * | 2013-03-01 | 2014-09-18 | Tokyo Univ Of Agriculture & Technology | 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体 |
JP2014203395A (ja) * | 2013-04-09 | 2014-10-27 | 日本放送協会 | 携帯端末、制御方法及びプログラム |
JP2015073188A (ja) * | 2013-10-02 | 2015-04-16 | 富士通株式会社 | 携帯電子機器、状態判定プログラム及び状態判定方法 |
JP2015094727A (ja) * | 2013-11-13 | 2015-05-18 | 富士通株式会社 | 測定装置、情報処理装置、測定プログラム、情報処理プログラム、測定方法および情報処理方法 |
CN105324635A (zh) * | 2013-05-15 | 2016-02-10 | 旭化成株式会社 | 偏移估计装置、偏移估计方法以及程序 |
JP2016511473A (ja) * | 2013-03-01 | 2016-04-14 | クアルコム,インコーポレイテッド | パワー効率のよいコンテキストアウェア推定のための適応型センササンプリング |
JP2016099110A (ja) * | 2014-11-18 | 2016-05-30 | 日本電信電話株式会社 | 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム |
JP2016153797A (ja) * | 2016-04-01 | 2016-08-25 | ラピスセミコンダクタ株式会社 | 半導体装置および電子端末 |
JP2017041246A (ja) * | 2015-08-18 | 2017-02-23 | モトローラ モビリティ エルエルシーMotorola Mobility Llc | 電子デバイスによるハンドバッグ内検出のための方法及び機器 |
JP2017142264A (ja) * | 2017-04-21 | 2017-08-17 | ラピスセミコンダクタ株式会社 | 半導体装置および電子端末 |
JP2017174049A (ja) * | 2016-03-23 | 2017-09-28 | レノボ・シンガポール・プライベート・リミテッド | 携帯式電子機器の動作状態を変更する方法および携帯式電子機器 |
JP2018508744A (ja) * | 2015-01-07 | 2018-03-29 | クアルコム,インコーポレイテッド | スマートフォンの運動分類器 |
JP2018124126A (ja) * | 2017-01-31 | 2018-08-09 | 株式会社アイエスピー | 移動体の状態を検知するための方法、プログラム、及び装置 |
US20230062785A1 (en) * | 2021-08-27 | 2023-03-02 | Kabushiki Kaisha Toshiba | Estimation apparatus, estimation method, and computer program product |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6094026B2 (ja) * | 2011-03-02 | 2017-03-15 | セイコーエプソン株式会社 | 姿勢判定方法、位置算出方法及び姿勢判定装置 |
EP2854383B1 (en) * | 2013-09-27 | 2016-11-30 | Alcatel Lucent | Method And Devices For Attention Alert Actuation |
US9159294B2 (en) | 2014-01-31 | 2015-10-13 | Google Inc. | Buttonless display activation |
US9037199B1 (en) * | 2014-02-13 | 2015-05-19 | Google Inc. | Detecting transitions between physical activity |
TWI502167B (zh) * | 2014-02-25 | 2015-10-01 | Acer Inc | 計步方法及其電子裝置 |
US20150316577A1 (en) * | 2014-05-02 | 2015-11-05 | Qualcomm Incorporated | Motion direction determination and application |
JP2016048830A (ja) * | 2014-08-27 | 2016-04-07 | 京セラ株式会社 | 携帯電子機器、制御方法及び制御プログラム |
CN105824588A (zh) * | 2015-01-06 | 2016-08-03 | 阿里巴巴集团控股有限公司 | 提示消息的显示方法及装置 |
US9432944B1 (en) * | 2015-06-13 | 2016-08-30 | KeepTrax, Inc. | Determining whether a mobile device user is substantially stationary within a geo-fence |
EP3276379A1 (en) * | 2016-07-27 | 2018-01-31 | Telefonica Digital España, S.L.U. | Method and device for activating and deactivating geopositioning devices in moving vehicles |
KR102598270B1 (ko) | 2016-08-01 | 2023-11-06 | 삼성전자주식회사 | 차량 탑승 인식 방법 및 이를 구현한 전자 장치 |
JP2018037819A (ja) * | 2016-08-31 | 2018-03-08 | 京セラ株式会社 | 電子機器、制御方法及びプログラム |
EP3522566B1 (en) * | 2016-09-27 | 2023-09-27 | Sony Group Corporation | Information processing device and information processing method |
US20180115866A1 (en) * | 2016-10-21 | 2018-04-26 | Microsoft Technology Licensing, Llc | Low power geographical visit detection |
JP2018093378A (ja) * | 2016-12-05 | 2018-06-14 | 株式会社Screenホールディングス | 歩行判定方法および歩行判定プログラム |
CN114802356B (zh) * | 2022-03-02 | 2024-04-19 | 深圳市康时源科技有限公司 | 一种地铁防撞方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165491A (ja) * | 2003-12-01 | 2005-06-23 | Hitachi Ltd | 通信機能を備えた情報閲覧装置 |
WO2008111493A1 (ja) * | 2007-03-13 | 2008-09-18 | Nec Corporation | 携帯端末及びその機能制御方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0816986B1 (en) * | 1996-07-03 | 2006-09-06 | Hitachi, Ltd. | System for recognizing motions |
JP2002048589A (ja) * | 2000-08-03 | 2002-02-15 | Tohoku Denshi Sangyo Kk | 移動体の移動経路推定装置 |
JP4507992B2 (ja) * | 2005-06-09 | 2010-07-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
KR100735555B1 (ko) * | 2005-09-15 | 2007-07-04 | 삼성전자주식회사 | 동작에 따른 기능을 수행하는 장치 및 방법 |
JP5035019B2 (ja) * | 2008-02-27 | 2012-09-26 | 住友電気工業株式会社 | 移動方法判定装置、コンピュータプログラム及び移動手段判定方法 |
CN101620237B (zh) * | 2009-08-10 | 2014-09-10 | 上海闻泰电子科技有限公司 | 一种加速度传感器倾斜动作的判断方法 |
-
2010
- 2010-01-07 JP JP2011548886A patent/JP5225475B2/ja active Active
- 2010-01-07 CN CN201080038891.XA patent/CN102484660B/zh not_active Expired - Fee Related
- 2010-01-07 WO PCT/JP2010/050086 patent/WO2011083572A1/ja active Application Filing
-
2012
- 2012-07-05 US US13/542,112 patent/US20130179107A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165491A (ja) * | 2003-12-01 | 2005-06-23 | Hitachi Ltd | 通信機能を備えた情報閲覧装置 |
WO2008111493A1 (ja) * | 2007-03-13 | 2008-09-18 | Nec Corporation | 携帯端末及びその機能制御方法 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012063208A (ja) * | 2010-09-15 | 2012-03-29 | Fujitsu Ltd | 状態判定装置および状態判定プログラム |
US10539586B2 (en) | 2011-09-16 | 2020-01-21 | Qualcomm Incorporated | Techniques for determination of a motion state of a mobile device |
WO2013040493A1 (en) * | 2011-09-16 | 2013-03-21 | Qualcomm Incorporated | Detecting that a mobile device is riding with a vehicle |
KR101614148B1 (ko) * | 2011-09-16 | 2016-04-20 | 퀄컴 인코포레이티드 | 이동 디바이스가 차량에 탑승하고 있는 것의 검출 |
CN103843314A (zh) * | 2011-09-16 | 2014-06-04 | 高通股份有限公司 | 检测移动装置正与交通工具一起乘行 |
JP2014531816A (ja) * | 2011-09-16 | 2014-11-27 | クアルコム,インコーポレイテッド | モバイルデバイスが車両に乗っていることの検出 |
JP2013217798A (ja) * | 2012-04-10 | 2013-10-24 | Lapis Semiconductor Co Ltd | 半導体装置および電子端末 |
JP2013243584A (ja) * | 2012-05-22 | 2013-12-05 | Kyocera Corp | 電子機器 |
WO2014069048A1 (ja) * | 2012-11-02 | 2014-05-08 | 富士ゼロックス株式会社 | 状態推定プログラム及び状態推定装置 |
JP2014093634A (ja) * | 2012-11-02 | 2014-05-19 | Fuji Xerox Co Ltd | 状態推定プログラム及び状態推定装置 |
AU2013340062B2 (en) * | 2012-11-02 | 2017-03-16 | Fujifilm Business Innovation Corp. | State estimation program and state estimation apparatus |
WO2014129166A1 (ja) * | 2013-02-22 | 2014-08-28 | 旭化成株式会社 | 保持状態判定装置およびプログラム |
US10126460B2 (en) | 2013-02-22 | 2018-11-13 | Asahi Kasei Kabushiki Kaisha | Mobile device hold state change detection apparatus |
WO2014129169A1 (ja) * | 2013-02-22 | 2014-08-28 | 旭化成株式会社 | 保持状態変化検知装置、保持状態変化検知方法、およびプログラム |
CN105074386A (zh) * | 2013-02-22 | 2015-11-18 | 旭化成株式会社 | 保持状态变化探测装置、保持状态变化探测方法以及程序 |
EP2960627A4 (en) * | 2013-02-22 | 2017-03-15 | Asahi Kasei Kabushiki Kaisha | Carry-state change detection device, carry-state change detection method, and program |
JPWO2014129166A1 (ja) * | 2013-02-22 | 2017-02-02 | 旭化成株式会社 | 保持状態判定装置およびプログラム |
US9462419B2 (en) | 2013-02-22 | 2016-10-04 | Asahi Kasei Kabushiki Kaisha | Hold state judging apparatus and computer readable medium |
JP6073455B2 (ja) * | 2013-02-22 | 2017-02-01 | 旭化成株式会社 | 保持状態変化検知装置、保持状態変化検知方法、およびプログラム |
JP2017107596A (ja) * | 2013-03-01 | 2017-06-15 | クアルコム,インコーポレイテッド | パワー効率のよいコンテキストアウェア推定のための適応型センササンプリング |
JP2016511473A (ja) * | 2013-03-01 | 2016-04-14 | クアルコム,インコーポレイテッド | パワー効率のよいコンテキストアウェア推定のための適応型センササンプリング |
JP2014171041A (ja) * | 2013-03-01 | 2014-09-18 | Tokyo Univ Of Agriculture & Technology | 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体 |
JP2014203395A (ja) * | 2013-04-09 | 2014-10-27 | 日本放送協会 | 携帯端末、制御方法及びプログラム |
EP2998703A4 (en) * | 2013-05-15 | 2017-01-18 | Asahi Kasei Kabushiki Kaisha | Offset estimation device, offset estimation method, and program |
CN105324635A (zh) * | 2013-05-15 | 2016-02-10 | 旭化成株式会社 | 偏移估计装置、偏移估计方法以及程序 |
CN105324635B (zh) * | 2013-05-15 | 2019-01-11 | 旭化成株式会社 | 偏移估计装置、偏移估计方法以及程序 |
JP2015073188A (ja) * | 2013-10-02 | 2015-04-16 | 富士通株式会社 | 携帯電子機器、状態判定プログラム及び状態判定方法 |
JP2015094727A (ja) * | 2013-11-13 | 2015-05-18 | 富士通株式会社 | 測定装置、情報処理装置、測定プログラム、情報処理プログラム、測定方法および情報処理方法 |
JP2016099110A (ja) * | 2014-11-18 | 2016-05-30 | 日本電信電話株式会社 | 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム |
US11029328B2 (en) | 2015-01-07 | 2021-06-08 | Qualcomm Incorporated | Smartphone motion classifier |
JP2018508744A (ja) * | 2015-01-07 | 2018-03-29 | クアルコム,インコーポレイテッド | スマートフォンの運動分類器 |
JP2017041246A (ja) * | 2015-08-18 | 2017-02-23 | モトローラ モビリティ エルエルシーMotorola Mobility Llc | 電子デバイスによるハンドバッグ内検出のための方法及び機器 |
JP2017174049A (ja) * | 2016-03-23 | 2017-09-28 | レノボ・シンガポール・プライベート・リミテッド | 携帯式電子機器の動作状態を変更する方法および携帯式電子機器 |
JP2016153797A (ja) * | 2016-04-01 | 2016-08-25 | ラピスセミコンダクタ株式会社 | 半導体装置および電子端末 |
JP2018124126A (ja) * | 2017-01-31 | 2018-08-09 | 株式会社アイエスピー | 移動体の状態を検知するための方法、プログラム、及び装置 |
JP2017142264A (ja) * | 2017-04-21 | 2017-08-17 | ラピスセミコンダクタ株式会社 | 半導体装置および電子端末 |
US20230062785A1 (en) * | 2021-08-27 | 2023-03-02 | Kabushiki Kaisha Toshiba | Estimation apparatus, estimation method, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
CN102484660A (zh) | 2012-05-30 |
CN102484660B (zh) | 2014-06-11 |
US20130179107A1 (en) | 2013-07-11 |
JPWO2011083572A1 (ja) | 2013-05-13 |
JP5225475B2 (ja) | 2013-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5225475B2 (ja) | 移動状態推定装置、方法およびプログラム | |
US9448250B2 (en) | Detecting mount angle of mobile device in vehicle using motion sensors | |
US9785254B2 (en) | System and method for improving orientation data | |
US9316513B2 (en) | System and method for calibrating sensors for different operating environments | |
US8351958B2 (en) | Mobile device and method for identifying location thereof | |
US20160273920A1 (en) | Direction estimating device, direction estimating system, and method of estimating direction | |
US20160187134A1 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2011088245A1 (en) | Motion state detection for mobile device | |
JP2013527915A (ja) | モバイル機器でのセンサ測定値の較正 | |
US8750897B2 (en) | Methods and apparatuses for use in determining a motion state of a mobile device | |
JP5625557B2 (ja) | 停止判定方法 | |
WO2013179852A1 (ja) | 車両位置検出装置、及びプログラム | |
JP2011149860A (ja) | 携帯端末および位置測位方法 | |
JP6190423B2 (ja) | 推定装置、移動方向推定方法及び移動方向推定プログラム | |
JP6657753B2 (ja) | 加速度補正プログラム、路面状態評価プログラム、加速度補正方法および加速度補正装置 | |
US9664539B2 (en) | Time stamping a sensor sample | |
US20170195853A1 (en) | Mobile device, method for controlling mobile device, and non-transitory storage medium | |
JP2016138816A (ja) | ナビゲーション装置及びコンピュータプログラム | |
JP6407368B2 (ja) | 推定装置、移動方向推定方法及び移動方向推定プログラム | |
EP2738963B1 (en) | Time stamping a sensor sample | |
US20200017132A1 (en) | Information processing apparatus, information processing method, and program | |
US10917710B2 (en) | System and earphone related to transformation of sensed data | |
JP6344165B2 (ja) | 電子機器および角速度情報出力プログラム | |
JP2016057196A (ja) | 電子機器および角速度検出値補正プログラム | |
JP6575133B2 (ja) | 電子機器、位置表示方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080038891.X Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10842089 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011548886 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10842089 Country of ref document: EP Kind code of ref document: A1 |