WO2004091400A1 - 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法 - Google Patents

加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法 Download PDF

Info

Publication number
WO2004091400A1
WO2004091400A1 PCT/JP2004/005117 JP2004005117W WO2004091400A1 WO 2004091400 A1 WO2004091400 A1 WO 2004091400A1 JP 2004005117 W JP2004005117 W JP 2004005117W WO 2004091400 A1 WO2004091400 A1 WO 2004091400A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
acceleration
parameter
acceleration sensor
correcting
Prior art date
Application number
PCT/JP2004/005117
Other languages
English (en)
French (fr)
Inventor
Hiroshi Yamamoto
Shigeyuki Inoue
Shinji Tanaka
Takako Shiraishi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/542,016 priority Critical patent/US20060112754A1/en
Priority to JP2005505377A priority patent/JPWO2004091400A1/ja
Publication of WO2004091400A1 publication Critical patent/WO2004091400A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/02Exercising apparatus specially adapted for particular parts of the body for the abdomen, the spinal column or the torso muscles related to shoulders (e.g. chest muscles)
    • A63B23/0244Exercising apparatus specially adapted for particular parts of the body for the abdomen, the spinal column or the torso muscles related to shoulders (e.g. chest muscles) with signalling or indicating means, e.g. of incorrect posture, for deep-breathing exercises
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Definitions

  • the present invention relates to a device having an acceleration sensor for detecting human behavior and posture (body state), and more particularly to a technique for correcting a parameter representing each acceleration direction of the acceleration sensor.
  • pedometers and mercury As a method of detecting movement and posture, pedometers and mercury A method of discriminating between a stationary state and an operating state using a switch or the like has been proposed. Recently, various high-performance acceleration sensors and gyro sensors (angular acceleration sensors) have been developed, and devices and methods for detecting a walking state, a body inclination, a walking direction, and the like using these have been proposed (for example, Japanese Patent Application Laid-Open No. 2002-111954).
  • the present invention has been made in view of the above problems, and represents each direction related to the acceleration sensor for accurately determining the behavior and posture of a moving object equipped with a specific device including an acceleration sensor. It is an object of the present invention to provide an acceleration sensor axis information correction device that corrects parameters. Disclosure of the invention
  • an acceleration sensor axis information correction device includes an acceleration sensor axis information correction device that corrects parameters representing each acceleration direction in an acceleration sensor built in a specific device mounted on a moving object.
  • An apparatus comprising: correction-related information obtaining means for obtaining correction-related information related to correction of the parameter; and correction means for correcting the parameter based on the obtained correction-related information.
  • the acceleration sensor axis information correction device includes a switch reception unit that receives a press from a user on a plurality of switches indicating a mounting location of the specific device, and the correction related information acquisition unit includes: , Receiving It may be configured such that the attached press is acquired as the correction related information.
  • the parameter representing each acceleration direction in the acceleration sensor is corrected based on the pressed switch, so that the user can correct the above parameter by a simple operation.
  • an acceleration sensor axis information correction device includes a collection unit that collects acceleration data for a predetermined action of the moving object, based on the collected acceleration data. And a direction determining means for determining the direction of each of the accelerations, wherein the correction-related information obtaining means may be configured to obtain the determined direction of the acceleration as the correction-related information.
  • the present device specifies the characteristics of the change in the acceleration data collected for the predetermined action, and corrects the parameters based on the specified characteristics. The burden on the case is reduced.
  • the acceleration sensor axis information correction device further comprises a correction for determining a timing to start collecting the acceleration data based on a predetermined trigger.
  • An inducing means may be provided, and the data collecting means may be configured to collect the acceleration data after the timing determined by the correction inducing means.
  • the present apparatus receives a trigger (timing) for starting the correction, and starts collecting the acceleration data after the received trigger. Therefore, unnecessary collection of the acceleration data is eliminated, and the efficiency is improved. Acceleration data can be collected specifically.
  • the correction inducing means of the axis information correcting device may be configured to receive a sound and use the received sound as the trigger.
  • the device allows the wearer to instruct the start of correction by voice, so that even if the wear position is difficult to operate by hand, Operation can be performed, and correct correction can be performed by avoiding erroneous operation at the time of correction by hand.
  • correction inducing means of the acceleration sensor axis information correcting device may be configured to detect that the specific device is attached to the moving body, and use the detection as the trigger. .
  • the device automatically detects that the wearer has removed or put on the device, automatically determines whether or not correction is necessary, and urges the wearer to perform the correction. Or the correction can be started automatically.
  • the direction determining means of the acceleration sensor axis information correction device associates, with respect to walking of a person, information indicating a direction of an acceleration and a characteristic of a change in the acceleration.
  • a comparison determining unit that determines the direction of each acceleration by comparing the two.
  • the present device provides voice guidance for a predetermined action to be performed by the wearer, so that the wearer need only act in accordance with the guidance, and complicated user operations during correction are required.
  • the action or posture informing device provides a parameter indicating each acceleration direction of the built-in acceleration sensor.
  • a motion or posture detecting device for detecting a behavior or a posture of a moving object, the device having a function of correcting a parameter, wherein a correction related information acquiring unit for acquiring correction related information related to the correction of the parameter; and the acquired correction.
  • the present invention is realized as an acceleration sensor axis information correction method using the characteristic constituent means of the acceleration sensor axis information correction device as steps, or all of those steps are performed. It can also be implemented as a program that includes The program can be stored not only in the ROM or the like provided in the acceleration sensor axis information correction device, but also can be distributed via a recording medium such as a CD-ROM or a transmission medium such as a communication network.
  • an action or posture detection device having the function of the acceleration sensor axis information correction device may be used as a behavior or posture detection device for detecting the behavior or posture of a moving object, or an action or posture detection using the characteristic constituent means of the device as a step. It can also be implemented as a method.
  • the acceleration sensor axis information correction device of the present invention even when the mounting position changes, the parameter can be appropriately corrected in accordance with the change, and the action or posture can be changed. Malfunctions during measurement can be avoided.
  • FIG. 1 is a diagram showing the appearance of the behavior or posture detection device according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of an acceleration sensor incorporated in the behavior or posture detection device.
  • FIG. 3 is a block diagram showing a functional configuration of the behavior or posture detection device according to the first embodiment.
  • FIG. 4 is a diagram showing a state in which the wearer wears the behavior or posture detecting device.
  • Figure 5 (a) is a diagram showing how the parameters (meaning of each axis) change when the wearer wears the behavior or posture detection device on the left hip, right hip, back and abdomen. is there.
  • FIG. 5 (b) is a diagram showing an example of the meaning of each parameter when the wearer wears the behavior or posture detection device on the left hip, right hip, back and abdomen.
  • FIG. 6 is a block diagram showing a functional configuration of the behavior or posture detection device according to the second embodiment.
  • FIG. 7 is a flowchart showing a flow of the operation of the action or posture detection device according to the second embodiment.
  • FIG. 8 is a block diagram showing a functional configuration of the behavior or posture detection device according to the third embodiment.
  • FIG. 9 is a flowchart showing a flow of the operation of the behavior or posture detection device according to the third embodiment.
  • FIG. 10 is a block diagram showing a functional configuration of the behavior or posture detection device according to the fourth embodiment.
  • FIG. 11 shows the behavior of the action or posture detection device in the fourth embodiment. This is a flow chart showing the flow.
  • FIG. 12 is a block diagram showing a functional configuration of the behavior or posture detection device according to the fifth embodiment.
  • FIG. 13 is a flowchart showing a flow of operation of the behavior or posture detection device according to the fifth embodiment.
  • FIG. 14 is a block diagram showing a functional configuration of the behavior or posture detection device according to the sixth embodiment.
  • FIG. 15 is a diagram showing an example of a histogram distribution of acceleration data at each sensor when the wearer is walking.
  • FIG. 16 is a flowchart showing a flow of operation of the behavior or posture detection device according to the sixth embodiment.
  • FIG. 1 is a diagram showing the appearance of the behavior or posture detecting apparatus 100 in the present embodiment.
  • the behavior or posture detection device 100 is a device for specifying the behavior or posture of a person wearing the device (hereinafter referred to as a “subject”) by using a built-in acceleration sensor.
  • This device has a business card size slightly thin rectangular parallelepiped shape (for example, 5 cm (length) x 8 cm (width) x 1.5 cm (thickness)). It is equipped with a liquid crystal panel 102, a compensation trigger button 103, a speaker 104 and a microphone 105.
  • action or posture detection device 1 The reference numeral 0 denotes a fixing band 106 to be attached to the human body (for example, fixed through a belt).
  • buttons 101 are buttons pressed by a wearer or a user (caregiver) to determine the position where the device 100 is worn. For example, when the device 100 is worn on the left hip of the wearer, the “left” button is pressed. Similarly, the “right” button was worn on the wearer's right waist, and the “front” button was worn on the wearer's lower back when worn on the wearer's abdomen. In this case, the “Back” button is pressed respectively.
  • the liquid crystal panel 102 displays an operation mode of the apparatus and an error message.
  • the correction trigger button 103 is a button pressed by a wearer or the like when starting parameter correction in the present apparatus 100.
  • parameter correction refers to the relationship between the direction of each acceleration sensor built into the device and the reference direction of the wearer (for example, the front direction is the reference direction of the wearer). To clarify the relationship. Therefore, it is necessary to perform the above correction every time the mounting position of the device is changed.
  • the speaker 104 outputs a sound for giving a predetermined instruction to the user at the time of correcting the above parameters.
  • the microphone 105 accepts an instruction from the user by voice when correcting the above parameters.
  • FIG. 2 is a diagram showing a configuration example of an acceleration sensor built in the action or posture detection device 100 in FIG.
  • the present acceleration sensor can detect three-axis acceleration by using two two-axis acceleration sensors. More specifically, referring to FIG. 2, the circuit board 22 is fixed at a position perpendicular to the circuit board 21.
  • the IC type acceleration sensor 23 or 24 with the same specifications is placed on each board.
  • the acceleration sensor 23 detects acceleration in the X axis and the Y axis
  • the acceleration sensor 24 detects acceleration in the Z axis. Therefore, as shown in FIG. 2, in the acceleration sensor 24, the output of one axis (the axis shown by the broken line) is not used.
  • FIG. 3 is a block diagram showing a functional configuration of the action or posture detection device 100 according to the present embodiment.
  • the behavior or posture detection device 100 includes an acceleration sensing unit 11, an evaluation unit 12, a mounting position selection unit 13, a parameter correction unit 14, and a parameter storage unit 15. ing.
  • the acceleration sensing unit 11 collects data representing the acceleration in the left-right direction, the front-rear direction, and the up-down direction in the behavior and posture of the wearer, and outputs the data to the evaluation unit 12.
  • the evaluation unit 12 determines the current behavior and posture of the wearer from the pattern in which the acceleration in each direction changes. For example, in the case where "a pattern having a large amplitude of a certain period for a certain period of time or more appears in the acceleration data in the vertical direction" is determined to be "walking", the determination is "instant without periodicity.” If a large change in amplitude appears in the acceleration data in the vertical and longitudinal directions, and then there is no significant change in the acceleration data in each direction for a certain period of time. " Judge that it was hot. Furthermore, it is possible to determine a change in the posture of the wearer (for example, a forward lean after sitting) based on a change in acceleration in each direction.
  • the mounting position selection section 13 is a section corresponding to the buttons 101 in FIG. 1 and includes a plurality of button switches associated with a plurality of mounting position candidates, and allows the wearer or the like to set the mounting position. After determining the position, the depression of the potentiometer corresponding to the position is accepted to determine the mounting position, and the information indicating the determined mounting position is transmitted to the parameter correction unit 14.
  • the parameter correction unit 14 Upon receiving the information indicating the mounting position from the mounting position selecting unit 13, the parameter correction unit 14 reads from the parameter storage unit 15 the parameters used to determine the action or posture corresponding to the mounting position, Output to the evaluation unit 1 and 2.
  • the parameter storage unit 15 is a storage device including a RAM and the like.
  • the parameter storage unit 15 stores parameters and information about the parameters used when the behavior and posture of the plurality of mounting position candidates are determined.
  • the present apparatus 100 includes a control unit (for example, a CPU having a ROM, a RAM, and the like) that controls processing timing and the like in each unit.
  • a control unit for example, a CPU having a ROM, a RAM, and the like
  • FIG. 4 is a diagram showing a state in which the wearer wears the present apparatus 100.
  • the X-axis of the acceleration sensor in Fig. 2 represents the left-right direction
  • the Y-axis represents the front-back direction
  • the Z-axis represents the up-down direction.
  • the wearer moves the device 100 to the abdomen, right waist, or back along the belt, the directions indicated by the X and Y axes of the acceleration sensor change. .
  • the device 100 is mounted on the left hip, as shown in Fig.
  • the acceleration data on the X axis (left and right directions) is defined as positive on the right and negative on the left.
  • Y-axis (front-back direction) acceleration data The front is positive and the back is negative.
  • z-axis (vertical direction) acceleration data the top is positive and the bottom is negative.
  • FIG. 5 (b) shows the case where the wearer wears the device 100 on the left hip (reference position), right hip (position 1), back (position 2) and abdomen (position 3).
  • FIG. 3 is a diagram showing an example of the meaning of each parameter (that is, the meaning of each direction represented by three axes).
  • the relationship with the reference position (left hip) indicates that sensor 1 (X axis in Fig. 2 above)
  • sensor 1 X axis in Fig. 2 above
  • the direction represented by the sensor 1 changes from the left-right direction to the front-rear direction
  • the sensor 2 The direction represented changes from the front-back direction to the left-right direction.
  • the parameter correction unit 14 based on the button pressed by the wearer or the like via the mounting position selection unit 13. Reads the parameters of the mounting position corresponding to the above button from the parameter storage unit 15 and outputs the parameters to the evaluation unit 12.
  • the evaluation unit 12 determines the behavior and posture of the wearer using the acceleration data input from the acceleration sensing unit 11 and the read parameters.
  • the behavior or posture detection apparatus 10 By using 0, the press of the button corresponding to the mounting position where the device 100 is mounted is accepted, and the parameters are corrected based on this. Judgment can be avoided.
  • Embodiment 1 described above an example is described in which parameters are corrected by receiving a press of a button corresponding to a mounting position from a wearer or the like, but in the present embodiment, a correction trigger button is pressed. After that, an embodiment will be described in which acceleration data for a predetermined action pattern is collected, and parameters are corrected by evaluating the acceleration data.
  • FIG. 6 is a block diagram showing a functional configuration of the action or posture detection device 200 according to the present embodiment.
  • the present apparatus 200 includes an acceleration sensing unit 11, an evaluation unit 12, a parameter correction unit 14, a parameter storage unit 15, a correction trigger unit 31, and a mounting position determination unit 32.
  • the same reference numerals are given to the same functional configurations as in the first embodiment, and description thereof will be omitted.
  • the correction trigger section 31 has a potentiometer switch (corresponding to, for example, the correction trigger button 103 in FIG. 1), and when it is detected that the button switch has been pressed by a wearer or the like, the parameter is set.
  • a signal indicating the start of the correction of the acceleration is transmitted to the acceleration sensing unit 11 and the mounting position determination unit 32.
  • the mounting position determination section 32 evaluates the acceleration data input from the acceleration sensing section 11 within a fixed time (for example, 15 seconds), and The mounting position of 200 is determined, and parameters are corrected based on the determination result.
  • the present apparatus 200 includes a control unit (for example, a CPU having a ROM, a RAM, and the like) that controls processing timing and the like in each unit.
  • the correction trigger unit 31 sends a signal indicating that correction is started to the acceleration sensing unit 1. 1 and transmitted to the mounting position determination unit 32.
  • the acceleration sensing unit 11 collects acceleration data for 15 seconds after the button switch is pressed (S702).
  • the mounting position determination unit 32 determines the direction of each sensor (X-axis, Y-axis, and Z-axis) based on the collected acceleration data. It is determined whether it is represented (S704). For example, if the value of sensor 1 (X-axis) greatly changes to "positive” in the first 5 seconds, and the value of sensor 2 (Y-axis) greatly changes to "positive” in the next 5 seconds, It is determined that the present apparatus 200 is mounted on the “left waist”.
  • the value of sensor 2 (Y-axis) changes greatly to “negative” during the first 5 seconds
  • the value of sensor 1 (X-axis) changes greatly to “positive” during the next 5 seconds. Determines that the device is attached to the back. Set. Then, the parameter is corrected according to the determined mounting position (S705).
  • the parameter correction unit 14 reads the parameters from the parameter storage unit 15 based on the determination result of the mounting position determination unit 32 and outputs the parameters to the evaluation unit 12 in the same manner as in the first embodiment. I do.
  • the evaluation unit 12 determines the behavior or posture of the wearer based on the acceleration data and the parameters input from the acceleration sensing unit 11.
  • the mounting position is determined based on the predetermined behavior of the wearer, and the parameter is determined based on the mounting position. It is possible to make corrections.
  • acceleration data for a predetermined action pattern is collected, and the acceleration data is evaluated.
  • a predetermined voice guidance is given to the wearer after the correction trigger button is pressed, and the wearer acts in accordance with the voice guidance. An example will be described in which acceleration data is collected and the parameters are similarly corrected.
  • FIG. 8 is a block diagram showing a configuration of the action or posture detection device 300 in the present embodiment.
  • This device 300 includes an acceleration sensing unit 11, an evaluation unit 12, a parameter correction unit 14, a parameter storage unit 15, a correction trigger unit 31, a mounting position determination unit 32, and a voice guidance unit 41. .
  • the same reference numerals are given to the same functional components as those in the second embodiment, and description thereof will be omitted.
  • the voice guidance unit 41 receives a signal indicating that parameter correction is started from the correction trigger unit 31, the voice guidance unit 41 performs a predetermined motion to be performed at the time of correction, as in the case of the second embodiment. Then, the voice is instructed to the wearer.
  • the predetermined movement is determined to move rightward for 5 seconds after pressing the button switch of the correction trigger section 31 and move forward for the next 5 seconds.
  • the voice output of the voice guidance section 41 is turned on by pressing the potentiometer switch of the correction trigger section 31. "First, move to the right. 1, 2, 3, 4, 5. Next Move in the direction 1, 2, 3, 4, 5. Please stop. Finish. "
  • the present apparatus 300 is provided with a control unit (for example, a CPU having a ROM, a RAM, and the like) that controls processing timing and the like in each unit.
  • a control unit for example, a CPU having a ROM, a RAM, and the like
  • FIG. 9 is a flowchart showing the flow of the operation of the present apparatus 300.
  • the correction trigger section 31 sends a signal indicating that the correction is started to the acceleration sensing section 11 1 , To the mounting position determination unit 32 and the voice guidance unit 41.
  • the voice guidance unit 41 gives an instruction by voice so that the wearer takes a predetermined action (S910).
  • the acceleration sensing unit 11 collects acceleration data for 15 seconds after the switch is pressed (S702). The following processing is the same as that in FIG. 7 in the second embodiment (S703 to S705).
  • the behavior or posture detection device 30 in the present embodiment By using 0, the wearer's operation load can be reduced by giving a voice to the predetermined posture or action to be performed by the wearer (guidance), and the erroneous operation during the above correction Can be reduced.
  • FIG. 10 is a block diagram illustrating a functional configuration of the action or posture detection device 400 according to the present embodiment.
  • This apparatus 400 includes an acceleration sensing unit 11, an evaluation unit 12, a parameter correction unit 14, a parameter storage unit 15, a correction trigger unit 31, and a mounting position determination unit 32.
  • the correction trigger section 31 includes a voice input section 51 and a signal output determination section 52.
  • the voice input section 51 of the correction trigger section 31 has a microphone (corresponding to the microphone 105 in FIG. 1 above) that converts the voice of the wearer into an electric signal, and converts the voice of the wearer into a signal waveform.
  • the signal output determination unit 52 determines that, for example, when a voice (for example, “correction start”) having a certain amplitude (or waveform) is input, an input for instructing the start of correction is performed. Then, a signal indicating that the correction is started is output to the mounting position determination unit 32.
  • a voice for example, “correction start”
  • a signal indicating that the correction is started is output to the mounting position determination unit 32.
  • the signal output determination unit 5 2 in order to remove the influence of the surrounding noise sound, for example, a response to only a specific sound may be performed by using a voice recognition process or the like.
  • the present apparatus 400 is provided with a control unit (for example, a CPU having a ROM, a RAM, and the like) for controlling processing timing and the like in each of the above units. .
  • a control unit for example, a CPU having a ROM, a RAM, and the like for controlling processing timing and the like in each of the above units.
  • FIG. 11 is a flowchart showing the flow of the operation of the action or posture detection device 400.
  • the signal output determination unit 52 instructs the start of correction based on the amplitude (or waveform) of the input voice. (S111), and if the level is higher than the specified level (S1102), a signal indicating the start of correction is output to the acceleration sensing unit 11 and the mounting position determination unit. 3 Send to 2.
  • the following processing is the same as that in FIG. 7 in the second embodiment (S702 to S705).
  • a trigger for starting parameter correction can be obtained from the voice of the wearer, so that even if the wear position is Even if it is located at a position where it is difficult to operate by hand, the operation of the wearer can be facilitated and erroneous operations during the above correction can be reduced.
  • Embodiment 3 described above after the button switch (correction trigger button) is pressed, a predetermined voice guidance is given to the wearer, and the wearer acts in accordance with the voice guidance and accelerates.
  • the embodiment in which the data is collected has been described, in the present embodiment, instead of receiving the push of the switch from the wearer, the wearer does not A description will be given of an embodiment in which the detection of a person wearing the apparatus on the body is used as a trigger for starting correction.
  • FIG. 12 is a block diagram showing a configuration of the action or posture detection device 500 according to the present embodiment.
  • This device 500 is composed of an acceleration sensing unit 11, an evaluation unit 12, a parameter correction unit 14, a parameter storage unit 15, a mounting detection unit 61, a correction trigger unit 31, a mounting position determination unit 32, and audio.
  • a guidance section 4 1 is provided.
  • the same reference numerals are given to the same functional configurations as in the third embodiment, and description thereof will be omitted.
  • the mounting detector 61 includes a contact switch provided on the side that comes into contact with the human body when the device 500 is mounted, and determines whether or not the device is mounted on the wearer, The result is transmitted to the correction trigger section 31.
  • the correction trigger section 3 1 receives the determination result from the mounting detection section 6 1, determines that the mounting position has changed when the state changes from the non-mounted state to the mounted state, and outputs the voice guidance section 4 1. A signal to start the correction is sent to.
  • the voice guidance unit 41 receives the signal from the correction trigger unit 31, the voice guidance unit 41 gives voice to the wearer so as to perform a predetermined movement to be performed at the time of correction as in the case of the third embodiment. Instruct.
  • the present apparatus 500 includes a control unit (for example, a CPU having a ROM, a RAM, and the like) that controls processing timing and the like in each unit.
  • a control unit for example, a CPU having a ROM, a RAM, and the like
  • FIG. 13 is a flowchart showing the operation flow of the present apparatus 500.
  • the mounting detector 61 detects that the wearer has mounted the device. Upon detection (S1301: Yes), the correction trigger section 31 sends a signal indicating that correction is started to the acceleration sensing section 11, the mounting position determination section 32, and the voice guidance section 41. Send.
  • the voice guidance unit 41 gives an instruction by voice so that the wearer takes a predetermined action (S910).
  • the following processing is the same as that in FIG. 9 in the third embodiment (S702 to S705).
  • a change in the mounting position is determined by automatically detecting that the wearer has removed or put on the device.
  • the wearer is prompted for correction or the correction is automatically started, the operation burden on the wearer can be reduced, and erroneous operations during the correction can be reduced.
  • Embodiment 5 described above an example has been described in which, after detecting that the wearer has worn the device on the body, the parameters are corrected based on a predetermined action.
  • An embodiment will be described in which the above correction is performed based on a behavior pattern considered to be most likely to be an actual wearer's behavior, instead of performing correction based on a predetermined clear behavior. .
  • FIG. 14 is a block diagram showing a functional configuration of the action or posture detection device 600 according to the present embodiment.
  • the device 600 includes an acceleration sensing unit 11, an evaluation unit 12, a parameter correction unit 14, a parameter storage unit 15, a mounting detection unit 61, and a pattern classification histogram generation unit 71.
  • the same reference numerals are given to the same functional configurations as in the fifth embodiment, and description thereof will be omitted.
  • the pattern classification histogram forming section 71 receives a signal indicating that the wearer wears the device 600 from the wearing detection section 61
  • the pattern classification histogram forming section 71 converts the direction of each direction inputted from the acceleration degree sensing section 11 into one. If the acceleration data shows periodicity in the change pattern of the acceleration data in at least one direction within a predetermined period of time and there is no large change, the amplitude and number of acceleration data per unit time are calculated. Sampling.
  • the pattern classification histogram generation unit 71 has a certain assumption, for example, "usually, when considering the human walking state, the amplitude of the vertical acceleration change is the largest, and the certain period is Then, the amplitude of the change in acceleration in the front-back direction is the largest, and the change in the acceleration in the left-right direction is the smallest, and "normally, most people walk forward when walking forward.”
  • the direction related to the sensor showing the largest amplitude in the histogram distribution per fixed time is the up-down direction
  • the direction related to the sensor showing the next largest amplitude is the front-back direction
  • the direction related to the sensor showing the smallest amplitude is The direction is determined to be the left direction, and it is determined which direction the sensors in each direction of the acceleration sensing section 11 are currently associated with.
  • sensor 1 has the largest amplitude range at the peak of the histogram distribution, so the vertical direction, sensor 2 with the next largest amplitude range is the front-back direction, and sensor 3 with the smallest amplitude range is left and right. Judge as the direction.
  • the present apparatus 600 includes a control unit (for example, a CPU having a ROM, a RAM, and the like) that controls processing timing and the like in each of the above units. .
  • a control unit for example, a CPU having a ROM, a RAM, and the like
  • FIG. 16 is a flowchart showing the operation flow of the present apparatus 600.
  • the wearing detection unit 61 detects that the wearer wears the device 600 (S1301: Yes)
  • the wearing detection unit 61 sends a signal indicating that correction is started to acceleration sensing. It is transmitted to the section 11 and the pattern classification histogram conversion section 71.
  • the acceleration sensing unit 11 starts collecting acceleration data (S702).
  • the pattern classification histogram generation unit 71 creates the above histogram based on the acceleration data collected by the acceleration sensing unit 11 (S 1601), and the wearer walks. It is determined whether or not it is moving (S 1602), and when it is determined that it is walking, the parameters of each sensor are corrected (S 705).
  • the present invention can be applied to a device including an acceleration sensor for detecting a behavior, a posture, and the like mounted on a moving object such as a person, an animal, or an animal.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Dentistry (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pulmonology (AREA)
  • Neurology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

特定の装置が内蔵する加速度センサにおける各加速度方向を表わすパラメータを補正する本装置は、加速度を検出する加速度センシング部11と、被装着者が行動する際に前記加速度センサから得られる加速度の変化パターンを用いて行動や姿勢を判定する評価部12と、評価部12において判定時に用いるパラメータを記憶するパラメータ記憶部15と、補正トリガボタンが被装着者等から押下されたことを検知すると、パラメータの補正を開始する旨の信号を加速度センシング部11と装着位置判定部32に送信する補正トリガ部31と、装着位置選択部13において選択された結果に基づいてパラメータ記憶部15に記憶されているパラメータを読み出し、装着位置に対応した補正を施した後に前記評価部12に補正後のパラメータを出力するパラメータ補正部14を備える。

Description

明 細 書 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法 技術分野
本発明は、 人間の行動や姿勢 (身体の状態) を検知する、 加速度 センサを備える装置に関し、特に前記加速度センサの各加速度方向 を表わすパラメータの補正技術に関する。 背景技術
近年の高齢化社会の到来という背景の下、 高齢者の介護が注目さ れている。 特に、 高齢者や痴呆症患者の行動を正確に把握すること は、 介護を行なう上で大変重要視され、 さまざまな技術の提案がな されている。 さらに、 これらの高齢者等の行動を追跡し、 異常行動 を行なった場合には、 本人や介護人等にその状況を通報する手段は 介護の観点から不可欠であると考えられる。また、高齢者に限らず、 人の行動や姿勢を計測したり解析したりすることで、 その行動バタ ーンを把握することができれば、 照明や空調についてより快適な制 御を行なったり安全に動作させることが可能となり、 生活環境の改 善を図ることができる。
なお、 人に限らず、 動物や機械においても、 行動や動作等を計測 することは有効である。 例えば、 動物の場合は、 いままで解らなか つた生態の研究に用いることが可能であり、 機械の場合は、 状態や 動作を計測することができれば、 効率よ く安全に稼動させることが でき、 生産活動などの観点から大変有効である。
動作や姿勢を検出する方法と しては、 古く は歩数計や水銀スイ ツ チ等を用いて、 静止状態と動作状態を判別する方法が提案されてい る。 最近では、 種々の高性能な加速度センサやジャイ ロセンサ (角 加速度センサ) が開発され、 それらを用いて歩行状態、 体の傾き、 歩く方向等を検出する装置や方法が提案されている (例えば、 特開 2 0 0 2 - 1 1 9 4 8 5号公報参照)。
しかしながら、 このような装置においては、 計測対象となってい る人間において、 装置が装着される部位によって行動や姿勢の計測 結果であるセンサの出力パターンが異なるために、 行動等の判定を 行なうために予め決められた装着位置以外の位置に装置が装着さ れた場合は、 上記行動等の判定を誤ってしまう という問題がある。
そこで、 本発明は上記課題に鑑みてなされたものであり、 加速度 センサを備える特定の装置を装着した動体の行動や姿勢の判定を 精度よ く行なうための、 前記加速度センサに係る各方向を表わすパ ラメータ を補正する加速度センサ軸情報補正装置等を提供するこ とを目的とする。 発明の開示
上記目的を達成するために、 本発明に係る加速度センサ軸情報補 正装置は、 動体に装着される特定の装置が内蔵する加速度センサに おける各加速度方向を表わすパラメータ を補正する加速度センサ 軸情報補正装置であって、 前記パラメータの補正に関係する補正関 連情報を取得する補正関連情報取得手段と、 取得された前記補正関 連情報に基づいて前記パラメータ を補正する補正手段とを備える。 さらに、 前記加速度センサ軸情報補正装置は、 ユーザから、 前記特 定の装置の装着場所を示す複数のスィ ッチに対する押下を受け付 けるスィ ッチ受付手段を備え、 前記補正関連情報取得手段は、 受け 付けられた前記押下を前記補正関連情報と して取得するように構 成することもできる。
これによ り、 押下されたスィッチに基づいて加速度センサにおけ る各加速度方向を表わすパラメータの補正を行なうので、 ユーザは 簡便な操作によって上記パラメータの補正を行なう ことができる。
さ らに、 上記目的を達成するために、 本発明に係る加速度センサ 軸情報補正装置は、 前記動体の所定の行動について、 加速度データ を収集する収集手段と、 収集された前記加速度データに基づいて前 記各加速度の方向を決定する方向決定手段とを備え、 前記補正関連 情報取得手段は、 決定された前記加速度の方向を前記補正関連情報 と して取得するように構成することもできる。
これにより、 本装置は、 予め決められた行動について収集された 加速度データの変化の特徴を特定し、 この特定された特徴に基づい て前記パラメータの補正を行なうので、 ユーザは、 上記パラメータ を補正する際の負担が軽減される。
また、 上記目的を達成するために、 本発明に係る加速度センサ軸 情報補正装置は、 さ らに、 所定の ト リガに基づいて、 前記加速度デ 一夕の収集を開始するタイ ミングを決定する補正誘発手段を備え、 前記データ収集手段は、 前記補正誘発手段によって決定されたタイ ミ ングの後に前記加速度データの収集を行なう よ うに構成しても よい。
これにより、 本装置は、 補正を開始する ト リガ (タイ ミング) を 受け付け、 当該受け付けた ト リガの後に前記加速度データの収集が 開始されるので、 無駄な加速度データの収集を排除し、 より効率的 に加速度データを収集することができる。
さ らに、 上記目的を達成するために、 本発明に係る加速度センサ 軸情報補正装置の前記補正誘発手段は、 音声を受け付け、 受け付け た音声を前記 トリガとするように構成することもできる。
これによ り、 本装置は、 被装着者が音声で補正の開始を指示する ことが可能となるので、 たとえ装着位置が手で操作しにく い位置で あっても被装着者は必要な操作を行なう ことができ、 手による補正 時の誤操作を回避して正しい補正を行なう ことが可能となる。
また、 本発明に係る加速度センサ軸情報補正装置の前記補正誘発 手段は、 前記特定の装置が前記動体に装着されたことを検出 して、 その検出を前記 トリガとするように構成することもできる。
これによ り、 本装置は、 被装着者が装置をはずしたり、 つけたり したことを自動的に検知し、補正が必要か否かを自動的に判断して 被装着者に補正の実施を促したり、 自動で補正を開始することが可 能となる。
また、 上記目的を達成するために、 本発明に係る加速度センサ軸 情報補正装置の前記方向決定手段は、 人の歩行に関して、 加速度の 方向とその加速度の変化の特徴とを表わす情報とを対応付けて記 憶する記憶部と、前記記億部から前記加速度の変化の特徴を表わす 情報を読み出し、 前記収集された加速度データに係る加速度の変化 の特徴と前記読み出された情報に係る前記特徴とを比較すること によって前記各加速度の方向を決定する比較決定部とを備えるよ うに構成することもできる。
これによ り、 本装置は、 被装着者が行なうべき、 予め決められた 行動を音声でガイダンスするので、 被装着者はそのガイダンスに沿 つて行動するのみでよく 、 補正時の煩雑なユーザ操作が不要となる さ らに、 上記目的を達成するために、 本発明に係る行動又は姿勢 挨知装置は、 内蔵する加速度センサに係る各加速度方向を表わすパ ラメータ を補正する機能を備える、 動体の行動又は姿勢を検知する 行動又は姿勢検知装置であって、 前記パラメータの補正に関係する 補正関連情報を取得する補正関連情報取得手段と、 前記取得された 補正関連情報に基づいて前記パラメータを補正する補正手段と、 補 正された前記パラメータに係る加速度センサを用いて、 動体の行動 についての加速度データを収集する収集手段と、 収集された前記加 速度データに基づいて、 前記動体の行動又は姿勢を判定する判定手 段とを備える。
これにより、 ユーザは、 加速度センサにおける各加速方向を表わ すパラメータを補正する際の負担が軽減され、 行動や姿勢を検出す る際の誤作動を回避することが可能となる。
なお、 上記目的を達成するために、 本発明は、 上記加速度センサ 軸情報補正装置の特徴的な構成手段をステップとする加速度セン サ軸情報補正方法と して実現したり、 それらのステップを全て含む プログラムと して実現することもできる。 そして、 そのプログラム は、 加速度センサ軸情報補正装置が備える R O M等に格納しておく だけでなく 、 C D— R O M等の記録媒体や通信ネッ トワーク等の伝 送媒体を介して流通させることもできる。
さ らに、 前記加速度センサ軸情報補正装置の機能を備える、 動体 の行動又は姿勢を検知する行動又は姿勢検知装置と したり、 その装 置の特徴的な構成手段をステップとする行動又は姿勢検出方法と して実現したりすることもできる。
以上のように、 本発明に係る加速度センサ軸情報補正装置によれ ば、 装着位置が変化した場合であっても、 この変化に伴って適切に パラメータの補正を行なう ことができ、 行動又は姿勢を計測する際 の誤動作を回避することが可能となる。 図面の簡単な説明
図 1 は、実施の形態 1 における行動又は姿勢検知装置の外観を示 す図である。
図 2は、 行動又は姿勢検知装置に内蔵されている加速度センサの 構成例を示す図である。
図 3は、実施の形態 1 における行動又は姿勢検知装置の機能構成 を示すブロック図である。
図 4は、被装着者が行動又は姿勢検知装置を装着した様子を示す 図である。
図 5 ( a ) は、 被装着者が行動又は姿勢検知装置を左腰、 右腰、 背中及びに腹部に装着した場合に、 パラメータ (各軸の意味) が変 化する様子を示した図である。
図 5 ( b ) は、 被装着者が行動又は姿勢検知装置を左腰、 右腰、 背中及びに腹部に装着した場合の、各パラメータの意味の一例を示 した図である。
図 6は、実施の形態 2における行動又は姿勢検知装置の機能構成 を示すブロック図である。
図 7は、実施の形態 2における行動又は姿勢検知装置の動作の流 れを示すフローチヤ一卜である。
図 8は、実施の形態 3における行動又は姿勢検知装置の機能構成 を示すブロック図である。
図 9は、実施の形態 3における行動又は姿勢検知装置の動作の流 れを示すフローチヤ一トである。
図 1 0は、実施の形態 4における行動又は姿勢検知装置の機能構 成を示すブロック図である。
図 1 1 は、実施の形態 4における行動又は姿勢検知装置の動作の 流れを示すフローチヤ一卜である。
図 1 2は、 実施の形態 5における行動又は姿勢検知装置の機能構 成を示すブロック図である。
図 1 3は、 実施の形態 5における行動又は姿勢検知装置の動作の 流れを示すフローチャー トである。
図 1 4は、 実施の形態 6における行動又は姿勢検知装置の機能構 成を示すブロック図である。
図 1 5は、 被装着者の歩行時における各センサにおける加速度デ 一夕のヒス トグラム分布の一例を示す図である。
図 1 6は、 実施の形態 6における行動又は姿勢検知装置の動作の 流れを示すフローチヤ一トである。 発明を実施するための最良の形態
以下では、 本発明に係る実施の形態について、 図面を参照しなが ら詳細に説明する。 なお、 以下の実施の形態において、 本発明につ いて図面を用いて説明するが、 本発明はこれらに限定することを意 図しない。
(実施の形態 1 )
図 1 は、 本実施の形態における行動又は姿勢検知装置 1 0 0の外 観を示す図である。 この行動又は姿勢検知装置 1 0 0は、 内蔵する 加速度センサを利用して、 この装置を装着した人 (以下、 「被装着 者」 という。) の行動や姿勢を特定するための装置である。 本装置 は、 名刺サイズのやや薄い直方体状 (例えば、 5 c m (縦) X 8 c m (横) X 1 . 5 c m (厚さ)) の形状を有しており、 ボタ ン類 1 0 1 、 液晶パネル 1 0 2、 補正 卜リガボタ ン 1 0 3、 スピーカ 1 0 4及びマイク 1 0 5を備えている。 なお、 行動又は姿勢検知装置 1 0 0は、 人体に装着させる (例えば、 ベル トに通して固定する) た めの固定用バン ド 1 0 6等を備えている。
ポタ ン類 1 0 1 は、 本装置 1 0 0が装着された位置を確定するた めに、被装着者又はユーザ(介護人)から押下されるボタ ンである。 例えば、 本装置 1 0 0が被装着者の左腰に装着された場合は 「左」 ポタ ンが押下される。 同様に、 被装着者の右腰に装着された場合は 「右」 ボタ ンが、 被装着者の腹部に装着された場合は 「前」 ポタ ン が、 被装着者の背中下部に装着された場合は 「後」 ボタ ンが、 それ ぞれ押下される。
液晶パネル 1 0 2は、 本装置の動作モー ドやエラーメ ッセージの 表示を行なう。
補正 ト リガポタ ン 1 0 3は、 本装置 1 0 0におけるパラメータの 補正を開始する際に被装着者等から押下されるポタ ンである。 ここ で、 「パラメータの補正」 とは、 本装置に内蔵されている各加速度 センサの方向と被装着者における基準の方向 (例えば、 正面方向を 被装着者における基準の方向とする。) との関係を明確にすること をいう。 従って、 本装置の装着位置が変更される毎に、 上記補正を 実施する必要がある。
スピーカ 1 0 4は、 上記パラメータの補正時にユーザに所定の指 示を行なうための音声を出力する。 マイク 1 0 5は、 上記パラメ一 タの補正時に、 ユーザからの指示を音声で受け付ける。
図 2は、 上記図 1 における行動又は姿勢検知装置 1 0 0に内蔵さ れている加速度センサの構成例を示す図である。 図 2に示されるよ うに、 本加速度センサは、 2軸の加速度センサを 2個用いることに よって、 3軸の加速度の検出を可能にしている。 図 2を用いながら 詳細に説明すると、 回路基板 2 1 に垂直な位置に回路基板 2 2が固 定され、 それぞれの基板に同じ仕様の I C型の加速度センサ 2 3又 は加速度センサ 2 4が配置される。 例えば、 加速度センサ 2 3には X軸と Y軸の加速度を検出させ、 加速度センサ 2 4には Z軸の加速 度を検出させる。 従って、 図 2に示されるように、 加速度センサ 2 4においては、 1 つの軸 (破線で示した軸) の出力は利用しないこ ととなる。
図 3は、 本実施の形態における行動又は姿勢検知装置 1 0 0の機 能構成を示すブロック図である。 図 3に示されるように、 行動又は 姿勢検知装置 1 0 0は、 加速度センシング部 1 1 、 評価部 1 2、 装 着位置選択部 1 3、 パラメータ補正部 1 4およびパラメータ記憶部 1 5を備えている。
加速度センシング部 1 1 は、 被装着者の行動や姿勢における左右 方向、 前後方向および上下方向の各加速度を表わすデータを収集し 評価部 1 2に出力する。
評価部 1 2は、 各方向における加速度が変化するパターンから被 装着者の現在の行動や姿勢の判定を行なう。 前記判定は、 例えば、 「一定時間以上一定周期の大きな振幅を持つパターンが、 上下方向 の加速度データに出現する」 場合は、 「歩行」 であると判定し、 「周 期性がなく瞬間的に大きな振幅変化が、 上下方向、 かつ前後方向の 加速度データに現れ、 その後、 一定時間以上、 各方向の加速度デ一 タに大きな変化がない。」 場合は、 「着座」 や 「起立」 という行動が あつたと判定する。 さらに、 各方向における加速度の変化に基づい て、 被装着者の姿勢の変化 (例えば、 着座後の前傾) を判定するこ とが可能である。 ここで、 上記判定においては、 判定精度の向上の ために、 予め設定されている判定基準に対して、 実際の装着位置に 応じたパラメータの補正を行なう必要がある。 装着位置選択部 1 3は、 上記図 1 のポタン類 1 0 1 に対応する部 分であり、複数の装着位置の候補に対応づけられた複数のボタンス イッチを備え、 被装着者等が装着位置を決定した後にその位置に対 応するポタ ンスィ ッチの押下を受け付けて装着位置の確定を行な い、 確定した装着位置を表わす情報をパラメータ補正部 1 4に送信 する。
パラメータ補正部 1 4は、 装着位置選択部 1 3から装着位置を表 わす情報を受信すると、 装着位置に対応する行動や姿勢の判定に使 用するパラメータをパラメータ記憶部 1 5から読み出 し、 評価部 1 2に出力する。
パラメータ記憶部 1 5は、 R A M等で構成される記憶装置であり . 評価部 1 2が複数の装着位置候補における行動や姿勢を判定する 際に使用するパラメータやパラメータに関する情報を記憶する。
なお、 上記図 3には示していないが、 本装置 1 0 0は、 上記各部 における処理タイ ミ ング等の制御を行なう制御部 (例えば、 R O M や R A M等を備える C P U ) を備えている。
次に、 本実施の形態におけるパラメータについて説明する。
図 4は、 被装着者が本装置 1 0 0を装着した様子を示す図である, 図 4に示されるように、 被装着者が本装置 1 0 0を左腰に装着した 場合は、 上記図 2における加速度センサの X軸は左右方向、 Y軸は 前後方向、 Z軸は上下方向をそれぞれ表わす。 この場合、 被装着者 によって本装置 1 0 0の装着位置が、 ベル トに沿って腹部、 右腰又 は背中に移動された場合は、 加速度センサの X軸及び Y軸が表わす 方向は変化する。つまり、本装置 1 0 0が左腰に装着された場合は、 図 5 ( a ) に示されるように、 X軸 (左右方向) の加速度データに ついては、 右を正、 左を負と し、 Y軸 (前後方向) の加速度データ については、 前を正、 後ろを負と し、 z軸 (上下方向) の加速度デ ータについては、 上を正、 下を負とする。 以下、 同様に、 本装置 1 0 0力、腹部、右腰又は背中に装着された場合は、それぞれの X軸、 Y軸及び Z軸が示す方向が異なる。
図 5 ( b ) は、 被装着者が本装置 1 0 0を左腰 (基準位置)、 右 腰 (位置 1 )、 背中 (位置 2 ) 及びに腹部 (位置 3 ) に装着した場 合の、 各パラメータの意味 (即ち、 3つの軸が表わすそれぞれの方 向の意味) の一例を示した図である。
例えば、 本装置 1 0 0が 「位置 1 (右腰)」 に装着された場合は、 基準位置 (左腰) との関係をみてみると、 センサ 1 (上記図 2にお ける X軸) が表わす左右方向の正負が逆転し、 センサ 2 ( Y軸) が 表わす前後方向の正負も逆転する。 また、 本装置 1 0 0の装着位置 力《 「背中」 に装着された場合、 基準位置との関係をみてみると、 セ ンサ 1 が表わす方向が左右方向から前後方向に変化し、 センサ 2が 表わす方向が前後方向から左右方向を表わすように変化している。
以上のように、 本実施の形態における行動又は姿勢検知装置 1 0 0においては、 装着位置選択部 1 3を介して被装着者等から押下さ れたポタ ンに基づいて、 パラメータ補正部 1 4が、 上記ボタ ンに対 応ずる装着位置のパラメータ をパラメータ記憶部 1 5から読み出 し、 評価部 1 2に出力する。 評価部 1 2は、 加速度センシング部 1 1 から入力された加速度データ と読み出されたパラメータ とを用 いて、 被装着者の行動や姿勢を判定する。
なお、 本実施の形態では、 各装着位置によるパラメータをテープ ル形式で定義する実施例を示したが、 装着位置におけるパラメータ の変化を数式で表現してもよい。
以上のように、 本実施の形態における行動又は姿勢検知装置 1 0 0を用いることによって、 本装置 1 0 0が装着された装着位置に対 応するポタ ンの押下を受け付け、 これに基づいてパラメータの補正 を行なうので、 簡便な操作によって、 行動や姿勢についての誤判定 を回避することが可能となる。
(実施の形態 2 )
上記実施の形態 1 では、 被装着者等から装着位置に対応するボタ ンの押下を受け付けるこ とによってパラメータ を補正する実施例 について説明したが、 本実施の形態では、 補正 ト リ ガボタ ンが押下 された後に、 予め決められた行動パターンについての加速度データ を収集し、 この加速度データを評価することによってパラメータを 補正する実施例について説明する。
図 6は、 本実施の形態における行動又は姿勢検知装置 2 0 0の機 能構成を示すブロ ック図である。 本装置 2 0 0は、 加速度センシン グ部 1 1 、 評価部 1 2、 パラメータ補正部 1 4、 パラメータ記憶部 1 5、 補正 ト リガ部 3 1 及び装着位置判定部 3 2 を備える。 なお、 以下においては、 上記実施の形態 1 と同一の機能構成については同 一の符番を付し、 その説明は省略する。
補正 ト リガ部 3 1 は、 ポタ ンスィ ッチ (例えば、 上記図 1 の補正 ト リガポタン 1 0 3に対応) を有し、 このボタンスィ ツチが被装着 者等から押下されたことを検知すると、 パラメータの補正を開始す る旨を表わす信号を加速度センシング部 1 1 と装着位置判定部 3 2に送信する。 装着位置判定部 3 2は、 補正 ト リガ部 3 1 から上記 信号を受信すると、 一定時間 (例えば、 1 5秒) 以内に加速度セン シング部 1 1 から入力された加速度データを評価し、 本装置 2 0 0 の装着位置を判定し、 この判定結果に基づいてパラメータの補正を 行なう。 なお、 上記図 6には示していないが、 本装置 2 0 0は、 上記各部 における処理タイ ミング等の制御を行なう制御部 (例えば、 R O M や R A M等を備える C P U ) を備えている。
次に、 本実施の形態における行動又は姿勢検知装置 2 0 0の動作 について説明する。
図 7は、 本装置 2 0 0の動作の流れを示すフローチャー トである c なお、 本装置 2 0 0においては、 予め、 補正時における被装着者の 行動パターンが決められており、 この行動パターンについて加速度 データを収集するものとする。 例えば、 補正 トリガ部 3 1 のポタ ン スィ ッチが押下された後の 5秒間は右方向に動き、 次の 5秒間は前 方向に動く ことが決められている。
最初に、 被装着者によるポタ ンスィ ッチの押下を検知すると ( S 7 0 1 : Y e s ), 補正 ト リ ガ部 3 1 は、 補正を開始する旨を表わ す信号を加速度センシング部 1 1 と装着位置判定部 3 2に送信す る。
これによ り、 加速度センシング部 1 1 は、 ボタンスィ ッチを押下 された後の 1 5秒間、 加速度データ を収集する ( S 7 0 2 )。 加速 度データの収集が終わると ( S 7 0 3 : Y e s ). 装着位置判定部 3 2は、 収集された加速度データに基づいて各センサ ( X軸、 Y軸 及び Z軸)がどの方向を表わしているのかを判定する( S 7 0 4 )。 例えば、 最初の 5秒問はセンサ 1 ( X軸) の値が 「正」 に大きく変 化し、 次の 5秒間はセンサ 2 ( Y軸) の値が 「正」 に大きく変化す る場合は、 本装置 2 0 0が 「左腰」 に装着されていると判定する。 同様に、 例えば、 最初の 5秒間はセンサ 2 ( Y軸) の値が 「負」 に 大きく変化し、 次の 5秒間はセンサ 1 ( X軸) の値が 「正」 に大き く変化する場合は、 本装置 2 0 0が 「背中」 に装着されていると判 定する。 そして、 判定された装着位置に応じてパラメータの補正を 行なう ( S 7 0 5 )。
次に、 パラメータ補正部 1 4は、 装着位置判定部 3 2の判定結果 に基づいて、 上記実施の形態 1 と同様に、 パラメータをパラメータ 記憶部 1 5から読み出 し、 評価部 1 2に出力する。 評価部 1 2は、 加速度センシング部 1 1 から入力される加速度データ とパラメ一 タとに基づいて、 被装着者の行動や姿勢を判定する。
以上のように、 本実施の形態における行動又は姿勢検知装置 2 0 0を用いることにより、 予め決められている被装着者の行動に基づ いて装着位置を判別し、 この装着位置に基づいてパラメータの補正 を行なう ことが可能となる。
(実施の形態 3 )
上記実施の形態 2では、 ボタ ンスィ ッチ (補正 卜 リガボタ ン) が 押下された後に、 予め決められた行動パターンについての加速度デ ータを収集し、 この加速度データを評価することによってパラメ一 タを補正する実施例について説明したが、 本実施の形態では、 補正 卜リガポタ ンが押下された後に、 被装着者に対して予め決められた 音声ガイダンスを行ない、 この音声ガイダンスに従って被装着者が 行動して加速度データ を収集し、 同様に、 パラメータを補正する実 施例について説明する。
図 8は、 本実施の形態における行動又は姿勢検知装置 3 0 0の構 成を示すプロック図である。 本装置 3 0 0は、 加速度センシング部 1 1 、評価部 1 2、パラメータ補正部 1 4、パラメータ記憶部 1 5、 補正 トリガ部 3 1 、 装着位置判定部 3 2及び音声ガイダンス部 4 1 を備える。 なお、 以下においては、 上記実施の形態 2 と同一の機能 構成については同一の符番を付し、 その説明は省略する。 音声ガイダンス部 4 1 は、 補正 ト リガ部 3 1 から、 パラメータの 補正を開始する旨を表わす信号を受信すると、 上記実施の形態 2の 場合と同様、 補正時に行なう予め決められた動きをするように、 被 装着者に音声で指示する。 例えば、 前記予め決められた動きが補正 ト リ ガ部 3 1 のボタ ンスィ ッチを押した後の 5秒間は右方向に動 き、 次の 5秒間は前方向に動く ことが決められている場合は、 音声 ガイダンス部 4 1 の音声出力は、 補正 ト リガ部 3 1 のポタ ンスイ ツ チを押すと 「まず、 右方向に動いてください。 1 、 2、 3、 4、 5。 次に前方向に動いてください。 1 、 2、 3、 4、 5。 止まって下さ い。 終了 します。」 というようにガイダンスを行なう。
なお、 上記図 8には示していないが、 本装置 3 0 0は、 上記各部 における処理タイ ミ ング等の制御を行なう制御部 (例えば、 R O M や R A M等を備える C P U ) を備えている。
次に、 本実施の形態における行動又は姿勢検知装置 3 0 0の動作 について説明する。 図 9は、 本装置 3 0 0の動作の流れを示すフロ 一チヤ一トである。
最初に、 被装着者によるポタ ンスィ ッチの押下を検知すると ( S 7 0 1 : Y e s ). 補正 ト リガ部 3 1 は、 補正を開始する旨を表わ す信号を加速度センシング部 1 1 、 装着位置判定部 3 2及び音声ガ ィダンス部 4 1 に送信する。
これにより、 音声ガイダンス部 4 1 は、 被装着者が予め決められ ている行動をとるように音声で指示を行なう ( S 9 0 1 )。 一方、 加速度センシング部 1 1 は、 ポタ ンスィ ッチが押下された後の 1 5 秒間、 加速度データを収集する ( S 7 0 2 )。 以下の処理は、 上記 実施の形態 2における図 7 と同じである ( S 7 0 3〜 S 7 0 5 )。
以上のように、 本実施の形態における行動又は姿勢検知装置 3 0 0を用いることによ り、 被装着者が行なうべき、 予め決められた姿 勢や行動を音声で指示 (ガイダンス) することで、 被装着者の操作 負担を軽減すると共に、 上記補正時の誤操作を少なくすることがで きる。
(実施の形態 4 )
上記実施の形態 2では、 ボタンスィ ッチ (補正 ト リ ガボタン) が 押下された場合にパラメータの補正を開始する指示と判断し、 予め 決められた行動パターンについての加速度データ を収集し、 この加 速度データ を評価することによってパラメータ を補正する実施例 について説明したが、 本実施の形態では、 ポタ ンスィ ッチの押下を 受け付ける代わりに、 被装着者から音声によって上記補正開始の指 示を受け付ける実施例について説明する。
図 1 0は、 本実施の形態における行動又は姿勢検知装置 4 0 0の 機能構成を示すブロック図である。 本装置 4 0 0は、 加速度センシ ング部 1 1 、 評価部 1 2、 パラメータ補正部 1 4、 パラメータ記憶 部 1 5、 補正 トリガ部 3 1 及び装着位置判定部 3 2を備える。 さ ら に、 補正 ト リ ガ部 3 1 は、 音声入力部 5 1 と信号出力判定部 5 2か ら構成される。 なお、 以下においては、 上記実施の形態 2 と同一の 機能構成については同一の符番を付し、 その説明は省略する。 補正 ト リガ部 3 1 の音声入力部 5 1 は、 被装着者の音声を電気信 号に変換するマイク (上記図 1 のマイク 1 0 5に相当) を備え、 被 装着者の音声を信号波形と して信号出力判定部 5 2に出力する。信 号出力判定部 5 2は、 例えば一定以上の振幅 (又は波形) をもつ音 声 (例えば、 「補正開始」 など) が入力された場合に、 補正の開始 を指示する入力が行われたと判断し、 補正を開始する旨を表わす信 号を装着位置判定部 3 2に出力する。 ここで、 信号出力判定部 5 2 では、 周辺のノイズ音による影響を除去するために、 例えば、 音声 認識処理等を用いて特定の音声のみに応答するようにしてもよい。
なお、 上記図 1 0には示していないが、 本装置 4 0 0は、 上記各 部における処理タイ ミ ング等の制御を行なう制御部 (例えば、 R O Mや R A M等を備える C P U ) を備えている。
次に、 本実施の形態における行動又は姿勢検知装置 4 0 0の動作 について説明する。 図 1 1 は、 行動又は姿勢検知装置 4 0 0の動作 の流れを示すフローチヤ一 トである。
最初に、 被装着者からの音声入力を検知すると ( S 7 0 1 : Y e s )、 信号出力判定部 5 2は、 入力された音声の振幅 (又は波形) に基づいて、 補正の開始を指示する音声か否かを判断し ( S 1 1 0 1 )、 規定のレベル以上の場合は ( S 1 1 0 2 )、 補正を開始する旨 を表わす信号を加速度センシング部 1 1 及び装着位置判定部 3 2 に送信する。 なお、 以下の処理は、 上記実施の形態 2における図 7 と同じである ( S 7 0 2 〜 S 7 0 5 )。
以上のように、 本実施の形態における行動又は姿勢検知装置 4 0 0を用いることにより、 パラメータの補正を開始する ト リガを被装 着者の音声から獲得することができるため、 たとえ装着位置が手で 操作しにく い位置にあつたと しても、 被装着者の操作を容易にし、 上記補正時の誤操作を少なくすることができる。
(実施の形態 5 )
上記実施の形態 3では、 ボタ ンスィ ッチ (補正 卜 リガボタ ン) が 押下された後に、 被装着者に対して予め決められた音声ガイダンス を行ない、 この音声ガイダンスに従って被装着者が行動して加速度 データ を収集する実施例について説明したが、 本実施の形態では、 被装着者からポタ ンスィ ッチの押下を受け付ける代わりに、 被装着 者が本装置を身体に装着したこと検知し、 これを補正開始の トリガ とする実施例について説明する。
図 1 2は、 本実施の形態における行動又は姿勢検知装置 5 0 0の 構成を示すブロック図である。 本装置 5 0 0は、 加速度センシング 部 1 1 、 評価部 1 2、 パラメータ補正部 1 4、 パラメータ記憶部 1 5、 装着検知部 6 1 、 補正 トリガ部 3 1 、 装着位置判定部 3 2及び 音声ガイダンス部 4 1 を備える。 なお、 以下においては、 上記実施 の形態 3 と同一の機能構成については同一の符番を付し、 その説明 は省略する。
装着検知部 6 1 は、 本装置 5 0 0の装着時に人体と接触する側に 設けられた接触スィ ッチを備えて、 被装着者に装置が装着された状 態か否かを判定し、 その結果を補正 ト リガ部 3 1 に送信する。
補正 卜 リ ガ部 3 1 は、 装着検知部 6 1 からの判定結果を受信し、 装着されていない状態から装着された状態に変化した場合に装着 位置が変わったと判断し、 音声ガイダンス部 4 1 に補正を開始する 旨の信号を送信する。 音声ガイダンス部 4 1 は、 補正 ト リガ部 3 1 から信号を受信すると、 上記実施の形態 3の場合と同様に、 補正時 に行なう予め決められた動きをするように、 被装着者に音声で指示 する。
なお、 上記図 1 2には示していないが、 本装置 5 0 0は、 上記各 部における処理タイ ミング等の制御を行なう制御部 (例えば、 R O Mや R A M等を備える C P U ) を備えている。
次に、 本実施の形態における行動又は姿勢検知装置 5 0 0の動作 について説明する。 図 1 3は、 本装置 5 0 0の動作の流れを示すフ ローチャー トである。
最初に、 装着検知部 6 1 は、 被装着者が本装置を装着したことを 検知すると ( S 1 3 0 1 : Y e s ), 補正 ト リ ガ部 3 1 は、 補正を 開始する旨を表わす信号を加速度センシング部 1 1 、 装着位置判定 部 3 2及び音声ガイダンス部 4 1 に送信する。
これにより、 音声ガイダンス部 4 1 は、 被装着者が予め決められ ている行動をとるように音声で指示を行なう ( S 9 0 1 )。 以下の 処理は、 上記実施の形態 3における図 9 と同じである ( S 7 0 2〜 S 7 0 5 )。
以上のように、 本実施の形態における行動又は姿勢検知装置 5 0 0を用いることによ り、 被装着者が装置をはずしたり、 つけたり し たことを自動検知することによって装着位置の変更を判断し、 被装 着者に補正を促したり、 自動で補正を開始するので、 被装着者の操 作負担を軽減することが可能となリ、 上記補正時の誤操作を少なく することができる。
(実施の形態 6 )
上記実施の形態 5では、 被装着者が本装置を身体に装着したこと を検知後、 予め決められた行動に基づいてパラメータの補正を行な う実施例について説明したが、 本実施の形態では、 予め決められた 明確な行動に基づいて補正を行なうのではなく 、 実際の被装着者の 行動と して最も多いだろう と考えられる行動パターンに基づいて、 上記補正を行なう実施例について説明する。
図 1 4は、 本実施の形態における行動又は姿勢検知装置 6 0 0の 機能構成を示すブロック図である。 本装置 6 0 0は、 加速度センシ ング部 1 1 、 評価部 1 2、 パラメータ補正部 1 4、 パラメータ記憶 部 1 5、 装着検知部 6 1 及びパターン分類ヒス 卜グラム化部 7 1 を 備える。 なお、 以下においては、 上記実施の形態 5 と同一の機能構 成については同一の符番を付し、 その説明は省略する。 パターン分類ヒス トグラム化部 7 1 は、 装着検知部 6 1 から被装 着者が本装置 6 0 0を装着した旨を表わす信号を受信すると、 加速 度センシング部 1 1 から入力された各方向の加速度データが、 予め 決められた一定時間内において、 少なく とも 1 方向の加速度データ の変化パターンに周期性が見られ、 かつ大きな変動がない場合、 一 定時間当たりの加速度データの振幅とその数をサンプリ ングする。
さ らに、 パターン分類ヒス トグラム化部 7 1 は、 一定の仮定、 例 えば、 「通常、 人間の歩行状態を考えた場合に上下方向の加速度変 化の振幅が最も大きく 、 かつ一定の周期があり、 次に前後方向の加 速度変化の振幅が大きく 、 最も小さいのが左右方向の加速度変化で ある。」 かつ 「通常、 人間の歩行では前方に歩く場合はほとんどで ある。」 という仮定の下に、 一定時間当たりのヒス トグラム分布に おける最も大きい振幅を示すセンサに係る方向を上下方向と し、 次 に大きい振幅を示すセンサに係る方向を前後方向と し、 最も小さい 振幅を示すセンサに係る方向を左お方向と判定して、 加速度センシ ング部 1 1 の各方向のセンサが現状、 どの方向に対応づけられてい るかを判断する。 例えば、 図 1 5の例では、 センサ 1 がヒス トグラ ム分布のピークにおける振幅範囲が最も大きいので上下方向、 次に 振幅範囲が大きいセンサ 2が前後方向、 最も振幅範囲が小さいセン サ 3が左右方向と判断する。
なお、 上記図 1 4には示していないが、 本装置 6 0 0は、 上記各 部における処理タイ ミ ング等の制御を行なう制御部 (例えば、 R O Mや R A M等を備える C P U ) を備えている。
次に、 本実施の形態における行動又は姿勢検知装置 6 0 0の動作 について説明する。 図 1 6は、 本装置 6 0 0の動作の流れを示すフ ローチャー トである。 最初に、 装着検知部 6 1 は、 被装着者が本装置 6 0 0を装着した ことを検知すると ( S 1 3 0 1 : Y e s )、 補正を開始する旨を表 わす信号を加速度セ ンシング部 1 1 及びパターン分類ヒス トグラ ム化部 7 1 に送信する。 これにより、 加速度センシング部 1 1 は、 加速度データの収集を開始する ( S 7 0 2 )。
次に、 パターン分類ヒス トグラム化部 7 1 は、 加速度センシング 部 1 1 において収集された加速度データに基づいて上記ヒス 卜グ ラムを作成して ( S 1 6 0 1 ) 被装着者が歩行しているか否かを判 定し ( S 1 6 0 2 )、 歩行していると判定した場合に、 各センサの パラメータの補正を行なう ( S 7 0 5 )。
なお、 パターン分類ヒス トグラム化部 7 1 におけるパターンの分 類を行なう際に、 よ リ精度をあげるために振幅だけではなく 、 周期 時間での比較を行なってもよいし、 フーリエ変換等の周波数解析を 行なう手法を用いてもよい。
以上のように、 本実施の形態における行動又は姿勢検知装置を用 いることによ り、 通常の場合に被装着者の行動と して最も多いだろ う と考えられる行動を基準と して補正を行なう ことで被装着者が 特別な操作を行なわずとも、 自動でパラメータの補正を行なう こと が可能となる。 産業上の利用の可能性
本発明は、 人、 動物又は動物等の動体に装着される行動や姿勢等 を検出するための、 加速度センサを含む装置に適用が可能である。

Claims

請 求 の 範 囲
1 . 動体に装着される特定の装置が内蔵する加速度センサにお ける各加速度方向を表わすパラメータ を補正する加速度センサ軸 情報補正装置であって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得手段と、
取得された前記補正関連情報に基づいて前記パラメータ を補正 する補正手段と
を備えることを特徴とする加速度センサ軸情報補正装置。
2 . 前記加速度センサ軸情報補正装置は、 さらに、
ユーザから、 前記特定の装置の装着場所を示す複数のスィ ッチに 対する押下を受け付けるスィ ッチ受付手段を備え、
前記補正関連情報取得手段は、
受け付けられた前記押下を前記補正関連情報と して取得する ことを特徴とする請求の範囲第 1 項記載の加速度センサ軸情報 補正装置。
3 . 前記加速度センサ軸情報補正装置は、 さらに、
前記動体の所定の行動について、 加速度データを収集する収集手 段と、 収集された前記加速度データに基づいて前記各加速度の方 向を決定する方向決定手段とを備え、
前記補正関連情報取得手段は、
決定された前記加速度の方向を前記補正関連情報と して取得す る こと を特徴とする請求の範囲第 1 項記載の加速度センサ軸情報 補正装置。
4 . 前記加速度センサ軸情報補正装置は、 さ らに、
所定の ト リガに基づいて、前記加速度データの収集を開始するタ イ ミングを決定する補正誘発手段を備え、
前記データ収集手段は、
前記補正誘発手段によって決定されたタイ ミ ングの後に前記加 速度データの収集を行なう
ことを特徴とする請求の範囲第 3項記載の加速度センサ軸情報 補正装置。
5 . 前記補正誘発手段は、
音声を受け付け、 受け付けた音声を前記 ト リガとする
ことを特徴とする請求の範囲第 4項記載の加速度センサ軸情報 補正装置。
6 . 前記補正誘発手段は、
前記特定の装置が前記動体に装着されたことを検出して、 その検 出を前記 ト リガとする
ことを特徴とする請求の範囲第 4項記載の加速度センサ軸情報 補正装置。
7 . 前記加速度センサ軸情報補正装置は、 さらに、
前記所定の行動の内容を音声で指示する音声ガイダンス手段を 備える ことを特徴とする請求の範囲第 3項記載の加速度センサ軸情報 補正装置。
8 . 前記方向決定手段は、
人の歩行に関して、加速度の方向とその加速度の変化の特徴とを 表わす情報とを対応付けて記憶する記憶部と、
前記記憶部から前記加速度の変化の特徴を表わす情報を読み出 し、 前記収集された加速度データに係る加速度の変化の特徴と前記 読み出された情報に係る前記特徴とを比較することによって前記 各加速度の方向を決定する比較決定部とを備える
ことを特徴とする請求の範囲第 3項記載の加速度センサ軸情報 補正装置。
9 . 前記比較決定部は、
最も大きい振幅を示す加速度に係る方向を上下方向と決定し、 次 に大きい振幅を示す加速度に係る方向を前後方向と決定し、 最も小 さい振幅を示す加速度に係る方向を左右方向と決定する
ことを特徴とする請求の範囲第 8項記載の加速度センサ軸情報 補正装置。
1 0 . 内蔵する加速度センサに係る各加速度方向を表わすパラ メータを補正する機能を備える、 動体の行動又は姿勢を検知する行 動又は姿勢検知装置であって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得手段と、
前記取得された補正関連情報に基づいて前記パラメータ を補正 する補正手段と、
補正された前記パラメータに係る加速度センサを用いて、 動体の 行動についての加速度データを収集する収集手段と、
収集された前記加速度データに基づいて、前記動体の行動又は姿 勢を判定する判定手段と
を備えることを特徴とする行動又は姿勢検知装置。
1 1 - 動体に装着される特定の装置が内蔵する加速度センサに おける各加速度方向を表わすパラメータ を補正する加速度センサ 軸情報補正方法であって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得ステップと、
取得された前記補正関連情報に基づいて前記パラメータ を補正 する補正ステップと
を含むことを特徴とする加速度センサ軸情報補正方法。
1 2 . 内蔵する加速度センサに係る各加速度方向を表わすパラ メータを補正する機能を備える、動体の行動又は姿勢を検知する行 動又は姿勢検知方法であって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得ステツプと、
前記取得された補正関連情報に基づいて前記パラメータを補正 する補正ステップと、
前記補正されたパラメータに係る加速度センサを用いて、 動体の 行動についての加速度データを収集する収集ステップと、
収集された前記加速度データに基づいて、 前記動体の行動又は姿 勢を判定する判定ステップと
を含むことを特徴とする行動又は姿勢検知方法。
1 3 . 動体に装着される特定の装置が備える加速度センサに係 る各加速度方向を表わすパラメータ を補正する加速度センサ軸情 報補正装置のためのプログラムであって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得ステップと、
前記取得された補正関連情報に基づいて前記パラメータ を補正 する補正ステップと
をコンピュータに実行させることを特徴とするプログラム。
1 4 . 内蔵する加速度センサに係る各加速度方向を表わすパラ メータを補正する機能を備える、 行動又は姿勢検知装置のためのプ ログラムであって、
前記パラメータの補正に関係する補正関連情報を取得する補正 関連情報取得ステップと、
前記取得された補正関連情報に基づいて前記パラメータ を補正 する補正ステップと、
前記補正されたパラメータに係る加速度センサを用いて、 動体の 行動についての加速度データ を収集する収集ステップと、
前記収集された加速度データに基づいて、 前記動体の行動又は姿 勢を判定する判定ステップと
をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2004/005117 2003-04-11 2004-04-09 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法 WO2004091400A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/542,016 US20060112754A1 (en) 2003-04-11 2004-04-09 Method and device for correcting acceleration sensor axis information
JP2005505377A JPWO2004091400A1 (ja) 2003-04-11 2004-04-09 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003108477 2003-04-11
JP2003-108477 2003-11-04

Publications (1)

Publication Number Publication Date
WO2004091400A1 true WO2004091400A1 (ja) 2004-10-28

Family

ID=33295890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005117 WO2004091400A1 (ja) 2003-04-11 2004-04-09 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法

Country Status (4)

Country Link
US (1) US20060112754A1 (ja)
JP (1) JPWO2004091400A1 (ja)
CN (1) CN1774206A (ja)
WO (1) WO2004091400A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122376A (ja) * 2004-10-29 2006-05-18 Sanyo Electric Co Ltd 運動量計測装置及び運動量計測プログラム
JP2006192276A (ja) * 2005-01-14 2006-07-27 Samsung Electronics Co Ltd 活動パターンの監視方法及びその装置
EP1961465A2 (en) 2007-02-23 2008-08-27 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program and information processing apparatus
EP1962670A2 (en) * 2005-12-15 2008-09-03 Koninklijke Philips Electronics N.V. Detection and compensation method for monitoring the place of activity on the body
JP2009119082A (ja) * 2007-11-15 2009-06-04 Citizen Systems Japan Co Ltd 体動検出装置
US7831846B2 (en) 2006-03-01 2010-11-09 Fujitsu Limited Information processing device with an acceleration sensor
KR20120087890A (ko) * 2009-07-31 2012-08-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 트레이닝 프로그램을 대상에 제공하기 위한 방법 및 시스템
WO2017083824A1 (en) * 2015-11-15 2017-05-18 Wamis Singhatat Feedback wearable

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8055469B2 (en) * 2006-03-03 2011-11-08 Garmin Switzerland Gmbh Method and apparatus for determining the attachment position of a motion sensing apparatus
JP2008129862A (ja) * 2006-11-21 2008-06-05 Omron Healthcare Co Ltd 体動検出装置
US7661588B2 (en) * 2007-03-16 2010-02-16 Target Brands, Inc. Stored-value card with pedometer and clip
US7520170B2 (en) * 2007-07-10 2009-04-21 Freescale Semiconductor, Inc. Output correction circuit for three-axis accelerometer
JP4861357B2 (ja) * 2008-02-28 2012-01-25 京セラ株式会社 傾斜センサ内蔵小型電子機器及び補正方法
JP4626671B2 (ja) * 2008-04-24 2011-02-09 ソニー株式会社 入力装置及び制御システム
DE102008040529B4 (de) * 2008-07-18 2021-05-06 Robert Bosch Gmbh Fehlerkorrekturverfahren und Fehlerkorrekturvorrichtung für einen Beschleunigungssensor
US20100305480A1 (en) * 2009-06-01 2010-12-02 Guoyi Fu Human Motion Classification At Cycle Basis Of Repetitive Joint Movement
JP5244734B2 (ja) * 2009-08-18 2013-07-24 北陸電気工業株式会社 姿勢判定機能付き加速度センサモジュール
JP5101677B2 (ja) * 2010-09-14 2012-12-19 株式会社ソニー・コンピュータエンタテインメント 情報処理システム
JP5058319B2 (ja) 2010-09-14 2012-10-24 株式会社ソニー・コンピュータエンタテインメント 情報処理システム
CN102566796B (zh) * 2011-12-07 2015-03-11 东蓝数码有限公司 智能终端上基于线加速度传感器的人机交互检测及处理方法
WO2013120005A1 (en) * 2012-02-08 2013-08-15 Limonadi Farhad M Method and apparatus for limiting range of motion of body
KR101839258B1 (ko) 2013-10-14 2018-03-15 나이키 이노베이트 씨.브이. 운동 움직임 속성으로부터의 페이스 및 에너지 지출의 계산
CN104977927A (zh) * 2014-04-14 2015-10-14 科沃斯机器人科技(苏州)有限公司 表面处理机器人系统
JP2016033473A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 位置算出方法及び位置算出装置
WO2016085403A1 (en) 2014-11-27 2016-06-02 Razer (Asia-Pacific) Pte. Ltd. Step counter devices and step counting methods
CN105094439B (zh) * 2015-08-17 2019-01-08 上海联影医疗科技有限公司 触摸屏装置的加速度传感器校准、倾角计算方法及装置
TWI574012B (zh) * 2015-08-27 2017-03-11 緯創資通股份有限公司 校正方法與運動器材
CN105617639B (zh) * 2016-02-19 2018-07-24 广州市迅茄软件科技有限公司 智能健身套装设备及其防作弊方法
US10861604B2 (en) * 2016-05-05 2020-12-08 Advinow, Inc. Systems and methods for automated medical diagnostics
CN105943052A (zh) * 2016-05-30 2016-09-21 深圳先进技术研究院 一种疲劳驾驶检测方法及装置
CN107997766A (zh) * 2016-10-31 2018-05-08 上海芝麻开花医疗科技有限公司 步态测试仪
JP6658656B2 (ja) * 2017-03-31 2020-03-04 新東工業株式会社 検出装置
US11164679B2 (en) 2017-06-20 2021-11-02 Advinow, Inc. Systems and methods for intelligent patient interface exam station
US11348688B2 (en) 2018-03-06 2022-05-31 Advinow, Inc. Systems and methods for audio medical instrument patient measurements
CN108670261B (zh) * 2018-04-12 2021-10-15 深圳先进技术研究院 运动状态检测方法、可佩戴设备以及装置
KR102602971B1 (ko) * 2018-12-17 2023-11-17 삼성전자주식회사 균일한 음질의 소리를 출력하기 위한 오디오 장치
US11797026B2 (en) * 2020-05-28 2023-10-24 Seiko Epson Corporation Posture estimation device, sensor module, measurement system, moving object, and posture estimation method
JP2022072338A (ja) * 2020-10-29 2022-05-17 セイコーエプソン株式会社 慣性計測装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191580A (ja) * 2000-10-16 2002-07-09 Omron Corp 体動検出装置
JP2002291723A (ja) * 2001-03-30 2002-10-08 Kumamoto Technopolis Foundation 状態評価システムおよび解析装置
JP2003061935A (ja) * 2001-08-22 2003-03-04 Matsushita Electric Ind Co Ltd 個人情報端末および行動判別システム
JP2003102692A (ja) * 2001-09-28 2003-04-08 Toshiba Corp 生体情報計測装置および健康管理システムおよび健康管理方法
JP2004184351A (ja) * 2002-12-06 2004-07-02 Toshiba Corp 動作情報計測システムおよび動作情報計測方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3430238A (en) * 1967-07-18 1969-02-25 Gen Precision Systems Inc Apparatus for providing an accurate vertical reference in a doppler-inertial navigation system
FR2466607B1 (fr) * 1979-09-27 1985-07-19 Schlumberger Prospection Procede de determination de parametres de direction d'un puits en continu
JP3745067B2 (ja) * 1996-02-20 2006-02-15 キヤノン株式会社 撮像装置及びその制御方法
EP0863381B1 (en) * 1997-03-07 2004-06-02 Pioneer Electronic Corporation Navigation apparatus
US6417767B1 (en) * 2000-03-27 2002-07-09 Craig D. Carlson Device and system for indicating rapid deceleration in vehicles
US6744420B2 (en) * 2000-06-01 2004-06-01 Olympus Optical Co., Ltd. Operation input apparatus using sensor attachable to operator's hand
US6616607B2 (en) * 2000-10-18 2003-09-09 Matsushita Electric Industrial Co., Ltd. State information acquisition system, state information acquisition apparatus, attachable terminal apparatus, and state information acquisition method
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
JP2004085476A (ja) * 2002-08-28 2004-03-18 Sony Corp ヘッドトラッキング方法及び装置
JP2004264060A (ja) * 2003-02-14 2004-09-24 Akebono Brake Ind Co Ltd 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置
US6918186B2 (en) * 2003-08-01 2005-07-19 The Charles Stark Draper Laboratory, Inc. Compact navigation system and method
US7181281B1 (en) * 2003-10-08 2007-02-20 Pacesetter, Inc. ICD using MEMS for optimal therapy

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191580A (ja) * 2000-10-16 2002-07-09 Omron Corp 体動検出装置
JP2002291723A (ja) * 2001-03-30 2002-10-08 Kumamoto Technopolis Foundation 状態評価システムおよび解析装置
JP2003061935A (ja) * 2001-08-22 2003-03-04 Matsushita Electric Ind Co Ltd 個人情報端末および行動判別システム
JP2003102692A (ja) * 2001-09-28 2003-04-08 Toshiba Corp 生体情報計測装置および健康管理システムおよび健康管理方法
JP2004184351A (ja) * 2002-12-06 2004-07-02 Toshiba Corp 動作情報計測システムおよび動作情報計測方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122376A (ja) * 2004-10-29 2006-05-18 Sanyo Electric Co Ltd 運動量計測装置及び運動量計測プログラム
JP4632746B2 (ja) * 2004-10-29 2011-02-16 三洋電機株式会社 運動量計測装置及び運動量計測プログラム
JP2006192276A (ja) * 2005-01-14 2006-07-27 Samsung Electronics Co Ltd 活動パターンの監視方法及びその装置
EP1962670A2 (en) * 2005-12-15 2008-09-03 Koninklijke Philips Electronics N.V. Detection and compensation method for monitoring the place of activity on the body
JP2009519075A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 体におけるアクティビティの位置をモニタする検出及び補償方法
US7831846B2 (en) 2006-03-01 2010-11-09 Fujitsu Limited Information processing device with an acceleration sensor
EP1961465A2 (en) 2007-02-23 2008-08-27 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program and information processing apparatus
JP2009119082A (ja) * 2007-11-15 2009-06-04 Citizen Systems Japan Co Ltd 体動検出装置
KR20120087890A (ko) * 2009-07-31 2012-08-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 트레이닝 프로그램을 대상에 제공하기 위한 방법 및 시스템
KR101698578B1 (ko) 2009-07-31 2017-01-20 코닌클리케 필립스 엔.브이. 트레이닝 프로그램을 대상에 제공하기 위한 방법 및 시스템
WO2017083824A1 (en) * 2015-11-15 2017-05-18 Wamis Singhatat Feedback wearable
US9918663B2 (en) 2015-11-15 2018-03-20 Wamis Singhatat Feedback wearable

Also Published As

Publication number Publication date
US20060112754A1 (en) 2006-06-01
CN1774206A (zh) 2006-05-17
JPWO2004091400A1 (ja) 2006-07-06

Similar Documents

Publication Publication Date Title
WO2004091400A1 (ja) 加速度センサ軸情報補正装置及び加速度センサ軸情報補正方法
CN100399994C (zh) 使用加速度传感器测量体育运动量的设备和方法
US7401495B2 (en) Activity monitoring
JP4612928B2 (ja) 身体動作センシング装置
JP2019113420A (ja) センシングシステム、プログラム、情報処理装置および情報処理方法
JP2013094316A (ja) 歩行分析装置及び歩行分析プログラム
KR102036552B1 (ko) 애완견 배변배뇨 훈련 및 활동량 측정시스템
KR101665773B1 (ko) 의류 장착형 자세교정 시스템
WO2016006479A1 (ja) 活動量測定装置、活動量の測定方法、活動量の測定プログラム
JP5180599B2 (ja) 睡眠状態の判定方法およびシステム
CN107708561B (zh) 指标导出设备、可佩戴设备以及移动设备
JP4885664B2 (ja) 歩数計
JP2005342254A (ja) 歩行周期検出装置
JP2005172625A (ja) 行動検知装置
JP3772887B2 (ja) 体動検出装置
JP2003061935A (ja) 個人情報端末および行動判別システム
JP2000227342A (ja) 歩数計の誤差自動補正方法及び距離計測方法並びに携帯型情報処理装置
US20230118938A1 (en) Breath detecting system and breath detecting mat thereof
CN115607180A (zh) 终端设备控制方法、装置、终端设备及介质
JP7484250B2 (ja) 携帯型心電装置及び心電測定システム
TWI603085B (zh) 動作判定裝置及動作感測器
JP7193392B2 (ja) 情報通信装置および情報通信方法
JP6642770B1 (ja) 運動機能評価装置、運動機能評価システム、運動機能評価プログラムおよび運動機能評価方法
JP6398743B2 (ja) 運動情報測定装置、運動情報測定装置の制御方法、運動情報測定装置の制御プログラム
CN110460925B (zh) 耳机及转换感测数据的系统

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2005505377

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004726793

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006112754

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10542016

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048097389

Country of ref document: CN

WWW Wipo information: withdrawn in national office

Ref document number: 2004726793

Country of ref document: EP

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10542016

Country of ref document: US