WO2017131347A1 - 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
WO2017131347A1
WO2017131347A1 PCT/KR2016/015254 KR2016015254W WO2017131347A1 WO 2017131347 A1 WO2017131347 A1 WO 2017131347A1 KR 2016015254 W KR2016015254 W KR 2016015254W WO 2017131347 A1 WO2017131347 A1 WO 2017131347A1
Authority
WO
WIPO (PCT)
Prior art keywords
pedestrian
inertial sensor
distance
walking
inertial
Prior art date
Application number
PCT/KR2016/015254
Other languages
English (en)
French (fr)
Inventor
김영국
Original Assignee
알바이오텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알바이오텍 주식회사 filed Critical 알바이오텍 주식회사
Publication of WO2017131347A1 publication Critical patent/WO2017131347A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present invention relates to a gait analysis system, a method, and a computer readable recording medium, and more particularly, to measure the position of two-dimensional and three-dimensional positions of an inertial sensor attached to a pedestrian body and to use the measured data to walk the pedestrian.
  • a gait analysis system, method and computer readable recording medium capable of analyzing a condition.
  • an inertial sensor is attached to the patient's body, and the position of the inertial sensor is measured to determine the change in the position of the joint of the patient over time, and the walking state of the patient is determined using the determination result.
  • a method of determining is used.
  • An object of the present invention is to provide a gait analysis system, a method and a computer readable recording medium capable of analyzing the walking state of a pedestrian by measuring the position on a two-dimensional position of a sensor attached to a pedestrian body.
  • Walking analysis system is to calculate the distance between the inertial sensor attached to the lumbar spine, hip, knee and ankle of the pedestrian, at least two cameras for measuring the position of the inertial sensor, the inertial sensor It includes a calculation unit, a receiving unit for receiving the joint angle and the acceleration value from the inertial sensor and a gait analysis unit for analyzing the walking state of the pedestrian using the distance change between the inertial sensor, the joint angle and the acceleration value.
  • the camera may be installed at a position at which the front of the pedestrian is photographed, and the calculating unit may calculate a distance of a two-dimensional image viewed from the front of the pedestrian.
  • the inertial sensor may include an infrared marker or an LED, and the camera may measure the position of the inertial sensor by photographing the infrared marker or the LED.
  • the walking analyzer may analyze a walking cycle, a walking distance, a walking speed, and a walking time point of the pedestrian.
  • the inertial sensor may include a three-axis acceleration sensor, a three-axis gyro sensor, and a geomagnetic field sensor.
  • the gait analysis method the step of attaching an inertial sensor to the lumbar spine, hip, knee and ankle of the pedestrian, measuring the position of the inertial sensor using at least two cameras, Calculating a distance between inertial sensors, calculating joint angles and acceleration values through the inertial sensors, and analyzing walking states of the pedestrians using distance changes between the inertial sensors, the joint angles, and the acceleration values. Steps.
  • the camera may be installed at a position at which the front of the pedestrian is photographed, and in the step of calculating the distance between the inertial sensors, the camera may calculate a two-dimensional distance viewed from the front of the pedestrian.
  • the inertial sensor may include an infrared marker or an LED, and in the measuring of the position of the inertial sensor, the position of the inertial sensor may be measured by photographing the infrared marker or the LED.
  • the walking cycle, the walking distance, the walking speed, and the walking time of the pedestrian may be analyzed.
  • the inertial sensor may include a three-axis acceleration sensor, a three-axis gyro sensor, and a geomagnetic field sensor.
  • a computer-readable recording medium may be provided in which a program for executing the gait analysis method according to the present invention is recorded.
  • the present invention can provide a walking analysis system, a method and a computer-readable recording medium capable of analyzing the walking state of a pedestrian by measuring the position on a two-dimensional position of a sensor attached to a pedestrian body.
  • FIG. 1 is a view schematically showing the configuration of a gait analysis system according to an embodiment of the present invention.
  • FIG. 2 is a view showing the attachment position of the inertial sensor and the inertial sensor according to an embodiment of the present invention.
  • FIG. 3 is a diagram exemplarily illustrating a change in distance between inertial sensors that change with time due to pedestrian walking.
  • FIG. 4 is a diagram exemplarily illustrating a 3D simulation using a gait analysis result.
  • FIG. 5 is a flow chart schematically showing the flow of the gait analysis method according to an embodiment of the present invention.
  • FIG. 1 is a view schematically showing the configuration of a gait analysis system according to an embodiment of the present invention.
  • the gait analysis system 100 includes an inertial sensor 110, a camera 120, a calculator 130, a receiver 140, and a gait analyzer 150. do.
  • the inertial sensor 110 is attached to the body of the pedestrian, more specifically, to the lumbar spine, hip joint, shin and knee of the pedestrian. Accordingly, the inertial sensor 110 may be understood that a plurality of inertial sensors 110 are attached to the pedestrian body.
  • the inertial sensor 110 may include an acceleration sensor, a gyro sensor, and an earth magnetic field sensor.
  • the inertial sensor 110 may calculate the acceleration and the joint angle of each joint of the pedestrian by using data measured from each sensor.
  • the camera 120 measures the position of the inertial sensor 110.
  • the gait analysis system 100 may include at least two or more cameras 120, photograph the inertial sensor 110, and calculate three-dimensional coordinates of the inertial sensor 110.
  • the camera 120 may include a processor (not shown) for calculating three-dimensional coordinates of the inertial sensor 110, and the processor may include an inertial sensor based on a preset absolute center coordinate (0, 0, 0). 3D coordinates of 110) can be calculated.
  • the calculating unit 130 calculates the distance between the inertial sensors 110.
  • the calculation unit 130 may calculate the distance between the inertial sensor attached to the right hip joint and the inertial sensor attached to the right knee, and the distance between the inertial sensor attached to the right knee and the inertial sensor attached to the right ankle. Can be calculated.
  • the distance between the inertial sensors 110 calculated at this time may be understood as the distance of the two-dimensional image, not the distance of the three-dimensional image.
  • the absolute distance in the three-dimensional space between the inertial sensors 110 does not change, since the inertial sensor 110 is fixed at the initial attachment position unless the attachment position is changed from the outside. Therefore, the distance between the inertial sensors 110 calculated by the calculating unit 130 may be understood as a two-dimensional distance when the pedestrian is viewed from the front.
  • the distance between the inertial sensors 110 calculated by the calculator 130 may be transmitted to the gait analyzer 150.
  • the receiver 140 receives the joint angle and the acceleration value from the inertial sensor 110, and the gait analyzer 150 uses the distance change between the inertial sensor 110, the joint angle, and the acceleration value to walk the pedestrian. Analyze the condition.
  • the receiver 140 is illustrated as a separate component in FIG. 1, the present invention is not necessarily limited to this configuration, and the gait analyzer 150 may include the receiver 140.
  • the walking analyzer 150 may analyze a walking cycle, a walking distance, a walking speed, and a walking time point of the pedestrian.
  • the walking speed may be analyzed by integrating the acceleration value measured by the inertial sensor 110 attached to the ankle of the pedestrian, and the walking distance may be analyzed by integrating the walking speed.
  • the walking time can be analyzed using the angular velocity value measured by the inertial sensor 110 attached to the ankle of the pedestrian.
  • the angular velocity value can be analyzed by substituting the hill climbing algorithm, and the walking period is It can be analyzed based on the joint angle measured by the inertial sensor 110 attached to the pedestrian's knee.
  • FIG. 2 is a view showing the attachment position of the inertial sensor and the inertial sensor according to an embodiment of the present invention.
  • FIG. 2 (a) shows the position at which the inertial sensor 110 is attached.
  • the inertial sensor 110 may be attached to the lumbar spine, hip joint, knee and ankle of the pedestrian.
  • a total of seven inertial sensors S1 to S7 are used, and the operation unit 130 described with reference to FIG. 1. ) Calculates the distance between the inertial sensor S1 and the inertial sensor S3 and the distance between the inertial sensor S3 and the inertial sensor S5.
  • the inertial sensors S1, S3, and S5 are attached to the right side of the pedestrian, and the calculating unit 130 calculates the distance between the inertial sensors also for the inertial sensors S2, S4, and S6 attached to the left side of the pedestrian.
  • the inertial sensor 110 may include an acceleration sensor, a gyro sensor, and a geomagnetic field sensor.
  • the inertial sensor 110 may include an infrared marker or an LED.
  • the infrared marker and the LED is for the camera 120 to accurately measure the position of the inertial sensor 110, the camera 120 measures the position of the inertial sensor 110 by photographing the infrared marker or LED. can do.
  • FIG. 3 is a diagram exemplarily illustrating a change in distance between inertial sensors that change with time due to pedestrian walking.
  • FIG. 3 shows the attachment position of the inertial sensor when the pedestrian is viewed from the front.
  • the distance between the inertial sensor S1 and the inertial sensor S3 is shown as d1, d1 ′, and d1 ′′, respectively, and the inertial sensor S2 and the inertial sensor ( The distance between S4) is d2, d2 ', d2' ', and the distance between inertial sensor S3 and inertial sensor S5 is d3, d3', d3 '', and inertial sensor S4 and inertial sensor S6, respectively. ) Is shown as d4, d4 ', and d4' ', respectively.
  • FIG 3 (a) shows the position of the inertial sensor when the pedestrian stands in a floating position before starting to walk, the inertial sensors (S1, S2) attached to the hip joint of the pedestrian, the inertial sensor attached to the knee S3 and S4 and inertial sensors S5 and S6 attached to the ankle are measured to be in the same position with respect to the ground.
  • FIG. 3 (b) shows the position of the inertial sensor when the pedestrian lifts his left leg to start walking.
  • the left knee is lifted up, so that the inertial sensor S2 attached to the left hip joint and the inertial sensor attached to the left knee as shown in FIG.
  • the distance d2 'between S4 becomes shorter than the initial distance d2.
  • the absolute distance between the inertial sensors 110 does not change while the pedestrian walks, but when the pedestrian is viewed from the front, the position of each joint is changed while the inertial sensors 110 are separated from each other.
  • the position on the two-dimensional surface changes. That is, the position on the two-dimensional can be understood to mean the height difference of the inertial sensor 110 with respect to the ground.
  • the inertial sensor having the largest distance change is the distance d2 and d2 ′ between the inertial sensor S2 and the inertial sensor S4, and the distance between the inertial sensor S4 and the inertial sensor S6.
  • (d4, d4 ') changes within a relatively small range.
  • the distance d1 'between the inertial sensor S1 and the inertial sensor S3 and the distance d3' between the inertial sensor S3 and the inertial sensor S5 are similar to the distances d4 and d4 '. It is changed within a small range compared to (d2, d2 ').
  • the leg on the side which becomes the stepping foot is inclined forward, and thus the distance d1 'between the inertial sensor S1 and the inertial sensor S3 and between the inertial sensor S3 and the inertial sensor S5.
  • the distance d3 ' is shorter than the distances d1 and d3 before starting walking.
  • FIG. 3 (c) shows the position of the inertial sensor 110 at the moment when the foot which the pedestrian stepped on again touches the ground. Referring to FIG. 3 (c), it can be seen that the positions of the inertial sensors S1, S2, S3, S4, and S7 attached to the lumbar spine, hip joint, and knee of the pedestrian are lower than those of FIG. 3 (a). .
  • the distance d2 ′′ between the inertial sensor S2 and the inertial sensor S4 may be shorter than the distance d2 ′ in FIG. 3B.
  • the joint angles measured by the inertial sensors S1 and S2 attached to the hip joint of the pedestrian and the inertial sensors S3 and S4 attached to the knee are measured in the state of FIG. 3 (b), and FIG. 3 (c).
  • the joint angle measured at is measured larger than in FIG. 3 (a) and smaller than in FIG. 3 (b).
  • the distance between the inertial sensor S2 and the inertial sensor S4 is inclined at an angle smaller than that in FIG. 3 (b) with respect to the direction perpendicular to the ground. ') May be calculated shorter than the distance d2' in FIG. 3 (b).
  • the distance between the inertial sensor (S1) and the inertial sensor (S3) in the state in which the pedestrian's stride is inclined to the maximum based on the direction perpendicular to the ground, the femur and the tibia of the leg, which is the step of the pedestrian.
  • the gait analysis for the pedestrian may be performed using the two-dimensional position of the inertial sensors S1 to S7 attached to the body of the pedestrian, but the walking is more accurate.
  • data such as the acceleration and the joint angle measured by the inertial sensor 110.
  • FIG. 4 is a diagram exemplarily illustrating a 3D simulation using a gait analysis result.
  • Figure 4 shows the appearance of the skeleton during walking of the pedestrian to be the target of the gait analysis using the gait analysis system 100 according to the present invention.
  • the lengths of the pedestrian's femur and the tibia may be measured in advance before gait analysis and reflected in the simulation model, or the distance between the inertial sensors 110 attached to the body of the pedestrian may be reflected.
  • the femur of the pedestrian using different changes in time of the distance between the inertial sensors S1 to S7.
  • the angle of inclination can be calculated based on the direction in which the tibia is perpendicular to the ground.
  • the three-dimensional position of the inertial sensor (S1 to S7) to distinguish the stepping foot and the stepped foot, it is possible to determine the moving direction of the pedestrian.
  • a simulation model may be generated as shown in FIG. 4 by using the acceleration and joint angles measured by the inertial sensors S1 to S7 and the distance between the inertial sensors S1 to S7 calculated by the calculator 130. Gait analysis over time is possible.
  • FIG. 5 is a flow chart schematically showing the flow of the gait analysis method according to an embodiment of the present invention.
  • the inertial sensor attaching step S110 the inertial sensor position measuring step S120, the step of calculating the distance between the inertial sensors S130, and the joint angle And an acceleration calculation step S140 and a walking state analysis step S150.
  • Attaching the inertial sensor attaches the inertial sensor to the lumbar spine, hip, knee and ankle of the pedestrian.
  • the inertial sensor is attached to the main joint portion to analyze the walking state of the pedestrian, and thus it may be understood that a plurality of the inertial sensors are attached to the pedestrian body.
  • the inertial sensor may include an acceleration sensor, a gyro sensor, and an earth magnetic field sensor, and the acceleration and the joint angle of each joint of the pedestrian may be calculated using data measured from each sensor.
  • the position of the inertial sensor is measured using at least two cameras.
  • the camera may photograph the inertial sensor and calculate three-dimensional coordinates of the inertial sensor.
  • the camera may include a processor for calculating three-dimensional coordinates of the inertial sensor, and the processor calculates three-dimensional coordinates of the inertial sensor based on a preset absolute center coordinate (0, 0, 0). can do.
  • the distance between the inertial sensors is calculated. For example, in the step of calculating the distance between the inertial sensors (S130), the distance between the inertial sensor attached to the right hip joint and the inertial sensor attached to the right knee may be calculated, and the inertial sensor attached to the right knee and the right The distance between the inertial sensors attached to the ankle can be calculated.
  • the distance between the inertial sensors calculated at this time may be understood as the distance of the two-dimensional image, not the distance of the three-dimensional image.
  • the absolute distance in three dimensions between the inertial sensors does not change since the inertial sensor is fixed at the first attaching position unless the attachment position is changed from the outside. Therefore, the distance between the inertial sensors calculated in step S130 may be understood as a two-dimensional distance when the pedestrian is viewed from the front, and the camera may be understood as being installed at a position to photograph the front of the pedestrian. have.
  • the inertial sensor may include an infrared marker or an LED, and in step S120 of measuring the position of the inertial sensor, the position of the inertial sensor may be measured by photographing the infrared marker or the LED.
  • the joint angle and the acceleration value are calculated using the inertial sensor, and in the walking state analysis step (S150), the distance is changed between the inertial sensors and the joint angle and the acceleration value are used. Analyze the walking condition of pedestrians.
  • the walking cycle, the walking distance, the walking speed, and the walking time point of the pedestrian may be analyzed.
  • the walking speed may be analyzed by integrating an acceleration value measured by an inertial sensor attached to the ankle of the pedestrian, and the walking distance may be analyzed by integrating the walking speed.
  • the walking time can be analyzed using an angular velocity value measured by an inertial sensor attached to the ankle of the pedestrian.
  • the angular velocity value can be analyzed by substituting the Hill Climbing Algorithm. Analysis is possible based on the joint angle measured by the inertial sensor attached to the sensor.
  • the present invention can be embodied as computer readable codes on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which may also be implemented in the form of carrier waves (eg, transmission over the Internet). It includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
  • the present invention relates to a gait analysis system, a method, and a computer readable recording medium, and more particularly, to measure the position of two-dimensional and three-dimensional positions of an inertial sensor attached to a pedestrian body and to use the measured data to walk the pedestrian.
  • a gait analysis system, method and computer readable recording medium capable of analyzing a condition.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록매체가 개시된다. 본 발명의 일 실시예에 따른 보행 분석 시스템은, 보행자의 요추, 고관절, 무릎 및 발목에 부착되는 관성 센서, 상기 관성 센서의 위치를 측정하는 적어도 두 개 이상의 카메라, 상기 관성 센서 사이의 거리를 계산하는 연산부, 상기 관성 센서로부터 관절각과 가속도 값을 수신하는 수신부 및 상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석하는 보행 분석부를 포함한다.

Description

보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
본 발명은 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 구체적으로는 보행자 신체에 부착된 관성 센서의 2차원 및 3차원 상에서의 위치를 측정하고 측정된 데이터를 이용하여 보행자의 보행 상태를 분석할 수 있는 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
사고로 인한 유휴 장애를 가진 환자의 재활을 위해 다양한 방법이 제안되어 왔으며, 일반적으로 환자의 신체에 센서를 부착하고 센서로부터 획득되는 데이터를 이용하여 환자의 상태를 모니터링 하는 방법이 이용되고 있다.
재활 환자의 보행 상태를 모니터링을 하는 방법으로는 환자의 신체에 관성 센서를 부착하고, 관성 센서의 위치를 측정함으로써 시간에 따른 환자의 관절 위치 변화를 판단하고, 판단 결과를 이용하여 환자의 보행 상태를 판단하는 방법이 이용되고 있다.
본 발명은 보행자 신체에 부착된 센서의 2차원 상에서의 위치를 측정함으로써 보행자의 보행 상태를 분석할 수 있는 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 보행 분석 시스템은 보행자의 요추, 고관절, 무릎 및 발목에 부착되는 관성 센서, 상기 관성 센서의 위치를 측정하는 적어도 두 개 이상의 카메라, 상기 관성 센서 사이의 거리를 계산하는 연산부, 상기 관성 센서로부터 관절각과 가속도 값을 수신하는 수신부 및 상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석하는 보행 분석부를 포함한다.
또한, 상기 카메라는 상기 보행자의 정면을 촬영하는 위치에 설치되며, 상기 연산부는 상기 보행자의 정면에서 바라보는 2차원 상의 거리를 계산할 수 있다.
또한, 상기 관성 센서는 적외선 마커 또는 LED를 포함하고, 상기 카메라는 상기 적외선 마커 또는 LED를 촬영함으로써, 상기 관성 센서의 위치를 측정할 수 있다.
또한, 상기 보행 분석부는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석할 수 있다.
또한, 상기 관성 센서는 3축 가속도 센서, 3축 자이로 센서 및 지자계 센서를 포함할 수 있다.
한편, 본 발명의 일 실시예에 따른 보행 분석 방법은 보행자의 요추, 고관절, 무릎 및 발목에 관성 센서를 부착하는 단계, 적어도 두 개 이상의 카메라를 이용하여 상기 관성 센서의 위치를 측정하는 단계, 상기 관성 센서 사이의 거리를 계산하는 단계, 상기 관성 센서를 통해 관절각과 가속도 값을 산출하는 단계 및 상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석하는 단계를 포함한다.
또한, 상기 카메라는 상기 보행자의 정면을 촬영하는 위치에 설치되며, 상기 관성 센서 사이의 거리를 계산하는 단계에서는 상기 보행자의 정면에서 바라보는 2차원 상의 거리를 계산할 수 있다.
또한, 상기 관성 센서는 적외선 마커 또는 LED를 포함하고, 상기 관성 센서의 위치를 측정하는 단계에서는 상기 적외선 마커 또는 LED를 촬영함으로써, 상기 관성 센서의 위치를 측정할 수 있다.
또한, 상기 보행자의 보행 상태를 분석하는 단계에서는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석할 수 있다.
또한, 상기 관성 센서는 3축 가속도 센서, 3축 자이로 센서 및 지자계 센서를 포함할 수 있다.
또한, 본 발명에 따른 보행 분석 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체가 제공될 수 있다.
본 발명은 보행자 신체에 부착된 센서의 2차원 상에서의 위치를 측정함으로써 보행자의 보행 상태를 분석할 수 있는 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 보행 분석 시스템의 구성을 개략적으로 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 관성 센서와 관성 센서의 부착 위치를 나타내는 도면이다.
도 3은 보행자의 보행에 의해 시간에 따라 변화하는 관성 센서 사이의 거리 변화를 예시적으로 나타내는 도면이다.
도 4는 보행 분석 결과를 이용한 3D 시뮬레이션을 예시적으로 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 보행 분석 방법의 흐름을 개략적으로 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
도 1은 본 발명의 일 실시예에 따른 보행 분석 시스템의 구성을 개략적으로 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 보행 분석 시스템(100)은 관성 센서(110), 카메라(120), 연산부(130), 수신부(140) 및 보행 분석부(150)를 포함한다.
관성 센서(110)는 보행자의 신체에 부착되며, 보다 구체적으로는 보행자의 요추, 고관절, 정강이 및 무릎에 부착된다. 따라서, 관성 센서(110)는 복수 개가 상기 보행자 신체에 부착되는 것으로 이해할 수 있다.
관성 센서(110)는 가속도 센서, 자이로 센서 및 지자계 센서를 포함할 수 있으며, 각각의 센서로부터 측정된 데이터를 이용하여 상기 보행자의 각 관절의 가속도 및 관절각을 산출할 수 있다.
카메라(120)는 관성 센서(110)의 위치를 측정한다. 본 발명의 일 실시예에 따른 보행 분석 시스템(100)은 적어도 두 개 이상의 카메라(120)를 포함할 수 있으며, 관성 센서(110)를 촬영하고, 관성 센서(110)의 3차원 좌표를 산출한다. 카메라(120)는 관성 센서(110)의 3차원 좌표를 산출하기 위한 프로세서(미도시)를 포함할 수 있으며, 상기 프로세서는 미리 설정된 절대 중심 좌표(0, 0, 0)를 기준으로 관성 센서(110)의 3차원 좌표를 산출할 수 있다.
연산부(130)는 관성 센서(110) 사이의 거리를 계산한다. 예를 들어, 연산부(130)는 오른쪽 고관절에 부착되는 관성 센서와 오른쪽 무릎에 부착되는 관성 센서 사이의 거리를 계산할 수 있으며, 오른쪽 무릎에 부착되는 관성 센서와 오른쪽 발목에 부착되는 관성 센서 사이의 거리를 계산할 수 있다.
한편, 이때 계산되는 관성 센서(110) 사이의 거리는 3차원 상의 거리가 아닌 2차원 상의 거리로 이해할 수 있다. 상기 보행자 신체에 관성 센서(110)가 부착되면 외부에서 부착 위치를 변경하지 않는 이상, 최초 부착되는 위치에 고정되므로 관성 센서(110) 사이의 3차원 상에서의 절대적인 거리는 변화하지 않는다. 따라서, 연산부(130)에서 계산되는 관성 센서(110) 사이의 거리는 상기 보행자를 정면에서 바라보았을때의 2차원 상의 거리로 이해할 수 있다.
또한, 연산부(130)에서 계산된 관성 센서(110) 사이의 거리는 보행 분석부(150)로 전송될 수 있다.
수신부(140)는 관성 센서(110)로부터 관절각과 가속도 값을 수신하며, 보행 분석부(150)는 관성 센서(110) 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석한다. 도 1에서 수신부(140)는 별도의 구성 요소로 도시되어 있으나, 반드시 이러한 구성으로 본 발명이 제한되는 것은 아니며, 보행 분석부(150)가 수신부(140)를 포함할 수 있다.
보행 분석부(150)는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석할 수 있다. 보행 속도는 상기 보행자의 발목에 부착되는 관성 센서(110)에서 측정되는 가속도 값을 적분함으로써 분석 가능하며, 보행 거리는 보행 속도를 적분함으로써 분석할 수 있다.
보행 시점은 상기 보행자의 발목에 부착되는 관성 센서(110)에서 측정되는 각속도 값을 이용하여 분석 가능하며, 예를 들어, 상기 각속도 값을 Hill Climbing Algorithm에 대입하여 분석할 수 있으며, 보행 주기는 상기 보행자의 무릎에 부착되는 관성 센서(110)에서 측정되는 관절각을 기반으로 분석 가능하다.
한편, 관성 센서(110) 사이의 거리 변화를 이용하여 상기 보행자의 보행 분석이 가능하며, 이는 도 3을 참조로 하여 보다 구체적으로 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 관성 센서와 관성 센서의 부착 위치를 나타내는 도면이다.
먼저 도 2(a)는 관성 센서(110)가 부착되는 위치를 나타낸다. 도 2(a)를 참조하면, 관성 센서(110)는 보행자의 요추, 고관절, 무릎 및 발목에 부착될 수 있다. 도 2(a)에 도시되는 바와 같이, 본 발명의 일 실시예에 따른 보행 분석 시스템(100)에서는 총 7개의 관성 센서(S1 내지 S7)가 사용되며, 도 1을 참조로 하여 설명한 연산부(130)는 관성 센서(S1)와 관성 센서(S3) 사이의 거리, 관성 센서(S3)와 관성 센서(S5) 사이의 거리를 계산한다.
관성 센서(S1, S3, S5)는 보행자의 오른쪽에 부착되며, 연산부(130)는 상기 보행자의 왼쪽에 부착되는 관성 센서(S2, S4, S6)에 대해서도 관성 센서 사이의 거리를 계산한다.
도 2(b)는 본 발명의 일 실시예에 따른 관성 센서(110)를 나타낸다. 도 1을 참조로 하여 설명한 바와 같이, 관성 센서(110)는 가속도 센서, 자이로 센서 및 지자계 센서를 포함할 수 있다.
또한, 관성 센서(110)는 적외선 마커 또는 LED를 포함할 수 있다. 상기 적외선 마커와 LED는 카메라(120)가 관성 센서(110)의 위치를 정확하게 측정할 수 있도록 하기 위함이며, 카메라(120)는 상기 적외선 마커 또는 LED를 촬영함으로써 관성 센서(110)의 위치를 측정할 수 있다.
도 3은 보행자의 보행에 의해 시간에 따라 변화하는 관성 센서 사이의 거리 변화를 예시적으로 나타내는 도면이다.
도 3(a)부터 도 3(c)는 보행자가 최초 정지 상태에서 왼발을 내딛고, 왼발이 다시 지면에 닿기까지의 과정을 예시적으로 나타낸다. 도 3을 참조하면, 7개의 관성 센서(S1 내지 S7)가 도시되며, 상기 보행자의 요추에 부착되는 관성 센서(S7), 오른쪽 고관절, 무릎 및 발목에 부착되는 관성 센서(S1, S3, S5) 및 왼쪽 고관절, 무릎 및 발목에 부착되는 관성 센서(S2, S4, S6)가 도시된다. 따라서, 도 3은 상기 보행자를 정면으로 바라보았을 때의 관성 센서의 부착 위치를 나타내는 것으로 이해할 수 있다.
한편, 도 3(a) 내지 도 3(c)에서 관성 센서(S1)와 관성 센서(S3) 사이의 거리는 각각 d1, d1', d1''으로 도시되며, 관성 센서(S2)와 관성 센서(S4) 사이의 거리는 각각 d2, d2', d2'', 관성 센서(S3)와 관성 센서(S5) 사이의 거리는 각각 d3, d3', d3'', 그리고 관성 센서(S4)와 관성 센서(S6) 사이의 거리는 각각 d4, d4', d4''로 도시된다.
도 3(a)는 상기 보행자가 보행을 시작하기 전 부동 자세로 서 있을 때의 관성 센서의 위치를 나타내므로, 상기 보행자의 고관절에 부착되는 관성 센서(S1, S2), 무릎에 부착되는 관성 센서(S3, S4) 및 발목에 부착되는 관성 센서(S5, S6)는 지면을 기준으로 서로 동일한 위치에 있는 것을 측정된다.
도 3(b)는 상기 보행자가 왼쪽 다리를 들어 보행을 시작할 때의 관성 센서의 위치를 나타낸다. 상기 보행자가 왼쪽 다리를 들어 보행을 시작할 때, 왼쪽 무릎이 위로 들어 올려지므로, 도 3(b)에 도시되는 바와 같이, 왼쪽 고관절에 부착된 관성 센서(S2)와 왼쪽 무릎에 부착된 관성 센서(S4) 사이의 거리(d2')는 최초 거리(d2)보다 짧아지게 된다.
도 1을 참조로 하여 설명한 바와 같이, 관성 센서(110) 사이의 절대적인 거리는 상기 보행자가 보행하는 동안에 변하지 않지만, 상기 보행자를 정면에서 바라보았을 때에는 각 관절의 위치가 변화하면서 관성 센서(110) 사이의 2차원 상에서의 위치는 변하게 된다. 즉, 상기 2차원 상에서의 위치는 지면을 기준으로 하는 관성 센서(110)의 높이 차이를 의미하는 것으로 이해할 수 있다.
도 3(b)에서 거리 변화가 가장 큰 관성 센서는 관성 센서(S2)와 관성 센서(S4) 사이의 거리(d2, d2')이며, 관성 센서(S4)와 관성 센서(S6) 사이의 거리(d4, d4')는 상대적으로 작은 범위 내에서 변화하게 된다. 한편, 관성 센서(S1)와 관성 센서(S3) 사이의 거리(d1'), 관성 센서(S3)와 관성 센서(S5) 사이의 거리(d3')는 거리(d4, d4')와 마찬가지로 거리(d2, d2')에 비하여 작은 범위 내에서 변화하게 된다.
보행을 시작할 때 디딤발이 되는 쪽의 다리는 앞쪽으로 기울어지게 되며, 이에 따라 관성 센서(S1)와 관성 센서(S3) 사이의 거리(d1')와 관성 센서(S3)와 관성 센서(S5) 사이의 거리(d3')는 보행을 시작하기 전의 거리(d1, d3)보다 짧아지게 된다.
또한, 도 3(b)에서 왼쪽 발목에 부착된 관성 센서(S6)의 위치는 오른쪽 발목에 부착된 관성 센서(S5) 보다 지면을 기준으로 높은 곳에 위치하는 것을 확인할 수 있다. 따라서, 카메라(120)를 이용하여 측정된 각 관성 센서(110)가 도 3(b)와 같이 나타나는 경우, 상기 보행자가 보행을 시작하여 내딛는 발이 지면에 닿기 전의 상태인 것으로 판단할 수 있다.
도 3(c)는 상기 보행자가 내딛은 발이 다시 지면에 닿는 순간의 관성 센서(110)의 위치를 나타낸다. 도 3(c)를 참조하면, 상기 보행자의 요추, 고관절 및 무릎에 부착된 관성 센서(S1, S2, S3, S4, S7)의 위치가 도 3(a)에서의 위치보다 낮아진 것을 확인할 수 있다.
상기 보행자가 발을 내딛고 내딛은 발이 다시 지면에 닿을 때 상기 보행자의 신체는 상기 보행자의 보폭에 대응하는 만큼 아래 방향으로 이동하게 되므로, 도 3(c)에 도시되는 바와 같이, 상기 보행자의 발목에 부착되는 관성 센서(S5, S6)를 제외한 관성 센서(S1, S2, S3, S4, S7)의 위치는 도 3(a)에서의 위치보다 낮게 측정된다.
한편, 도 3(c)에서 관성 센서(S2)와 관성 센서(S4) 사이의 거리(d2'')는 도 3(b)에서의 거리(d2')보다 짧게 계산될 수 있다. 상기 보행자의 고관절에 부착되는 관성 센서(S1, S2)와 무릎에 부착되는 관성 센서(S3, S4)에서 측정되는 관절각은 도 3(b)의 상태에서 가장 크게 측정되며, 도 3(c)에서 측정되는 관절각은 도 3(a)에서보다는 크고 도 3(b)에서보다는 작게 측정된다.
따라서, 도 3(c)에서는 상기 보행자의 대퇴골이 지면에 수직인 방향을 기준으로 도 3(b)에서보다 작은 각도로 기울어지므로 관성 센서(S2)와 관성 센서(S4) 사이의 거리(d2'')는 도 3(b)에서의 거리(d2')보다 짧게 계산될 수 있다. 또한, 상기 보행자의 보폭이 최대인 상태에서는 상기 보행자의 디딤발이 되는 다리의 대퇴골과 정강이뼈가 지면에 수직인 방향을 기준으로 최대로 기울어지므로 관성 센서(S1)와 관성 센서(S3) 사이의 거리(d1''), 관성 센서(S3)와 관성 센서(S5) 사이의 거리(d3'')는, 도 3(a)에서의 거리(d1, d3) 및 도 3(b)에서 측정되는 거리(d1', d3')보다 짧게 측정될 수 있다.
한편, 도 3을 참조로 하여 설명한 바와 같이, 상기 보행자의 신체에 부착되는 관성 센서(S1 내지 S7)의 2차원 상에서의 위치를 이용하여 상기 보행자에 대한 보행 분석을 수행할 수 있으나, 보다 정확한 보행 속도, 보행 거리 등을 분석하기 위해서는 관성 센서(110)에서 측정되는 가속도 및 관절각 등의 데이터를 이용하는 것이 바람직하다.
또한, 관성 센서(110), 특히 상기 보행자의 발목에 부착되는 관성 센서(S5, S6)의 3차원 위치를 이용하여 상기 보행자의 보행 속도를 분석할 수 있으며, 분석된 상기 보행 속도를 적분하면 상기 보행자의 보행 거리를 분석하는 것이 가능하다.
도 4는 보행 분석 결과를 이용한 3D 시뮬레이션을 예시적으로 나타내는 도면이다.
도 4는 본 발명에 따른 보행 분석 시스템(100)을 이용하여 보행 분석의 대상이 되는 보행자의 보행 중 골격의 모습을 나타낸다. 도 4에서 상기 보행자의 대퇴골과 정강이뼈의 길이는 보행 분석에 앞서 미리 측정되어 시뮬레이션 모델에 반영될 수 있으며, 또는 상기 보행자의 신체에 부착되는 관성 센서(110) 사이의 거리가 반영될 수 있다.
상기 보행자의 대퇴골과 정강이뼈의 길이는 하나의 값을 결정되어 있으므로, 도 3을 참조로 하여 설명한 바와 같이, 관성 센서(S1 내지 S7) 사이의 거리의 시간에 다른 변화를 이용하여 상기 보행자의 대퇴골과 정강이뼈가 지면에 수직인 방향을 기준으로 기울어진 각도를 계산할 수 있다. 또한, 관성 센서(S1 내지 S7)의 3차원 상의 위치를 이용하여 디딤발과 내딛는 발을 구분하고, 상기 보행자의 이동 방향을 판단할 수 있다.
관성 센서(S1 내지 S7)에서 측정된 가속도와 관절각, 연산부(130)에서 계산된 관성 센서(S1 내지 S7) 사이의 거리를 이용하여 도 4에 도시되는 바와 같이 시뮬레이션 모델을 생성할 수 있으며, 시간에 따른 보행 분석이 가능하다.
도 5는 본 발명의 일 실시예에 따른 보행 분석 방법의 흐름을 개략적으로 나타내는 순서도이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 보행 분석 방법은, 관성 센서 부착 단계(S110), 관성 센서 위치 측정 단계(S120), 관성 센서 사이의 거리를 계산 단계(S130), 관절각 및 가속도 산출 단계(S140) 및 보행 상태 분석 단계(S150)를 포함한다.
관성 센서 부착 단계(S110)에서는 보행자의 요추, 고관절, 무릎 및 발목에 관성 센서를 부착한다. 상기 관성 센서는 상기 보행자의 보행 상태를 분석할 수 있도록 주요 관절 부분에 부착되며, 따라서 복수 개가 상기 보행자 신체에 부착되는 것으로 이해할 수 있다. 또한, 상기 관성 센서는 가속도 센서, 자이로 센서 및 지자계 센서를 포함할 수 있으며, 각각의 센서로부터 측정된 데이터를 이용하여 상기 보행자의 각 관절의 가속도 및 관절각을 산출할 수 있다.
관성 센서 위치 측정 단계(S120)에서는 적어도 두 개 이상의 카메라를 이용하여 상기 관성 센서의 위치를 측정한다. 상기 카메라는 상기 관성 센서를 촬영하고, 상기 관성 센서의 3차원 좌표를 산출할 수 있다. 또한, 상기 카메라는 상기 관성 센서의 3차원 좌표를 산출하기 위한 프로세서를 포함할 수 있으며, 상기 프로세서는 미리 설정된 절대 중심 좌표(0, 0, 0)를 기준으로 상기 관성 센서의 3차원 좌표를 산출할 수 있다.
관성 센서 사이의 거리를 계산 단계(S130)에서는 상기 관성 센서 사이의 거리를 계산한다. 예를 들어, 관성 센서 사이의 거리를 계산하는 단계에서(S130)는 오른쪽 고관절에 부착되는 관성 센서와 오른쪽 무릎에 부착되는 관성 센서 사이의 거리를 계산할 수 있으며, 오른쪽 무릎에 부착되는 관성 센서와 오른쪽 발목에 부착되는 관성 센서 사이의 거리를 계산할 수 있다.
한편, 이때 계산되는 상기 관성 센서 사이의 거리는 3차원 상의 거리가 아닌 2차원 상의 거리로 이해할 수 있다. 상기 보행자 신체에 관성 센서가 부착되면 외부에서 부착 위치를 변경하지 않는 이상, 최초 부착되는 위치에 고정되므로 관성 센서 사이의 3차원 상에서의 절대적인 거리는 변화하지 않는다. 따라서, 단계(S130)에서 계산되는 상기 관성 센서 사이의 거리는 상기 보행자를 정면에서 바라보았을 때의 2차원 상의 거리로 이해할 수 있으며, 상기 카메라는 상기 보행자의 정면을 촬영하는 위치에 설치되는 것으로 이해할 수 있다.
그리고, 상기 관성 센서는 적외선 마커 또는 LED를 포함할 수 있으며, 상기 관성 센서의 위치를 측정하는 단계(S120)에서는 상기 적외선 마커 또는 LED를 촬영함으로써, 상기 관성 센서의 위치를 측정할 수 있다.
관절각 및 가속도 산출 단계(S140)에서는 상기 관성 센서를 통해 관절각과 가속도 값을 산출하고, 보행 상태 분석 단계(S150)에서는 상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석한다.
보행 상태 분석 단계(S150)에서는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석할 수 있다. 보행 속도는 상기 보행자의 발목에 부착되는 관성 센서에서 측정되는 가속도 값을 적분함으로써 분석 가능하며, 보행 거리는 보행 속도를 적분함으로써 분석할 수 있다.
보행 시점은 상기 보행자의 발목에 부착되는 관성 센서에서 측정되는 각속도 값을 이용하여 분석 가능하며, 예를 들어, 상기 각속도 값을 Hill Climbing Algorithm에 대입하여 분석할 수 있으며, 보행 주기는 상기 보행자의 무릎에 부착되는 관성 센서에서 측정되는 관절각을 기반으로 분석 가능하다.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다.
또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라, 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
본 발명은 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 구체적으로는 보행자 신체에 부착된 관성 센서의 2차원 및 3차원 상에서의 위치를 측정하고 측정된 데이터를 이용하여 보행자의 보행 상태를 분석할 수 있는 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.

Claims (11)

  1. 보행자의 요추, 고관절, 무릎 및 발목에 부착되는 관성 센서;
    상기 관성 센서의 위치를 측정하는 적어도 두 개 이상의 카메라;
    상기 관성 센서 사이의 거리를 계산하는 연산부;
    상기 관성 센서로부터 관절각과 가속도 값을 수신하는 수신부; 및
    상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석하는 보행 분석부;
    를 포함하는 보행 분석 시스템.
  2. 제1항에 있어서,
    상기 카메라는 상기 보행자의 정면을 촬영하는 위치에 설치되며,
    상기 연산부는 상기 보행자의 정면에서 바라보는 2차원 상의 거리를 계산하는 보행 분석 시스템.
  3. 제1항에 있어서,
    상기 관성 센서는 적외선 마커 또는 LED를 포함하고,
    상기 카메라는 상기 적외선 마커 또는 LED를 촬영함으로써, 상기 관성 센서의 위치를 측정하는 보행 분석 시스템.
  4. 제1항에 있어서,
    상기 보행 분석부는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석하는 보행 분석 시스템.
  5. 제1항에 있어서,
    상기 관성 센서는 3축 가속도 센서, 3축 자이로 센서 및 지자계 센서를 포함하는 보행 분석 시스템.
  6. 보행자의 요추, 고관절, 무릎 및 발목에 관성 센서를 부착하는 단계;
    적어도 두 개 이상의 카메라를 이용하여 상기 관성 센서의 위치를 측정하는 단계;
    상기 관성 센서 사이의 거리를 계산하는 단계;
    상기 관성 센서를 통해 관절각과 가속도 값을 산출하는 단계; 및
    상기 관성 센서 사이의 거리 변화, 상기 관절각 및 상기 가속도 값을 이용하여 상기 보행자의 보행 상태를 분석하는 단계;
    를 포함하는 보행 분석 방법.
  7. 제6항에 있어서,
    상기 카메라는 상기 보행자의 정면을 촬영하는 위치에 설치되며,
    상기 관성 센서 사이의 거리를 계산하는 단계에서는 상기 보행자의 정면에서 바라보는 2차원 상의 거리를 계산하는 보행 분석 방법.
  8. 제6항에 있어서,
    상기 관성 센서는 적외선 마커 또는 LED를 포함하고,
    상기 관성 센서의 위치를 측정하는 단계에서는 상기 적외선 마커 또는 LED를 촬영함으로써, 상기 관성 센서의 위치를 측정하는 보행 분석 방법.
  9. 제6항에 있어서,
    상기 보행자의 보행 상태를 분석하는 단계에서는 상기 보행자의 보행 주기, 보행 거리, 보행 속도 및 보행 시점을 분석하는 보행 분석 방법.
  10. 제6항에 있어서,
    상기 관성 센서는 3축 가속도 센서, 3축 자이로 센서 및 지자계 센서를 포함하는 보행 분석 방법.
  11. 제6항 내지 제10항 중 어느 한 항에 따른 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체.
PCT/KR2016/015254 2016-01-27 2016-12-26 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 WO2017131347A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0010073 2016-01-27
KR20160010073 2016-01-27

Publications (1)

Publication Number Publication Date
WO2017131347A1 true WO2017131347A1 (ko) 2017-08-03

Family

ID=59398463

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/015254 WO2017131347A1 (ko) 2016-01-27 2016-12-26 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체

Country Status (1)

Country Link
WO (1) WO2017131347A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017447A (ja) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体
KR20100111460A (ko) * 2009-04-07 2010-10-15 연세대학교 산학협력단 모션 센서를 이용한 보행주기 검출시스템과 방법
KR101501446B1 (ko) * 2014-07-25 2015-03-12 연세대학교 산학협력단 관성센서와 적외선 카메라를 이용한 보행 측정 장치.
JP2015078959A (ja) * 2013-10-18 2015-04-23 多摩川精機株式会社 歩行距離計測システム、慣性計測装置および計測用履物
KR20150114141A (ko) * 2014-03-31 2015-10-12 한국전자통신연구원 모션 추정 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017447A (ja) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体
KR20100111460A (ko) * 2009-04-07 2010-10-15 연세대학교 산학협력단 모션 센서를 이용한 보행주기 검출시스템과 방법
JP2015078959A (ja) * 2013-10-18 2015-04-23 多摩川精機株式会社 歩行距離計測システム、慣性計測装置および計測用履物
KR20150114141A (ko) * 2014-03-31 2015-10-12 한국전자통신연구원 모션 추정 시스템 및 방법
KR101501446B1 (ko) * 2014-07-25 2015-03-12 연세대학교 산학협력단 관성센서와 적외선 카메라를 이용한 보행 측정 장치.

Similar Documents

Publication Publication Date Title
WO2016024797A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US10679360B2 (en) Mixed motion capture system and method
WO2012161407A1 (en) Method of motion tracking
TWI603294B (zh) 基於影像的動作分析系統與方法
WO2016122069A1 (ko) 타이어 마모도 측정 방법 및 그 장치
WO2015080431A1 (ko) 골프 시뮬레이터, 및 골프 시뮬레이션 방법
WO2014171696A1 (ko) 비정상 보행 여부를 측정하는 방법
WO2018030734A1 (ko) 3d 시뮬레이션 방법 및 장치
De Vito et al. Measurements and sensors for motion tracking in motor rehabilitation
WO2018097621A1 (ko) 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
CN102679964B (zh) 步态参数测量系统及其数据处理装置和方法
WO2015020396A1 (en) Motion recognition method and apparatus
WO2015122658A1 (ko) 비전 센서 데이터베이스를 이용한 거리 측정 방법
JP2016150193A (ja) 運動解析装置
US20180028861A1 (en) Information processing device and information processing method
WO2017131347A1 (ko) 보행 분석 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
KR101059748B1 (ko) 특징점 패턴을 이용한 헤드 트랙커에서 특징점 배치 방법 및 헬멧의 위치 추정 방법
JP2009186244A (ja) 傾斜角度推定システム、相対角度推定システム及び角速度推定システム
WO2017217567A1 (ko) 피트니스 모니터링 시스템
KR102229071B1 (ko) 압전 센서를 이용한 모션 구현 장치 및 그 방법
KR102229070B1 (ko) 센서 방식 모션 캡쳐 시스템 기반 모션 캡쳐 장치 및 그 방법
WO2021241920A1 (ko) 피트니스 센터 내 운동 지도 서비스 및 시스템
KR102172362B1 (ko) 인체 무게 중심의 이동을 이용한 모션 캡쳐 장치 및 그 방법
WO2018030644A1 (ko) 헤모다이나믹스 측정 결과를 표준화하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2021145654A1 (ko) 골프 클럽과 연관되는 물리량을 측정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888323

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888323

Country of ref document: EP

Kind code of ref document: A1