KR20160089791A - System and method for recognizing gait phase - Google Patents

System and method for recognizing gait phase Download PDF

Info

Publication number
KR20160089791A
KR20160089791A KR1020150009447A KR20150009447A KR20160089791A KR 20160089791 A KR20160089791 A KR 20160089791A KR 1020150009447 A KR1020150009447 A KR 1020150009447A KR 20150009447 A KR20150009447 A KR 20150009447A KR 20160089791 A KR20160089791 A KR 20160089791A
Authority
KR
South Korea
Prior art keywords
information
walking
knee
hip joint
sensor
Prior art date
Application number
KR1020150009447A
Other languages
Korean (ko)
Other versions
KR101696909B1 (en
Inventor
정준영
허원호
박현섭
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020150009447A priority Critical patent/KR101696909B1/en
Publication of KR20160089791A publication Critical patent/KR20160089791A/en
Application granted granted Critical
Publication of KR101696909B1 publication Critical patent/KR101696909B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21JFORGING; HAMMERING; PRESSING METAL; RIVETING; FORGE FURNACES
    • B21J5/00Methods for forging, hammering, or pressing; Special equipment or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Manipulator (AREA)

Abstract

According to the present invention, a system for recognizing a gait phase comprises: a gait information input means measuring gait information of a user by using a sensor mounted in the shape of the external skeleton in an external side of a leg of the user; a gait information treatment means recognizing gait information of the user measured in the sensor, and predicting a gait phase by using neural network; and a gait information output means outputting the gait phase. As stated above, the system is basically attached to a robot in the shape of the external skeleton of a leg to substitute a function of an expensive sensor installed in an environment by using an output of a sensor used to control the robot.

Description

보행 단계 인식 시스템, 및 방법 {System and method for recognizing gait phase}[0001] SYSTEM AND METHOD FOR RECOGNITION GAITING [0002]

본 발명은 보행 단계 인식 시스템, 및 방법에 관한 것으로, 더욱 상세하게는 하지 외골격 로봇 형태의 센서를 사용하여 지면 반발력, 관절 각속도, 체간부 자세, 및 관절 피치 정보 기타 필요한 정보를 획득하고, 획득된 정보를 뉴럴 네트워크를 통해 학습, 융합하여 실시간으로 로봇의 보행 동작 중의 보행 단계 정보를 인식하여, 1(유각기, Stance), 0(입각기, Swing)의 형태로 목표 출력하는 기술에 관한 것이다.The present invention relates to a gait step recognition system and method, and more particularly, to a gait recognition system and method, and more particularly, to a gait recognition system and method using a sensor of a foot exoskeletal robot to acquire ground reaction force, joint angular velocity, The present invention relates to a technique of recognizing gait information during a gait operation of a robot in real time by learning and fusing information through a neural network and outputting the gait information in the form of 1 (angular period, Stance), 0 (stance, Swing).

일반적으로, 인간의 보행은 시간적(Temporal) 파라메터와 공간적 (Spatial) 파라메터로 기술 될 수 있다. 시간적 파라메터 중, 보행 단계는 한쪽 다리가 신체를 지지하는 시기인 입각기(Stance)와 한쪽 다리가 전면을 향해 전진하는 유각기(Swing)로 나눌 수 있으며, 이러한 정보는 인간의 보행을 설명하고 이상 유무를 판단하는데 중요한 정보로 생각할 수 있다. 또한 보행 단계에 대한 정보는 인간의 보행을 모사 또는 보조하는 로봇 시스템의 제어를 위해서도 필수적이다.In general, human walking can be described by temporal parameters and spatial parameters. Among the temporal parameters, the walking phase can be divided into a stance, in which one leg supports the body, and a swing, in which one leg moves forward. This information describes the walking of the human being, It can be thought of as important information for judging the presence or absence. In addition, the information about the walking phase is also necessary for controlling the robot system that simulates or assists human walking.

현재의 보행 단계에 대한 정보를 정확하게 획득하기 위해 보행 분석실 등의 공간에 설치된 고가의 광학식 모션 캡쳐장비와, 힘 측정판(Force Platforms) 등을 이용하고 있다.In order to accurately acquire information about the present walking step, expensive optical motion capture equipment installed in a space such as a walking analysis room, and force measuring platforms (Force Platforms) are used.

도 1을 참조하면, 보행 단계를 검출을 위해 가장 널리 쓰이는 방법은 3차원 동작 분석 시스템을 이용하는 것으로, 적외선 카메라(12) 등을 힘 측정판(Force Platforms)(14)과 동기화하여 사용되거나 마커의 궤적 같은 운동학적 데이터를 이용하는 것이다.Referring to FIG. 1, the most widely used method for detecting a walking step is a three-dimensional motion analysis system. The infrared camera 12 is used in synchronization with a Force Platform 14, It uses kinematic data such as trajectory.

그러나 3차원 동작 분석 시스템을 이용한 방법은 정확한 보행 단계 검출 및 다양한 보행 분석이 가능하다는 장점이 있지만, 장비가 매우 비싸고 장비가 갖추어진 실험실 내에서만 사용할 수 있으며 매 실험마다 번거로운 장비 보정 및 준비 과정을 수반해야 하고, 카메라(12)의 유효 공간 내에서의 한 두 보행 주기의 자료만을 추출할 수 있다는 한계를 지니고 있다.However, the method using the 3D motion analysis system is advantageous in that accurate gait detection and various gait analysis can be performed. However, the apparatus is very expensive and can be used only in a laboratory equipped with equipment. And it is possible to extract only data of one or two walking cycles within the effective space of the camera 12.

또한 3차원 동작 분석 시스템과 동기화하여 사용되는 힘 측정판(14)을 이용하는 경우, 비싼 가격과 센서 개수에 따른 측정 가능한 보행주기의 제한이 있으며, 하나의 힘 측정판(14) 내에 한 발씩 디뎌야 하므로 정상인에 비해 상대적으로 보장(step length)이 짧은 편마비 환자의 경우 적용하는데 어려움이 있다.In addition, when the force measurement plate 14 used in synchronism with the three-dimensional motion analysis system is used, there is a limitation in the measurable walking period according to the expensive price and the number of sensors. Therefore, it is difficult to apply this method to hemiplegic patients with relatively short step length compared with normal subjects.

한국공개특허 10-2005-0021288Korean Patent Publication No. 10-2005-0021288

따라서 종래의 보행 단계 인식 방법들은 고가의 센서를 필요로 한다거나, 특정한 센서가 장착된 환경에서의 보행만 인식이 가능하다거나, 또는 인식률이 크게 떨어지는 문제를 가지고 있었는바, 본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 상기한 바와 같은 종래의 특성을 개선하기 위해 제안된 것으로서, 하지 외골격 형태의 로봇에 부착된 일반적인 센서의 정보를 획득하고, 이를 뉴럴 네트워크를 이용한 인식기에 학습 시켜 인식기를 개발하며, 개발된 인식기에 보행 중의 로봇 센서 정보들을 입력하여 실시간으로 현재의 보행 단계를 출력하는 보행 단계 인식 시스템, 및 방법을 제공함에 있다.Therefore, the conventional walking step recognizing methods have a problem that expensive sensors are required, only walking can be recognized in an environment equipped with a specific sensor, or the recognition rate is significantly lowered. The object of the present invention is to solve the problems of the prior art, and it is an object of the present invention to propose a method for acquiring general sensor information attached to a robot having an exoskeletal lower limb, The present invention provides a gait step recognition system and method in which a recognizer using a network is learned to develop a recognizer, and robot sensor information during gait is input to the developed recognizer to output a current gait step in real time.

전술한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명의 보행 단계 인식 시스템은 사용자의 하지 외부에 외골격 형태로 장착되는 센서를 이용하여 상기 사용자의 보행 정보를 측정하는 보행 정보 입력 수단, 상기 센서로부터 측정되는 상기 사용자의 보행 정보를 인식하고 뉴럴 네트워크를 이용하여 보행 단계를 예측하는 보행 정보 처리 수단, 및 상기 보행 단계를 출력하는 보행 정보 출력 수단을 포함한다.According to an aspect of the present invention, a walking step recognition system includes walking information input means for measuring walking information of a user using a sensor mounted in an exoskeleton form outside the user's lower back, Walking information processing means for recognizing the walking information of the user measured from the sensor and predicting the walking step using the neural network, and walking information output means for outputting the walking step.

본 발명의 다른 특징에 의하면, 본 발명의 보행 단계 인식 방법은, 지면반발력을 측정하고, 지면접촉 여부를 추정하는 단계, 고관절, 및 슬관절의 각도를 측정하고 상기 고관절, 및 상기 슬관절의 각속도를 추정하는 단계, 체간부의 각속도와 가속도를 측정하고 상기 체간부 자세를 추정하는단계, 및 상기 지면접촉 정보, 상기 각속도 정보, 및 상기 체간부 자세 정보를 입력 파라메터로 하는 인식기를 구동하여 보행 단계 정보를 입각기 혹은 유각기 중 하나로 목표 출력하는 단계를 포함한다.According to another aspect of the present invention, a gait step recognition method of the present invention includes steps of measuring a ground reaction force, estimating whether a ground contact is made, estimating angles of a hip joint and a knee joint, estimating angular velocities of the hip joint and the knee joint Measuring the angular velocity and acceleration of the body part, estimating the body part posture, and driving the recognizer using the ground contact information, the angular velocity information, and the body part attitude information as input parameters, And outputting the target to one of a stance or a swinging phase.

위에서 설명한 바와 같이, 본 발명의 구성에 의하면 하지 외골격 형태의 로봇에 기본적으로 부착되어 로봇의 제어를 위해 사용되는 센서의 출력만을 이용하여, 환경에 설치된 고가의 센서의 기능을 대체하는 것뿐만 아니라, 이 정보를 사용하여 로봇을 정확하게 제어할 수 있게 해주는 효과를 기대할 수 있다. As described above, according to the configuration of the present invention, not only the function of an expensive sensor installed in the environment is replaced by using only the output of a sensor that is basically attached to a robot having an exoskeletal shape and used for controlling the robot, This information can be used to control the robot accurately.

도 1은 종래 기술에 의한 광학식 모션 캡쳐 장치, 및 힘 측정판을 이용한 보행 단계 인식 방법을 나타내는 예시도.
도 2는 본 발명에 의한 뉴럴 네트워크를 이용하여 보행 단계를 인식하는 구성을 나타내는 시스템 블록도.
도 3은 본 발명에 의한 목표 출력을 나타내는 보행 단계 테이블.
도 4는 본 발명에 의한 센서 출력치 및 획득 과정을 통해 보행 단계를 인식하는 순서도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing an optical motion capturing apparatus according to the prior art and a walking step recognizing method using a force measuring plate. FIG.
2 is a system block diagram showing a configuration for recognizing a walking step using a neural network according to the present invention.
Fig. 3 is a walking step table showing the target output according to the present invention. Fig.
FIG. 4 is a flow chart for recognizing a walking step through a sensor output value and an acquisition process according to the present invention; FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해 질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려 주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장된 것일 수 있다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Brief Description of the Drawings The advantages and features of the present invention, and how to achieve them, will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. The dimensions and relative sizes of layers and regions in the figures may be exaggerated for clarity of illustration. Like reference numerals refer to like elements throughout the specification.

이하, 상기한 바와 같은 구성을 가지는 본 발명에 의한 보행 단계 인식 시스템의 바람직한 실시예를 첨부된 도면을 참고하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of a walking stage recognition system according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 보행 단계 인식 시스템을 이용하여 사용자와 하지 외골격 로봇의 상호 작용을 측정하면 사용자의 보행 단계를 인식할 수 있고, 보행 정보에 기초하여 하지 외골격 로봇을 직접 제어하거나 혹은 다른 동력형 외골격 로봇을 제어하여 보행을 강화하거나 억제할 수 있다.By measuring the interaction between the user and the lower extremity skeleton robot using the walking phase recognition system of the present invention, the user can recognize the walking phase, and can directly control the lower extremity skeleton robot based on the walking information, And the walking can be strengthened or suppressed.

도 2를 참조하면, 보행 단계 인식 시스템(100)은, 사용자의 하지 외부에 외골격 형태로 장착되는 센서를 이용하여 사용자의 보행 정보를 측정하는 보행 정보 입력 수단(110), 및 상기 센서로부터 측정되는 사용자의 보행 정보를 인식하고 뉴럴 네트워크를 이용하여 보행 단계를 예측하는 보행 정보 처리 수단(120), 및 보행 단계를 출력하는 보행 정보 출력 수단(130)을 포함할 수 있다.2, the walking step recognition system 100 includes walking information input means 110 for measuring the user's walking information using a sensor mounted in the form of an exoskeleton outside the user's lower extremity, A walking information processing unit 120 for recognizing the user's walking information and predicting the walking step using the neural network, and a walking information output unit 130 for outputting the walking step.

본 발명에 사용되는 각 센서는 하지 외골격 로봇(exoskeleton robot)의 형태로 사용자(사람, 동물, 혹은 로봇)의 골반이나 다리 등에 장착될 수 있다. 각 센서는 사용자의 하지 외부에 외골격 형태로 부착하여 하지 관절 자유도와 유사한 형태를 가질 수 있다. Each sensor used in the present invention can be mounted on the pelvis or leg of a user (human, animal, or robot) in the form of an exoskeleton robot. Each sensor can be attached to the outside of the user's lower limb in the form of an exoskeleton, and can have a similar shape to that of the lower limbs.

본 발명에 사용되는 센서들은, 사용자의 발, 즉 지면과 접촉하는 부위에 장착되어 발의 압력을 측정하는 좌우 한 쌍의 지면반력 측정 센서(112), 하지 외골격 로봇의 관절부(고관절 및 슬관절)에 장착되는 한 쌍의 고관절/슬관절 각도 측정 센서(114, 116), 사용자의 체간부에 부착되는 한 쌍의 체간부 관성 측정 센서(Inertial Measurement Unit)(118)를 포함하여 구성된다.The sensors used in the present invention include a pair of left and right ground reaction force measurement sensors 112 mounted on the foot of the user, i.e., a portion contacting the ground, for measuring the foot pressure, and mounted on joints (hip and knee joints) A pair of hinge / knee angle measurement sensors 114 and 116, and a pair of body inertia measurement sensors 118 attached to the body part of the user.

체간부 관성 측정 센서(118)는 3축의 체간부 각속도(body frame), 3축의 가속도(global frame) 등을 측정할 수 있으며, 이러한 관성 측정 센서(118)를 이용해서 고관절 및 슬관절의 롤(Roll), 및 피치(Pitch) 정보를 획득할 수 있다. 따라서 체간부 관성 측정 센서(118)의 자이로스코프나, 가속도계 출력은 다른 센서(114, 116)와 융합되어 체간부의 3차원 자세 중 롤(Roll)과 피치(Pitch) 정보를 추정할 수 있다.The body inertia measurement sensor 118 can measure a body frame of three axes and a global frame of three axes and measures the inertia of the hip joint and the knee roll ), And pitch information. Therefore, the gyroscope of the interbody inertia measurement sensor 118 and the accelerometer output can be fused with other sensors 114 and 116 to estimate the roll and pitch information in the three-dimensional attitude of the trunk portion.

가령, 지면반력 측정 센서(112)를 이용하여 발의 지면 반발력을 측정하여, 발 바닥의 지면 접촉 여부를 추정할 수 있다. 또한 체간부 관성 측정 센서(118)를 이용하여 체간부의 가속도나 각속도를 측정하며, 고관절/슬관절 각도 측정 센서(114, 116)를 이용하여 고관절/슬관절의 각속도를 측정하여 체간부 3차원 자세를 추정할 수 있다.For example, the floor reaction force measuring sensor 112 may be used to measure the foot floor reaction force to estimate whether or not the foot floor is in contact with the ground. Further, the acceleration or angular velocity of the trunk portion is measured using the body inertia measurement sensor 118, and the angular velocity of the hip / knee joint is measured using the hip joint / knee joint angle sensors 114 and 116, Can be estimated.

또한, 체간부 관성 측정 센서(118)에 의하여 측정된 체간부의 가속도와 각속도를 고관절/슬관절 각도 측정 센서(114, 116)에 의하여 측정된 고관절/슬관절의 각도와 융합하여 고관절 피치 정보와, 슬관절 피치 정보를 획득할 수 있고, 결과적으로 체간부의 골반 자세를 추정할 수 있다.Also, the acceleration and angular velocity of the trunk measured by the trunk part inertia measurement sensor 118 are fused with the angle of the hip / knee joint measured by the hip joint / knee joint angle measuring sensors 114 and 116 to calculate the hip joint pitch information, The pitch information can be obtained, and as a result, the pelvic posture of the trunk portion can be estimated.

이와 같이, 하지 외골격 로봇의 체간부 3차원 자세 중, 피치(Pitch) 정보는 하지 외골격 로봇의 관절부에 장착되는 관절 각도 측성 센서(114, 116)와 융합되어 측정되며, 로봇의 하지 각 체절의 피치(Pitch) 정보를 출력할 수 있다.As described above, among the three-dimensional body posture of the lower extremity skeleton robot, the pitch information is measured by being fused with the joint angle sensors 114 and 116 mounted on the joints of the lower extremity skeleton robot, and the pitch (Pitch) information.

보행 정보 처리 수단(120)은 뉴럴 네트워크를 이용한다. 본 발명에 인식기를 구성하기 위해 사용되는 뉴럴 네트워크는, 5개의 입력 노드를 가지는 입력 계층, 최소 20개의 중간 노드를 가지는 은닉 계층, 최소 1개의 출력 노드를 가지는 출력 계층으로 구성되며, 보행 중에 측정된 상기 센서들(112 내지 118)의 값을 입력으로 하고, 이때의 보행 단계 정보들을 목표 출력(Desired Output)으로 하여 학습 된다.The walking information processing means 120 uses a neural network. The neural network used to construct the recognizer in the present invention consists of an input layer having five input nodes, a hidden layer having at least 20 intermediate nodes, and an output layer having at least one output node, The values of the sensors 112 to 118 are inputted, and the walking step information at this time is learned as a desired output.

가령, 5개의 입력 노드는 다음과 같다.For example, the five input nodes are:

첫째, 지면반력 측정 센서(112)를 이용하여 하지 외골격 로봇의 발 부분 지면접촉 압력 파라메터(X1)를 특정하여 입력할 수 있다.First, the foot surface contact pressure parameter X1 of the foot exoskeletal robot can be specified and input using the ground reaction force measurement sensor 112. [

둘째, 고관절 각도 측정 센서(114)를 이용하여 고관절 각속도 파라메터(X2)를 특정하여 입력할 수 있다.Second, the hip joint angular velocity parameter X2 can be specified and input using the hip joint angle sensor 114. [

셋째, 슬관절 각도 측정 센서(116)를 이용하여 슬관절 각속도 파라메터(X3)를 특정하여 입력할 수 있다.Third, the knee angular velocity parameter X3 can be specified and input using the knee angle measurement sensor 116. [

넷째, 고관절 각속도 정보와 체간부 골반 자세 정보를 융합하여 고관절 자세 즉, 고관절 피치 정보 파라메터(X4)를 특정하여 입력할 수 있다.Fourth, the hip joint posture, that is, the hip joint pitch information parameter X4, can be specified and input by fusing the hip joint angular velocity information and the body part pelvic posture information.

다섯째, 슬관절 각속도 정보와 체간부 골반 자세 정보를 융합하여 슬관절 자세 즉, 슬관절 피치 정보 파라메터(X5)를 특정하여 입력할 수 있다.Fifth, the knee joint posture, that is, the knee pitch information parameter X5, can be specified and input by fusing the knee angular velocity information and the trunk pelvis posture information.

도 3을 참조하면, 위의 학습을 통한 인식기 구성 이후, 본 발명에 사용되는 센서들의 출력치는 인식기에 입력되어 보행 정보 출력 수단(130)은 현재의 보행 단계 정보를 1(입각기, Stance Phase), 혹은 0(유각기, Swing Phase)의 형태로 출력할 수 있다. 본 발명의 보행 단계(Working Phase)는 크게 지면접촉 유무에 따라 입각기(stance phase)와 유각기(swing phase)로 구분된다. 입각기는 발뒤꿈치 접지기(initial contact), 발바닥 접지기(loading response), 중기 입각기(mid stance), 말기 입각기(terminal stance), 및 전 유각기(pre-swing)를 포함한다. 유각기는 초기 유각기(initial swing), 중기 유각기(mid swing), 및 말기 유각기(terminal swing)를 포함한다.3, the output values of the sensors used in the present invention are input to the recognizer, and the walking information output means 130 outputs the current walking step information as 1 (stance phase) , Or 0 (swing phase, Swing Phase). The walking phase of the present invention is largely classified into a stance phase and a swing phase depending on the presence or absence of a ground contact. The stance frame includes an initial contact, a loading response, a mid stance, a terminal stance, and a pre-swing. The swinging period includes an initial swing, a mid swing, and a terminal swing.

또는 현재의 보행 단계 정보를 중량 수용기(weight acceptance), 단지 발 하나만 지면에 접촉하는 시기(single limb support), 및 발 전진기(lim advaccement)로 분류할 수 있다. 이때 발뒤꿈치 접지기(initial contact), 및발바닥 접지기(loading response)는 중량 수용기(weight acceptance)에 해당되고, 중기 입각기(mid stance), 말기 입각기(terminal stance), 및 전 유각기(pre-swing)는 단지 발 하나만 지면에 접촉하는 시기(single limb support)에 해당되며, 전 유각기(pre-swing), 초기 유각기(initial swing), 중기 유각기(mid swing), 및 말기 유각기(terminal swing)는 발 전진기(limb advaccement)에 해당된다.Or current gait information can be classified into weight acceptance, single limb support, and lim advaccement. In this case, the initial contact and the loading response correspond to weight acceptance, and the mid stance, the terminal stance, and the pre- swing is a single limb support with only one foot and includes pre-swing, initial swing, mid swing, and end limb terminal swing corresponds to limb advaccement.

1. 발뒤꿈치 접지기(initial contact)1. Heel contact (initial contact)

초기 입각기로서, 발뒤꿈치가 땅에 닿은 상태에서, 고관절이 굽어지고, 슬관절은 펴지며, 발뒤꿈치가 지면에 닿는 단계이다. 이때 반대쪽 발은 말기 입각기에 있다.In the initial stance phase, with the heel touching the ground, the hip flexes, the knee flexes, and the heel touches the ground. At this time, the other foot is in the late phase.

2. 발바닥 접지기(loading response)2. Folding soles (loading response)

체중이 전방으로 이동하면서, 고관절은 변화가 없으나, 슬관절은 약간 굽어지며, 발뒤꿈치가 땅에 닿은 후 바로 발바닥 닿기가 시작하는 단계이다. 이때 반대쪽 발은 발 끝 떼기 동작이 이루어지는 단계에 있다.As weight shifts forward, the hip does not change, but the knee flexes slightly, and the heel touches the ground and then begins to hit the soles. At this time, the other foot is in the stage where the foot ending motion is performed.

3. 중기 입각기(mid stance)3. The mid-stance phase (mid stance)

고관절은 굽어진 상태에서 펴지는 상태로 변화되고, 슬관절은 변화가 없으며, 발바닥 중심에 신체의 무게 중심이 지나는 단계이다. 이때 반대쪽 발은 중기 유각기에 있다.The hip is changed from a bent state to an extended state, the knee joint is unchanged, and the center of gravity of the body passes through the center of the sole. At this time, the other foot is in the middle period.

4. 말기 입각기(terminal stance)4. The end of the stance phase (terminal stance)

고관절과 슬관절은 점차로 펴지는 상태를 유지하게 되고, 발뒤꿈치가 떨어지는 단계이다. 이때 반대쪽 발은 발뒤꿈치 닿기를 준비하는 단계에 있다.The hip and knee joints gradually stay open and the heel falls. At this time, the other foot is in preparation to reach the heel.

5. 전 유각기(pre-swing)5. The entire swing phase (pre-swing)

고관절과 슬관절이 점차적으로 굽어지는 상태에서, 발가락 끝이 지면에서 떨어지는 단계이다. 이때 반대쪽 발은 발바닥 닿기 단계에 있다.With the hip and knee gradually bent, the tip of the toe falls from the ground. At this time, the other foot is in the step of reaching the soles.

6. 초기 유각기(initial swing)6. Initial swing

고관절과 슬관절은 굽어지는 동작을 하고, 발은 공중에서 스윙하는 단계이다. 이때 반대쪽 발은 중기 입각기의 초기 단계에 있다.The hip and knee joints are bent, and the feet are swinging in the air. At this time, the other foot is in the early stage of the middle stance phase.

7. 중기 유각기(mid swing)7. respective medium-term oil (mid swing)

고관절과 슬관절이 신체의 중심선을 지나면서 점차로 굽어진 상태에서 펴지는 동작으로 변화하고, 발은 계속 공중에 있는 단계이다. 이때 반대쪽 발은 중기 입각기의 마지막 단계에 있다.The hip and knee joints gradually change from being bent over the centerline of the body to the spreading motion, and the foot is still in the air. At this time, the other foot is at the last stage of the middle stance phase.

8. 말기 유각기(terminal swing)8. The late swing phase (terminal swing)

고관절은 약간 구부려진 상태를 유지하지만, 슬관절은 완전히 펴진 상태를 유지하고, 발은 지면에 접촉하는 단계에 있다. 이때 반대쪽 발은 말기 입각기에 있다.The hip remains slightly bent, but the knee remains fully open and the foot is in contact with the ground. At this time, the other foot is in the late phase.

이하, 본 발명에 의한 보행 단계 인식 방법을 도 4를 참조하여 설명한다.Hereinafter, a walking step recognizing method according to the present invention will be described with reference to FIG.

지면반발력을 측정하고(S10), 지면접촉 여부를 추정한다(S20).The ground repulsion force is measured (S10), and whether the ground contact is estimated (S20).

고관절, 및 슬관절의 각도를 각각 측정하고(S30), 고관절, 및 상기 슬관절의 각속도를 각각 추정한다(S40).The angle of the hip joint, and the angle of the knee joint are respectively measured (S30), and the angular velocity of the hip joint and the knee joint are respectively estimated (S40).

체간부의 각속도와 가속도를 측정하고(S50), 체간부 자세를 추정한다(S60).The angular velocity and acceleration of the body part are measured (S50), and the body part posture is estimated (S60).

고관절, 및 슬관절 각속도 정보와 체간부 자세 정보를 융합하여 고관절 피치 정보, 및 상기 슬관절 피치 정보를 추정한다(S70)The hip joint, and the knee joint angular velocity information and the body posture information to estimate the hip joint pitch information and the knee pitch information (S70)

상기 지면접촉 정보, 상기 각속도 정보, 상기 체간부 자세 정보, 상기 고관절 피치 정보, 및 상기 슬관절 피치 정보를 입력 파라메터로 하는 인식기를 구동하여 보행 단계 정보를 목표 출력한다(S80).(Step S80). In step S80, the controller inputs the ground contact information, the angular velocity information, the body part attitude information, the hip joint pitch information, and the knee joint pitch information as input parameters.

이상에서 살펴본 바와 같이, 본 발명은 센서에 의하여 측정된 값을 조합하여 상위레벨의 정보를 추출한 후 추출된 상위레벨의 정보를 뉴런 네트워크의 입력값으로 사용하며, 다시 뉴럴 네트워크를 통해 출력되는 값을 이용하여 보다 정확한 보행 단계를 인식하는 구성을 기술적 사상으로 하고 있음을 알 수 있다. 이와 같은 본 발명의 기본적인 기술적 사상의 범주 내에서, 당업계의 통상의 지식을 가진 자에게 있어서는 다른 많은 변형이 가능할 것이다.As described above, the present invention combines values measured by a sensor to extract upper-level information, uses the extracted upper-level information as an input value of a neuron network, and then outputs a value output through a neural network And a step of recognizing a more accurate gait step by using the present invention. Many other modifications will be possible to those skilled in the art, within the scope of the basic technical idea of the present invention.

100: 보행 단계 인식 시스템 110: 보행 정보 입력 수단
112: 지면반력 측정 센서 114: 고관절 각도 측정 센서
116: 슬관절 각도 측정 센서 118: 체간부 관성 측정 센서
120: 보행 정보 처리 수단 130: 보행 정보 출력 수단
100: walking step recognition system 110: walking information input means
112: ground reaction force measuring sensor 114: hip joint angle measuring sensor
116: Knee joint angle measurement sensor 118: Sieve inertia measurement sensor
120: walking information processing means 130: walking information output means

Claims (10)

사용자의 하지 외부에 외골격 형태로 장착되는 센서를 이용하여 상기 사용자의 보행 정보를 측정하는 보행 정보 입력 수단;
상기 센서로부터 측정되는 상기 사용자의 보행 정보를 인식하고 뉴럴 네트워크를 이용하여 보행 단계를 예측하는 보행 정보 처리 수단; 및
상기 보행 단계를 출력하는 보행 정보 출력 수단을 포함하여 구성됨을 특징으로 하는 보행 단계 인식 시스템.
Walking information input means for measuring the walking information of the user by using a sensor mounted in the form of an exoskeleton outside the user's lower back;
Walking information processing means for recognizing the walking information of the user measured from the sensor and predicting a walking step using a neural network; And
And a walking information outputting means for outputting the walking step.
제 1 항에 있어서,
상기 사용자는 관절 보행하는 사람, 동물, 혹은 로봇을 포함하고,
상기 센서는 하지 외골격 로봇의 형태로 상기 사람, 상기 동물, 혹은 상기 로봇의 골반이나 다리에 장착되는 것을 특징으로 하는 보행 단계 인식 시스템.
The method according to claim 1,
The user may include a person, an animal, or a robot,
Wherein the sensor is mounted on the person, the animal, or the pelvis or the leg of the robot in the form of a base exoskeleton robot.
제 2 항에 있어서,
상기 센서는,
상기 사용자의 발에 장착되는 지면반력 측정 센서;
상기 사용자의 상기 골반이나 상기 다리에 장착되는 고관절/슬관절 각도 측정 센서; 및
상기 사용자의 체간부에 장착되는 체간부 관성 측정 센서를 포함하여 구성됨을 특징으로 하는 보행 단계 인식 시스템.
3. The method of claim 2,
The sensor includes:
A ground reaction force measuring sensor mounted on the foot of the user;
A hip / knee joint angle sensor mounted on the pelvis or the leg of the user; And
And a body trunk inertia measurement sensor mounted on the body part of the user.
제 3 항에 있어서,
상기 지면반력 측정 센서는, 상기 발의 지면접촉 압력을 측정하고, 상기 체간부 관성 측정 센서는, 상기 체간부의 가속도나 각속도를 측정하고, 상기 고관절/슬관절 각도 측정 센서는, 상기 고관절/슬관절의 각도를 측정하며,
상기 체간부 관성 측정 센서에 의하여 측정된 상기 체간부의 가속도나 각속도를 상기 고관절/슬관절 각도 측정 센서에 의하여 측정된 상기 고관절/슬관절의 각도와 융합하여 상기 고관절/슬관절 피치 정보를 획득하는 것을 특징으로 하는 보행 단계 인식 시스템.
The method of claim 3,
Wherein the ground surface reaction force measuring sensor measures the ground contact pressure of the foot and the body inertia measuring sensor measures an acceleration or an angular velocity of the body part and the hip joint / Respectively,
And acquiring the hip joint / knee pitch information by fusing acceleration or angular velocity of the body part measured by the body inertia measurement sensor with the angle of the hip joint / knee joint measured by the hip joint / knee joint angle sensor. Walking step recognition system.
제 4 항에 있어서,
상기 뉴럴 네트워크는,
5개의 입력 노드를 가지는 입력 계층;
최소 20개의 중간 노드를 가지는 은닉 계층; 및
최소 1개의 출력 노드를 가지는 출력 계층을 포함하여 구성됨을 특징으로 하는 보행 단계 인식 시스템.
5. The method of claim 4,
The neural network includes:
An input layer having five input nodes;
A concealment layer having at least 20 intermediate nodes; And
And an output layer having at least one output node.
제 5 항에 있어서,
상기 5개의 입력 노드는,
상기 지면접촉 압력 파라메터(X1),
상기 고관절 각속도 파라메터(X2),
상기 슬관절 각속도 파라메터(X3),
상기 고관절 피치 정보 파라메터(X4), 및
상기 슬관절 피치 정보 파라메터(X5)를 포함하여 구성됨을 특징으로 하는 보행 단계 인식 시스템.
6. The method of claim 5,
Wherein the five input nodes comprise:
The ground contact pressure parameter X1,
The hip joint angular velocity parameter X2,
The knee angular velocity parameter X3,
The hip joint pitch information parameter X4, and
And the knee pitch information parameter (X5).
제 6 항에 있어서,
상기 1개의 출력 노드는, 입각기, 및 유각기 중 하나의 형태로 출력하는 것을 특징으로 하는 보행 단계 인식 시스템.
The method according to claim 6,
Wherein the one output node is output in the form of one of a stance unit and a swing unit.
제 7 항에 있어서,
상기 1개의 출력 노드는, 발뒤꿈치 접지기(initial contact), 발바닥 접지기(loading response), 중기 입각기(mid stance), 말기 입각기(terminal stance), 전 유각기(pre-swing), 초기 유각기(initial swing), 중기 유각기(mid swing), 및 말기 유각기(terminal swing) 중 하나의 형태로 출력하는 것을 특징으로 하는 보행 단계 인식 시스템.
8. The method of claim 7,
The one output node may include at least one of an initial contact, a loading response, a mid stance, a terminal stance, a pre-swing, wherein the output is in the form of one of an initial swing, a mid swing, and a terminal swing.
지면반발력을 측정하고, 지면접촉 여부를 추정하는 단계;
고관절, 및 슬관절의 각도를 측정하고 상기 고관절, 및 상기 슬관절의 각속도를 추정하는 단계;
체간부의 각속도와 가속도를 측정하고 상기 체간부 자세를 추정하는 단계; 및
상기 지면접촉 정보, 상기 각속도 정보, 및 상기 체간부 자세 정보를 입력 파라메터로 하는 인식기를 구동하여 보행 단계 정보를 입각기 혹은 유각기 중 하나로 목표 출력하는 단계를 포함하여 구성됨을 특징으로 하는 보행 단계 인식 방법.
Measuring the ground surface reaction force and estimating whether or not the ground contact is made;
Measuring an angle of the hip joint, a hip joint, and a knee joint, and estimating an angular velocity of the hip joint and the knee joint;
Measuring the angular velocity and acceleration of the body part and estimating the body part posture; And
And a step of outputting the walking step information to one of a stance unit and a swing unit by driving a recognizer having the ground contact information, the angular speed information, and the body part attitude information as input parameters. Way.
제 9 항에 있어서,
상기 고관절, 및 상기 슬관절 각속도 정보와 상기 체간부 자세 정보를 융합하여 상기 고관절 피치 정보, 및 상기 슬관절 피치 정보를 추정하는 단계를 더 포함함으로써, 상기 보행 단계 정보를 출력함에 있어서 상기 고관절 피치 정보, 및 상기 슬관절 피치 정보를 입력 파라메터로 더 포함하는 것을 특징으로 하는 보행 단계 인식 방법.
10. The method of claim 9,
And estimating the hip joint pitch information and the knee joint pitch information by fusing the hip joint, the knee joint angular velocity information, and the knee angular velocity information with the body part posture information to estimate the hip joint pitch information, And the knee pitch information is further included as an input parameter.
KR1020150009447A 2015-01-20 2015-01-20 System for recognizing gait phase KR101696909B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150009447A KR101696909B1 (en) 2015-01-20 2015-01-20 System for recognizing gait phase

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150009447A KR101696909B1 (en) 2015-01-20 2015-01-20 System for recognizing gait phase

Publications (2)

Publication Number Publication Date
KR20160089791A true KR20160089791A (en) 2016-07-28
KR101696909B1 KR101696909B1 (en) 2017-01-17

Family

ID=56681706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150009447A KR101696909B1 (en) 2015-01-20 2015-01-20 System for recognizing gait phase

Country Status (1)

Country Link
KR (1) KR101696909B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106256336A (en) * 2016-08-22 2016-12-28 中国科学院合肥物质科学研究院 The ectoskeleton disabled aiding robot step phase changing method that logic-based returns
CN108420575A (en) * 2018-03-23 2018-08-21 厦门大学嘉庚学院 Wearing artificial limb for assisting crouching seat and application method
CN112223263A (en) * 2020-10-09 2021-01-15 贵州航天控制技术有限公司 Man-machine cooperation real-time control method of flexible exoskeleton system
CN113143256A (en) * 2021-01-28 2021-07-23 上海电气集团股份有限公司 Gait feature extraction method, lower limb assessment method, lower limb control method, device and medium
US11951066B2 (en) 2018-09-14 2024-04-09 Samsung Electronics Co., Ltd. Walking assistance method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050021288A (en) 2003-08-25 2005-03-07 소니 가부시끼 가이샤 Robot and attitude control method of robot
JP2009207840A (en) * 2008-03-06 2009-09-17 Toyota Motor Corp Walking movement assisting device
KR101317354B1 (en) * 2011-11-21 2013-10-11 서강대학교산학협력단 Control method of walking assistance torque and walking assistance apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050021288A (en) 2003-08-25 2005-03-07 소니 가부시끼 가이샤 Robot and attitude control method of robot
JP2009207840A (en) * 2008-03-06 2009-09-17 Toyota Motor Corp Walking movement assisting device
KR101317354B1 (en) * 2011-11-21 2013-10-11 서강대학교산학협력단 Control method of walking assistance torque and walking assistance apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106256336A (en) * 2016-08-22 2016-12-28 中国科学院合肥物质科学研究院 The ectoskeleton disabled aiding robot step phase changing method that logic-based returns
CN108420575A (en) * 2018-03-23 2018-08-21 厦门大学嘉庚学院 Wearing artificial limb for assisting crouching seat and application method
US11951066B2 (en) 2018-09-14 2024-04-09 Samsung Electronics Co., Ltd. Walking assistance method and apparatus
CN112223263A (en) * 2020-10-09 2021-01-15 贵州航天控制技术有限公司 Man-machine cooperation real-time control method of flexible exoskeleton system
CN112223263B (en) * 2020-10-09 2022-07-15 贵州航天控制技术有限公司 Man-machine cooperation real-time control method of flexible exoskeleton system
CN113143256A (en) * 2021-01-28 2021-07-23 上海电气集团股份有限公司 Gait feature extraction method, lower limb assessment method, lower limb control method, device and medium
CN113143256B (en) * 2021-01-28 2023-09-26 上海电气集团股份有限公司 Gait feature extraction method, lower limb evaluation and control method, device and medium

Also Published As

Publication number Publication date
KR101696909B1 (en) 2017-01-17

Similar Documents

Publication Publication Date Title
CN107080540B (en) System and method for analyzing gait and postural balance of a person
KR102503910B1 (en) Method and apparatus of standing assistance
Zihajehzadeh et al. A novel biomechanical model-aided IMU/UWB fusion for magnetometer-free lower body motion capture
KR101696909B1 (en) System for recognizing gait phase
KR101751760B1 (en) Method for estimating gait parameter form low limb joint angles
Villarreal et al. A survey of phase variable candidates of human locomotion
CN102323854B (en) Human motion capture device
Jung et al. Dynamically adjustable foot-ground contact model to estimate ground reaction force during walking and running
Watanabe et al. A preliminary test of measurement of joint angles and stride length with wireless inertial sensors for wearable gait evaluation system
WO2017120669A1 (en) Systems and methods for human body motion capture
JP5594975B2 (en) Gait analyzer
KR20150076580A (en) System and method for estimating joint angles value of knee joint rehabilitation robot
CN108338791A (en) The detection device and detection method of unstable motion data
Van der Kooij et al. Identification of hip and knee joint impedance during the swing phase of walking
Ding et al. Control of walking assist exoskeleton with time-delay based on the prediction of plantar force
KR102510984B1 (en) Method and apparatus for setting assistant torque
Shushtari et al. Ultra-robust real-time estimation of gait phase
Figueiredo et al. Real-time gait events detection during walking of biped model and humanoid robot through adaptive thresholds
KR102352537B1 (en) Walking assistance system
Ahmadi et al. Human gait monitoring using body-worn inertial sensors and kinematic modelling
Lansade et al. Estimation of the body center of mass velocity during gait of people with transfemoral amputation from force plate data integration
Abouhossein et al. Human-activity-centered measurement system: Challenges from laboratory to the real environment in assistive gait wearable robotics
Kanjanapas et al. 7 degrees of freedom passive exoskeleton for human gait analysis: Human joint motion sensing and torque estimation during walking
Fleischer et al. EMG-driven human model for orthosis control
Nogueira et al. Estimation of lower limbs angular positions using Kalman filter and genetic algorithm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 4