KR102517554B1 - Knee joint angle estimating apparatus and method - Google Patents

Knee joint angle estimating apparatus and method Download PDF

Info

Publication number
KR102517554B1
KR102517554B1 KR1020210100264A KR20210100264A KR102517554B1 KR 102517554 B1 KR102517554 B1 KR 102517554B1 KR 1020210100264 A KR1020210100264 A KR 1020210100264A KR 20210100264 A KR20210100264 A KR 20210100264A KR 102517554 B1 KR102517554 B1 KR 102517554B1
Authority
KR
South Korea
Prior art keywords
knee
joint angle
knee joint
image
angle
Prior art date
Application number
KR1020210100264A
Other languages
Korean (ko)
Other versions
KR20230018556A (en
Inventor
민세동
영 김
반타 쵸음
Original Assignee
순천향대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천향대학교 산학협력단 filed Critical 순천향대학교 산학협력단
Priority to KR1020210100264A priority Critical patent/KR102517554B1/en
Publication of KR20230018556A publication Critical patent/KR20230018556A/en
Application granted granted Critical
Publication of KR102517554B1 publication Critical patent/KR102517554B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4585Evaluating the knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • A61B5/6807Footwear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors

Abstract

무릎관절 각도 추정장치 및 그 추정방법이 개시된다. 본 발명에 따른 무릎관절 각도 추정장치는 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지하는 감지센서; 피험자의 무릎, 무릎의 상측 및 무릎의 하측에 각각 부착되는 마커; 및 각각의 마커를 연결하여 무릎각도를 측정하며, 측정되는 무릎각도 및 감지센서에 의해 감지되는 감지신호에 기반하여 신발에 대응하는 무릎관절 각도를 추정하는 관절각도 추정부;를 포함한다.A knee joint angle estimator and method for estimating the same are disclosed. An apparatus for estimating knee joint angle according to the present invention includes a sensor for detecting at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle during walking of a subject; markers respectively attached to the subject's knee, the upper side of the knee, and the lower side of the knee; and a joint angle estimation unit that connects each marker to measure a knee angle and estimates a knee joint angle corresponding to a shoe based on the measured knee angle and a detection signal detected by a sensor.

Description

무릎관절 각도 추정장치 및 그 추정방법{KNEE JOINT ANGLE ESTIMATING APPARATUS AND METHOD}Knee joint angle estimation device and its estimation method {KNEE JOINT ANGLE ESTIMATING APPARATUS AND METHOD}

본 발명은 무릎관절 각도 추정장치 및 그 추정방법에 관한 것으로서, 보다 상세하게는 컨벌루션 신경망(CNN: Convolutional Neural Network) 이미지 기반 및 발 압력 매핑 이미지를 이용하여 다양한 신발을 사용하는 동안의 보행 주기에 대한 무릎 관절 각도를 추정하는 무릎 관절 각도 추정장치 및 그 추정방법에 관한 것이다.The present invention relates to an apparatus for estimating a knee joint angle and a method for estimating the same, and more particularly, to a convolutional neural network (CNN) image-based method and a foot pressure mapping image for a gait cycle while using various shoes. It relates to a knee joint angle estimating device for estimating a knee joint angle and a method for estimating the same.

신발의 사용은 무릎 운동학을 변화시킨다. 무릎 각도의 운동은 맨발로 걸을 때와 비교하여 신발을 신었을 때에 더욱 증가한다. Blanchette는 무릎 굽힘이 힐 높이의 증가에 따라 증가함을 입증하였다. 또한, Kerrigan은 굽이 높은 신발의 사용이 무릎 골관절염(osteroarthritis)에 기여함을 입증하였다.The use of footwear changes knee kinematics. The motion of the knee angle is more increased when wearing shoes compared to when walking barefoot. Blanchette demonstrated that knee flexion increased with increasing heel height. Kerrigan also demonstrated that the use of high-heeled shoes contributes to knee osteoarthritis.

일반적으로 무릎 골관절염은 노화, 성별, 과체중, 무릎 부상, 관절의 반복적 사용, 골밀도, 근육 약화 및 관절 이완과 같은 요소들과 관련이 있다. 또한, 신발의 유형은 주로 힐 높이의 증가로 인해 무릎 골관절염의 진행을 가속화시키는 또 다른 요소일 수 있다.In general, knee osteoarthritis is associated with factors such as aging, gender, overweight, knee injury, repetitive use of the joint, bone density, muscle weakness, and joint laxity. Additionally, the type of footwear may be another factor that accelerates the progression of knee osteoarthritis, primarily due to increased heel height.

무릎 골관절염은 일반적으로 통증과 함께 무릎의 기증적인 한계를 유발하여 보행 패턴을 초래한다. 무릎 관절 각도에 대한 모니터링은 생체역학적으로 무릎의 기능을 평가하는데 중요한 역할을 할 수 있으며, 무릎에 대한 임상 및 연구에 모두 도움이 된다. 따라서, 관절 각도에 대한 평가는 신체의 관절 기능을 모니터링 하는 데 이용되는 세 가지 핵심변수 중의 하나로 정의될 수 있다.Knee osteoarthritis usually causes endogenous limitations of the knee along with pain resulting in gait patterns. Monitoring of the knee joint angle can play an important role in biomechanically evaluating the function of the knee, and is helpful in both clinical and research studies of the knee. Therefore, the evaluation of joint angle can be defined as one of the three key variables used to monitor the body's joint function.

관절 각도의 측정은 균형, 자세 및 운동 제어 재활에 중요한 고유감각의 기능적인 평가 및 재활에 중요한 역할을 한다. 재활 의학에서, 관절 각도의 평가는 주로 치료효과 모니터링, 환자의 진행률, 그리고 치료 가이드의 개입을 조사하기 위한 임상 측정 도구를 통해 수행된다. 관절각도를 정확하게 측정하는 것은 보행 평가의 응용에 더 많은 이점을 가져온다. 관절 각도 측정 시스템의 개발에서의 주요 접근방식 중의 하나는 복잡하지 않은 시스템으로 신뢰할만한 관절 각도를 얻는 것이다. 그러한 접근방식은 실시간 보행 모니터링에 유익한 연속 모니터링 시스템을 개발하는데 이용될 수 있다. 이것은 환자가 클리닉이나 병원에 참여하지 않아도 되는 저렴하고 편리한 방법을 제공할 수 있다. 관절 각도와 관련된 의료 모니터링이 많아짐에 따라 관절 각도를 평가하기 위한 다양한 연구가 수행되어 왔다. 중요한 것은, 기계 또는 딥러닝 학습의 새로운 기술을 센서 기술과 통합하여 실외의 모니터링에 유익한 실시간 모니터링 시스템에 적용할 수 있다는 것이다. 따라서, 다양한 소스 데이터를 갖는 기계 또는 딥러닝 학습은 하지 관절 각도를 평가하는데 유용하지만, 아직까지는 그에 대한 시도가 많지 않다.Joint angle measurement plays an important role in functional evaluation and rehabilitation of proprioception, which is important for rehabilitation of balance, posture, and motor control. In rehabilitation medicine, evaluation of joint angle is mainly performed through clinical measurement tools to investigate treatment effect monitoring, patient progress rate, and treatment guide intervention. Accurately measuring joint angle brings more advantages to the application of gait evaluation. One of the main approaches in the development of joint angle measurement systems is to obtain reliable joint angles with an uncomplicated system. Such an approach can be used to develop a continuous monitoring system beneficial for real-time gait monitoring. This could provide an inexpensive and convenient way for patients not to have to attend clinics or hospitals. As medical monitoring related to joint angles has increased, various studies have been conducted to evaluate joint angles. Importantly, new techniques of machine or deep learning learning can be integrated with sensor technology and applied to real-time monitoring systems that are beneficial for outdoor monitoring. Therefore, machine or deep learning learning with various source data is useful for evaluating lower limb joint angles, but there are not many attempts to do so.

공개특허공보 제10-2018-0089126호 (공개일자: 2018.08.08)Publication No. 10-2018-0089126 (published date: 2018.08.08)

본 발명은 전술한 시대적인 요구에 따라 무릎관절의 각도를 추정하기 위하여 창안된 것으로서, 컨벌루션 신경망(CNN: Convolutional Neural Network) 이미지 기반 및 발 압력 매핑 이미지를 이용하여 다양한 신발을 사용하는 동안의 보행 주기에 대한 무릎 관절 각도를 추정하는 무릎 관절 각도 추정장치 및 그 방법을 제공하는 것을 목적으로 한다.The present invention was invented to estimate the angle of the knee joint in accordance with the above-mentioned needs of the times, and the gait cycle while using various shoes using a convolutional neural network (CNN) image-based and foot pressure mapping image. An object of the present invention is to provide a knee joint angle estimating device and method for estimating a knee joint angle for .

전술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 무릎관절 각도 추정장치는, 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지하는 감지센서; 상기 피험자의 무릎, 상기 무릎의 상측 및 상기 무릎의 하측에 각각 부착되는 마커; 및 각각의 상기 마커를 연결하여 무릎각도를 측정하며, 측정되는 상기 무릎각도 및 상기 감지센서에 의해 감지되는 감지신호에 기반하여 신발에 대응하는 무릎관절 각도를 추정하는 관절각도 추정부;를 포함하는 것을 특징으로 한다. An apparatus for estimating knee joint angle according to an aspect of the present invention for achieving the above object includes a sensor for detecting at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle during walking of a subject; markers respectively attached to the subject's knee, an upper side of the knee, and a lower side of the knee; And a joint angle estimator for measuring a knee angle by connecting each of the markers and estimating a knee joint angle corresponding to a shoe based on the measured knee angle and the detection signal detected by the sensor. characterized by

전술한 무릎관절 각도 추정장치는, 상기 피험자의 위치로부터 설정된 거리에 이격되어 설치되며, 상기 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영하는 카메라;를 더 포함할 수 있다. 이 경우, 상기 관절각도 추정부는 상기 카메라에 의해 촬영되는 이미지 프레임, 상기 감지센서에 의해 감지되는 감지신호, 및 각각의 상기 마커에 의해 측정되는 무릎각도를 동기화하여 무릎관절 각도를 추정한다.The knee joint angle estimator described above may further include a camera installed at a set distance from the subject's position and capturing a set number of image frames per unit time for analyzing the subject's gait state. In this case, the joint angle estimation unit estimates the knee joint angle by synchronizing the image frame captured by the camera, the detection signal detected by the detection sensor, and the knee angle measured by each of the markers.

여기서, 상기 관절각도 추정부는 상기 카메라에 의해 촬영되는 설정된 보행 시간 동안의 이미지 프레임에서 설정된 보행 주기의 이미지를 추출하고, 추출된 이미지를 CNN(Convolutional Neural Network) 이미지 기반 모델의 기준 데이터로 이용할 수 있다.Here, the joint angle estimator may extract an image of a set gait cycle from an image frame for a set gait time taken by the camera, and use the extracted image as reference data of a Convolutional Neural Network (CNN) image-based model. .

또한, 상기 감지센서는 유연성이 있는 0.15mm 두께 이하의 폴리머 깔창(polymer insole)으로 이루어지며, 단위면적당 설정된 개수 이상의 셀로 구성되고, 각각의 상기 셀에 기반하여 감지위치 및 평균압력을 감지하는 것이 바람직하다.In addition, the detection sensor is made of a flexible polymer insole with a thickness of 0.15 mm or less, and is composed of more than a set number of cells per unit area, and it is preferable to detect the detection position and average pressure based on each cell. do.

또한, 상기 관절각도 추정부는 힐(heel) 높이 1.0cm 이하의 플랫 슈즈(flat shoes), 3.0cm 이하의 운동화, 9.0cm 이하의 클래식 펌프 힐(classic pump heel)의 각각에 대응하여 무릎관절 각도를 추정하는 것이 바람직하다.In addition, the joint angle estimator determines the knee joint angle corresponding to each of flat shoes with a heel height of 1.0 cm or less, sneakers with a heel height of 3.0 cm or less, and classic pump heels with a height of 9.0 cm or less. It is desirable to estimate

전술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 무릎관절 각도 추정방법은, 무릎관절 각도 추정장치에 의해 수행되는, 신발에 대응하는 무릎관절 각도 추정방법에 있어서, 감지센서를 이용하여, 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지하는 단계; 상기 피험자의 무릎, 상기 무릎의 상측 및 상기 무릎의 하측에 각각 부착되는 마커를 연결하여 무릎각도를 측정하는 단계; 및 측정되는 상기 무릎각도 및 상기 감지센서에 의해 감지되는 감지신호에 기반하여 상기 신발에 대응하는 무릎관절 각도를 추정하는 단계;를 포함하는 것을 특징으로 한다.A method for estimating a knee joint angle according to an aspect of the present invention for achieving the above object is a method for estimating a knee joint angle corresponding to a shoe, which is performed by a knee joint angle estimating device, by using a sensor, detecting at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle during walking of the child; measuring a knee angle by connecting markers respectively attached to the subject's knee, an upper side of the knee, and a lower side of the knee; and estimating a knee joint angle corresponding to the shoe based on the measured knee angle and the detection signal detected by the sensor.

전술한 무릎관절 각도 추정방법은, 상기 피험자의 위치로부터 설정된 거리에 이격되어 설치된 카메라를 이용하여, 상기 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영하는 단계; 및 상기 카메라에 의해 촬영되는 이미지 프레임, 상기 감지센서에 의해 감지되는 감지신호, 및 각각의 상기 마커에 의해 측정되는 무릎각도를 동기화하는 단계;를 더 포함할 수 있다.The above-described method for estimating the knee joint angle may include the steps of photographing a set number of image frames per unit time for analyzing the gait state of the subject using a camera installed at a set distance from the position of the subject; and synchronizing the image frame captured by the camera, the detection signal detected by the detection sensor, and the knee angle measured by each of the markers.

여기서, 상기 무릎관절 각도를 추정하는 단계는 상기 카메라에 의해 촬영되는 설정된 보행 시간 동안의 이미지 프레임에서 설정된 보행 주기의 이미지를 추출하고, 추출된 이미지를 CNN(Convolutional Neural Network) 이미지 기반 모델의 기준 데이터로 이용할 수 있다.Here, in the step of estimating the knee joint angle, an image of a set gait cycle is extracted from an image frame for a set gait time taken by the camera, and the extracted image is used as reference data of a Convolutional Neural Network (CNN) image-based model. can be used as

또한, 상기 감지센서는 유연성이 있는 0.15mm 두께 이하의 폴리머 깔창(polymer insole)으로 이루어지며, 단위면적당 설정된 개수 이상의 셀로 구성되고, 각각의 상기 셀에 기반하여 감지위치 및 평균압력을 감지한다.In addition, the detection sensor is made of a flexible polymer insole with a thickness of 0.15 mm or less, and is composed of a set number or more cells per unit area, and detects a detection position and an average pressure based on each cell.

또한, 상기 무릎관절 각도를 추정하는 단계는 힐(heel) 높이 1.0cm 이하의 플랫 슈즈(flat shoes), 3.0cm 이하의 운동화, 9.0cm 이하의 클래식 펌프 힐(classic pump heel)의 각각에 대응하여 무릎관절 각도를 추정한다.In addition, the step of estimating the knee joint angle corresponds to each of flat shoes with a heel height of 1.0 cm or less, sneakers with a heel height of 3.0 cm or less, and classic pump heels with a heel height of 9.0 cm or less. Estimate the knee joint angle.

본 발명에 따르면, 컨벌루션 신경망(CNN: Convolutional Neural Network) 이미지 기반 및 발 압력 매핑 이미지를 이용하여 다양한 신발을 사용하는 동안의 보행 주기에 대한 무릎 관절 각도를 추정할 수 있다.According to the present invention, it is possible to estimate the knee joint angle for the gait cycle while using various shoes using a convolutional neural network (CNN) image based and foot pressure mapping image.

도 1은 본 발명의 실시예에 따른 무릎관절 각도 추정장치의 구성을 개략적으로 도시한 도면이다.
도 2는 무릎관절 각도를 측정하는 예를 나타낸 도면이다.
도 3은 세 가지 신발의 예를 나타낸 도면이다.
도 4는 도 3에 나타낸 세 가지 신발의 특성을 나타낸 도면이다.
도 5는 무릎관절 각도를 추정하기 위해 회귀하는 발 압력 매핑 이미지를 갖는 CNN 알고리즘의 흐름도이다.
도 6은 보행 주기의 각각의 보행 이벤트에서의 발 압력 매핑 이미지의 예를 나타낸 도면이다.
도 7은 GC 영상에서 100개의 발 압력 매핑 영상을 획득하는 흐름도를 나타낸 도면이다.
도 8은 GC 영상에서 추출한 100개의 이미지를 포함하는 입력 데이터의 GC의 예를 나타낸 도면이다.
도 9는 특성 추출과 회귀 블록을 포함하는, 제안된 CNN 이미지 기반 네트워크 아키텍처를 나타낸 도면이다.
도 10은 무릎관절 각도를 추정하기 위한 발 압력 매핑 이미지의 실행 하에 CNN 이미지 기반 회귀 작업에서의 각 요소의 세부 사항을 나타낸 도면이다.
도 11은 세 가지 유형의 신발에 대한 CNN 모델 예측과 기준 데이터를 비교한 무릎관절 각도의 10개의 보행 주기를 나타낸 도면이다.
도 12는 세 가지 테스트 신발 유형에 대한 예측의 정확성을 나타낸 도면이다.
도 13은 본 발명의 실시예에 따른 무릎관절 각도 추정방법을 나타낸 흐름도이다.
1 is a diagram schematically showing the configuration of a knee joint angle estimating device according to an embodiment of the present invention.
2 is a view showing an example of measuring a knee joint angle.
3 is a view showing examples of three types of shoes.
FIG. 4 is a diagram showing the characteristics of the three types of shoes shown in FIG. 3 .
Figure 5 is a flow diagram of a CNN algorithm with regressing foot pressure mapping images to estimate knee joint angle.
6 is a diagram illustrating an example of a foot pressure mapping image at each gait event of a gait cycle.
7 is a flowchart illustrating the acquisition of 100 foot pressure mapping images from GC images.
8 is a diagram showing an example of GC of input data including 100 images extracted from GC images.
9 is a diagram showing the proposed CNN image-based network architecture, including feature extraction and regression blocks.
10 is a diagram showing details of each element in a CNN image-based regression task under execution of a foot pressure mapping image for estimating a knee joint angle.
11 is a diagram showing 10 gait cycles of knee joint angles compared with CNN model predictions for three types of shoes and reference data.
Figure 12 shows the accuracy of prediction for the three test shoe types.
13 is a flowchart illustrating a method for estimating a knee joint angle according to an embodiment of the present invention.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 설명한다. 각 도면의 구성요소들에 참조부호를 기재함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표시한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, some embodiments of the present invention will be described through exemplary drawings. In describing the reference numerals for the components of each drawing, the same numerals indicate the same components as much as possible, even if they are displayed on different drawings. In addition, in describing an embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function hinders understanding of the embodiment of the present invention, the detailed description will be omitted.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, the element may be directly connected, coupled, or connected to the other element, but not between the element and the other element. It should be understood that another component may be “connected”, “coupled” or “connected” between elements.

표면 근전도(EMG: electromyographic) 데이터에 의존하는 장기 및 단기 기억 신경 네트워크 및 시간 경과에 따른 특징(Long- and Short-Term Memory Neural Network and Time-Advanced Feature)은 무릎 관절 각도를 예측하는데 매우 정확하다. 그러나 EMG 데이터는 피부에 센서를 직접 부착하여 얻어지는 것이며, 이것은 피험자에게 불편을 줄 수 있다는 문제점이 있다.Long- and Short-Term Memory Neural Network and Time-Advanced Feature, which rely on surface electromyographic (EMG) data, are very accurate in predicting knee joint angle. However, EMG data is obtained by directly attaching a sensor to the skin, which has a problem in that it may cause discomfort to the subject.

발목 관절 각도를 추정하기 위한 기계학습과 함께 관성측정 유닛(IMU: Inertial Measurement Unit)을 사용하는 경우, 오리엔테이션 알고리즘(orientation algorithms)이 필요하다. IMU 기술은 모델에 대한 정확한 데이터를 얻기 위하여 최적의 위치를 결정할 것을 요구한다. 센서를 피부 또는 신체에 직접 부착하는 대신에 발 움직임으로부터의 입력 데이터와 딥러닝 접근법을 이용한다면 하지 관절 각도를 추정하기 위한 모델을 창출하는데 중요한 역할을 할 수 있다. 따라서, 많은 연구자들이 하지 관절 각도를 추정하는 딥러닝 접근법에 발바닥 압력 입력 데이터를 적용하였다.When using an inertial measurement unit (IMU) with machine learning to estimate the ankle joint angle, orientation algorithms are needed. IMU technology requires determining the optimal position to obtain accurate data for the model. Instead of directly attaching the sensor to the skin or body, using input data from foot movements and a deep learning approach can play an important role in creating a model for estimating lower extremity joint angles. Therefore, many researchers have applied plantar pressure input data to a deep learning approach to estimate lower extremity joint angles.

발바닥 압력 입력 데이터의 적용에 대한 하나로, 발목 관절 각도를 추정하기 위한 인공 신경망(ANN: Artificial Neural Network) 모델을 위한 깔창(insole)에 배치된 센서로부터 접지 반력 입력 데이터를 수집한 연구가 있다. 그들은 ANN 모델이 접지 반력 데이터를 사용하는 보행 운동학을 평가할 수 있음을 입증하였다. 하지 관절 각도를 예측하는 딥러닝 알고리즘의 사용에 대한 보다 높은 정확도를 달성하기 위해, 다른 연구 중의 하나는 다중 소스 신호에 의존하는 일반 회귀 신경망에 골든 섹션(GS: Golden Section) 알고리즘을 통합하였다. 그들은 오류를 최소화하기 위한 옵티마이저로서 표면 근전도 검사(surface electromyography: sEMG), 고관절각, 발바닥 압력 데이터, 및 GS를 포함하는 다중 소스 신호를 사용하여 후방 전파 신경망(backpropagation neural network)에 비해 더 나은 상관 효율과 짧은 계산시간을 얻었다. 발 압력 데이터와 딥러닝 저근방식을 사용하면, 관절 각도를 평가할 수 있는 모델을 구축할 수 있다. 발 압력 데이터를 수집하는 압력 시스템을 사용하는 이점은 깔창에 센서를 배치하기만 하면 되므로 편리한 시스템이라는 것이다. 즉, 이러한 시스템은 덜 복잡한 시스템 설정 때문에 압력 시스템을 사용하기가 편리하며, 그로부터 얻어지는 데이터는 다양한 형태로 구성될 수 있고, 다양한 애플리케이션에 적용될 수 있다. As one application of plantar pressure input data, there is a study that collects ground reaction force input data from a sensor placed on an insole for an artificial neural network (ANN) model for estimating an ankle joint angle. They demonstrated that the ANN model can evaluate gait kinematics using ground reaction force data. To achieve higher accuracy for the use of deep learning algorithms to predict lower extremity joint angles, one of the other studies incorporated the Golden Section (GS) algorithm into a general regression neural network that relies on multi-source signals. They obtained better correlations compared to backpropagation neural networks using multi-source signals including surface electromyography (sEMG), hip joint angle, plantar pressure data, and GS as optimizers to minimize errors. efficiency and short computational time. Using foot pressure data and deep-learning root method, it is possible to build a model that can evaluate joint angles. The advantage of using a pressure system that collects foot pressure data is that it is a convenient system as all you have to do is place the sensor on the insole. That is, such a system is convenient to use as a pressure system because of less complex system settings, and data obtained therefrom can be configured in various forms and applied to various applications.

일반적으로, 발 압력 분석은 신발 디자인, 스포츠 경기력 분석 및 부상 예방, 균형 조절 개선, 및 질병 진단에 적용할 수 있다. 또한, 압력 정보는 다양한 근골격계, 외피 및 신경 질환과 관련된 손상을 식별하고 관리할 수 있다. 또 다른 연구 중의 하나는 압력 시스템에 대한 정보가 발 압력과 하지 자세 사이의 관계를 입증할 수 있다고 주장하였다. 압력 시스템은 데이터 형식에 기반하는 다른 딥러닝 접근방식을 개발하는데 적용할 수 있는 다양한 데이터 형식을 생성할 수 있다. 예를 들면, 압력 시스템은 압력 분배 플랫폼, 정교한 이미지 처리 소프트웨어를 갖는 영상 기술, 및 인슈(in-shoe) 시스템의 세 가지 형태로 구성될 수 있다. 특히, 인슈 시스템의 압력 시스템은 유연하며, 다양한 신발에 장착될 수 있다. 인슈 시스템으로부터 얻어진 데이터는 숫자와 이미지를 포함한다. 또 다른 연구 중의 하나는 하이힐 신발의 워킹 중에 전단응력이 증가하면 활용되는 마찰계수가 증가를 일으키는 것을 발견하였다. 따라서, 다양한 신발, 특히 하이힐 신발의 사용은 정상 응력과 전단 응력의 두 가지 유형의 응력을 유발한다. 상용 압력 시스템은 정상 응력만 측정할 수 있다. 따라서, 압력 시스템에 의해 생성된 수치적인 발 압력 데이터는 하이힐 신발의 사용 중의 하지 관절 각도를 추정할 때에 정확도가 낮은 기계 또는 딥러닝 결과를 제공할 수 있다.In general, foot pressure analysis can be applied to shoe design, sports performance analysis and injury prevention, balance control improvement, and disease diagnosis. In addition, the pressure information can identify and manage damage associated with various musculoskeletal, cortical and neurological diseases. Another study asserted that information on the pressure system could prove the relationship between foot pressure and lower extremity posture. The pressure system can generate a variety of data formats that can be applied to develop other deep learning approaches based on the data format. For example, a pressure system can consist of three types: a pressure distribution platform, an imaging technology with sophisticated image processing software, and an in-shoe system. In particular, the pressure system of Inshu System is flexible and can be installed in various shoes. Data obtained from the Inshu system includes numbers and images. Another study found that the coefficient of friction used increased when the shear stress increased during walking in high-heeled shoes. Therefore, the use of various shoes, especially high-heeled shoes, induces two types of stress: normal stress and shear stress. Commercial pressure systems can only measure normal stress. Accordingly, numerical foot pressure data generated by the pressure system may provide machine or deep learning results with low accuracy when estimating lower extremity joint angles during use of a high-heeled shoe.

발 압력 시스템은 수치 및 이미지 데이터를 저장할 수 있으므로 발 압력 매핑 이미지는 전단 및 정상 응력 정보를 포함할 수 있으며, 이것은 정보가 많을수록 훈련의 품질을 향상시킬 수 있음을 의미한다. 기계 학습은 보행 분석, 의료 및 바이오 정보 분야에서 중요한 분류 및 회귀 과제에 적용할 수 있다. 기계 학습을 사용하는 이점은 작은 데이터 셋에 적용될 수 있다는 것이지만, 특성 선택 및 추출을 필요로 하며, 이것은 연산 시간과 복잡성을 증가시킬 수 있다. 이러한 문제를 극복하기 위하여, 딥 러닝은 특성 추출 절차가 아닌 직접적인 데이터 입력으로 제대로 학습할 수 있는 능력을 갖기 때문에 딥 러닝이 적합할 수 있다. 중요한 것은, 이미지 데이터를 통해 무릎 관절 각도를 평가하는 데에 컨벌루션 신경 네트워크(CNNs: Convolutional Neural Networks)의 딥러닝이 아직 도입되지 않았다는 것이다. 따라서, 본 발명은 컨벌루션 신경망(CNN: Convolutional Neural Network) 이미지 기반 및 발 압력 매핑 이미지를 이용하여 다양한 신발을 사용하는 동안의 보행 주기에 대한 무릎 관절 각도를 추정한다.Since the foot pressure system can store numerical and image data, the foot pressure mapping image can contain shear and normal stress information, which means that more information can improve the quality of training. Machine learning can be applied to important classification and regression tasks in the fields of gait analysis, medical and bioinformatics. The advantage of using machine learning is that it can be applied to small data sets, but it requires feature selection and extraction, which can increase computational time and complexity. To overcome this problem, deep learning can be suitable because it has the ability to learn properly with direct data input rather than a feature extraction procedure. Importantly, deep learning of convolutional neural networks (CNNs) has not yet been introduced to evaluate knee joint angles through image data. Therefore, the present invention estimates the knee joint angle for the gait cycle while using various shoes using a convolutional neural network (CNN) image based and foot pressure mapping image.

도 1은 본 발명의 실시예에 따른 무릎관절 각도 추정장치의 구성을 개략적으로 도시한 도면이다. 1 is a diagram schematically showing the configuration of a knee joint angle estimating device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 무릎관절 각도 추정장치(100)는 감지센서(102), 마커(104), 관절각도 추정부(106) 및 카메라(108)를 포함할 수 있다.Referring to FIG. 1 , a knee joint angle estimation device 100 according to an embodiment of the present invention may include a sensor 102, a marker 104, a joint angle estimation unit 106, and a camera 108. .

감지센서(102)는 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지한다. 이때, 감지센서(102)는 신발의 깔창에 장착되는 F-Scan 센서로 구현될 수 있다. The detection sensor 102 detects at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle during the subject's walking. At this time, the detection sensor 102 may be implemented as an F-Scan sensor mounted on the insole of the shoe.

F-Scan 센서는 상업적인 제품이며, 발바닥의 압력 정보를 검출할 수 있는 임상도구로 정의될 수 있다. 특히, F-Scan 센서는 정확하고, 신뢰성이 있으며, 비용 면에서 효율적이다. 여기서, F-Scan 센서는 유연성 있는 폴리머(polymer) 재질의 깔창(insole)으로 이루어지며, 0.15mm 이하 두께의 잉크 기반의 힘 감지 저항을 포함하는 매트릭스 시스템으로 구현될 수 있다. 즉, F-Scan 센서는 960개의 개별 압력 감지 위치를 가지며, 단위면적(cm2)당 4개의 셀로 구성된다. 이때, 각각의 셀이 힘을 측정하며, 시스템 소프트웨어를 이용하여 각각의 셀에 대한 평균 압력을 계산할 수 있다. 이 경우, 감지요소는 F-Scan 센서의 행과 열에 배열되며, 데이터는 시스템 소프트웨어를 통해 컴퓨터 화면에 2차원으로 표시될 수 있다. 또한, F-Scan 센서에 대응하는 시스템 소프트웨어를 통해 수직 접지 응력, 압력, 피크 압력, 접촉 영역 및 보행주기 시간 데이터를 얻을 수 있으며, 이와 같은 데이터는 추가 분석을 위한 수치, 영상 등으로 저장될 수 있다. 다양한 종류의 신발에 F-Scan 센서를 적용하면, 신발의 종류에 따른 발 압력 데이터를 수집할 수 있다.The F-Scan sensor is a commercial product and can be defined as a clinical tool capable of detecting pressure information on the sole of the foot. In particular, the F-Scan sensor is accurate, reliable and cost effective. Here, the F-Scan sensor is made of an insole made of a flexible polymer material and can be implemented as a matrix system including an ink-based force sensing resistor having a thickness of 0.15 mm or less. That is, the F-Scan sensor has 960 individual pressure sensing positions and is composed of 4 cells per unit area (cm 2 ). At this time, each cell measures the force, and the average pressure for each cell can be calculated using system software. In this case, sensing elements are arranged in rows and columns of the F-Scan sensor, and data can be displayed in two dimensions on a computer screen through system software. In addition, vertical ground stress, pressure, peak pressure, contact area, and gait cycle time data can be obtained through the system software corresponding to the F-Scan sensor, and such data can be saved as numerical values and images for further analysis. there is. By applying the F-Scan sensor to various types of shoes, it is possible to collect foot pressure data according to the type of shoes.

마커(104)는 피험자의 무릎, 무릎의 상측 및 무릎의 하측에 각각 부착된다. 즉, 피험자의 어떠한 자세에서도 무릎 관절의 각도를 측정하기 위해, 마커(104)는 무릎과, 무릎 위의 엉덩이 부분과, 무릎 아래의 발목 부분에 복수로 부착될 수 있다. 이때, 각도측정의 소프트웨어를 이용하여 각각의 마커(104)의 위치를 연결하며, 도 2에 도시한 바와 같이, 피험자의 보행을 하는 동안의 움직임에 따라 무릎 관절의 각도의 변화를 측정할 수 있다.The marker 104 is attached to the subject's knee, the upper side of the knee, and the lower side of the knee, respectively. That is, in order to measure the angle of the knee joint in any posture of the subject, a plurality of markers 104 may be attached to the knee, the hip portion above the knee, and the ankle portion below the knee. At this time, the angle measurement software is used to connect the positions of each marker 104, and as shown in FIG. 2, the change in angle of the knee joint can be measured according to the movement of the subject while walking. .

관절각도 추정부(106)는 각각의 마커(104)를 연결하여 무릎각도를 측정하며, 측정되는 무릎각도 및 감지센서(102)에 의해 감지되는 감지신호에 기반하여 신발에 대응하는 무릎관절 각도를 추정한다.The joint angle estimator 106 measures the knee angle by connecting each marker 104, and calculates the knee joint angle corresponding to the shoe based on the measured knee angle and the detection signal detected by the sensor 102. guess

카메라(108)는 피험자의 위치로부터 설정된 거리에 이격되어 설치되며, 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영한다. 이때, 관절각도 추정부(106)는 카메라(108)에 의해 촬영되는 이미지 프레임, 감지센서(102)에 의해 감지되는 감지신호, 및 각각의 마커(104)에 의해 측정되는 무릎각도를 동기화하여 무릎관절 각도를 추정할 수 있다. 이때, 관절각도 추정부(106)는 카메라(108)에 의해 촬영되는 영상과, 감지센서(102)에 의해 감지되는 감지신호, 및 마커(104)를 통해 측정되는 무릎관절 각도를 시간적으로 동기화하며, 카메라(108)에 의해 촬영되는 영상신호에 감지신호 및 무릎관절 각도의 측정신호를 함께 실시간으로 표시할 수 있다.The camera 108 is installed at a set distance from the subject's position, and captures a set number of image frames per unit time for analyzing the subject's gait state. At this time, the joint angle estimator 106 synchronizes the image frame captured by the camera 108, the detection signal detected by the detection sensor 102, and the knee angle measured by each marker 104 to synchronize the knee angle. Joint angles can be estimated. At this time, the joint angle estimation unit 106 synchronizes the video captured by the camera 108, the detection signal detected by the sensor 102, and the knee joint angle measured through the marker 104 in time. , It is possible to display the detection signal and the measurement signal of the knee joint angle together with the video signal photographed by the camera 108 in real time.

한편, 본 발명의 실시예에 따른 무릎관절 각도 추정은 6명의 건강한 여성 참가자에 대하여 무릎관절 각도를 추정하였다. 각각의 참가자는 하이힐과 러닝머신을 사용한 경험이 있으며, 나이는 만 20.7ㅁ0.8세이며, 체중은 49.8ㅁ1.7kg이고, 키는 158.7ㅁ4.0cm 이다. 또한, 평발, 발 통증, 다리 부상, 하지 수술 등을 받은 경험이 있는 참가자는 무릎관절 각도의 추정 대상에서 제외하였다.Meanwhile, the knee joint angle estimation according to the embodiment of the present invention estimated the knee joint angle for 6 healthy female participants. Each participant has experience using high heels and a treadmill, and is 20.7±0.8 years old, weighs 49.8±1.7 kg, and is 158.7±4.0 cm tall. In addition, participants with experience of flat feet, foot pain, leg injuries, and lower extremity surgery were excluded from the estimation of knee joint angle.

또한, 본 발명의 실시예에 따른 무릎관절 각도 추정의 실험장비로 러닝 머신, 스마트폰(카메라), 삼각대, F-Scan 센서, 3종류의 신발을 구성하였다. 여기서, 발 압력 매핑은 F-Scan(Tekscan Inc., Boston, MA, USA)에 의해 프레임 비율을 100fps(frame per second)로 설정하였으며, 스마트폰의 카메라를 이용하여 피험자의 각각의 보행상태를 영상으로 녹화하였다. 이 경우, 카메라는 트레드밀(treadmill) 중심에서 2.5m, 지상에서 1.0m 떨어진 위치에서 초당 30 프레임으로 데이터를 녹화하였다. 또한, 마커(104)는 각 피험자의 엉덩이, 무릎 및 발목에 배치하였으며, Kinovea 소프트웨어의 각도 도구를 이용하여 각각의 마커(104)의 위치를 자동으로 추적하였다. In addition, as the experimental equipment for estimating the angle of the knee joint according to the embodiment of the present invention, a treadmill, a smartphone (camera), a tripod, an F-Scan sensor, and three types of shoes were constructed. Here, for foot pressure mapping, the frame rate was set to 100 fps (frame per second) by F-Scan (Tekscan Inc., Boston, MA, USA), and each gait state of the subject was imaged using a smartphone camera. recorded with In this case, the camera recorded data at 30 frames per second at a distance of 2.5 m from the center of the treadmill and 1.0 m from the ground. In addition, markers 104 were placed on the hips, knees, and ankles of each subject, and the position of each marker 104 was automatically tracked using the angle tool of Kinovea software.

실험 프로토콜은 도 3에 도시한 바와 같이, F1: 평평한 단화, F2: 운동화, F3: 클래식 펌프 힐의 세 가지 종류의 신발을 사용하여 피험자가 스스로 선택한 편안한 걸음걸이로 트레드밀 위에서 걷는 것을 포함한다. 이때, 신발의 사용 순서는 무작위로 조정될 수 있다. 또한, 실험의 초반에 본 연구의 주요 목적을 알렸으며, 실험환경에 익숙해지기 위해 피험자들이 스스로 선택한 편안한 걸음걸이로 걷도록 지도했다. 피험자들은 각각의 신발 조건에서 2분 동안 러닝 머신을 걸어야 했으며, 신발 교환 간격은 2분으로 하였다. 도 4는 본 발명의 실시예에 따른 무릎관절 각도 측정에서 사용된 세 가지 신발의 유형을 나타낸다.As shown in FIG. 3, the experimental protocol included walking on a treadmill with a comfortable gait chosen by the subject using three types of shoes: F1: flat shoes, F2: sneakers, and F3: classic pump heels. At this time, the order of using the shoes may be randomly adjusted. In addition, the main purpose of this study was informed at the beginning of the experiment, and the subjects were guided to walk with a comfortable gait of their own choosing to get used to the experimental environment. Subjects had to walk on a treadmill for 2 minutes in each shoe condition, and the shoe change interval was 2 minutes. 4 shows three types of shoes used in the knee joint angle measurement according to an embodiment of the present invention.

도 5는 무릎관절 각도를 추정하기 위해 회귀하는 발 압력 매핑 이미지를 갖는 CNN 알고리즘의 흐름도이다. 이것은 다양한 신발을 신고 편안한 보행으로 걸을 때에 실행될 수 있다.Figure 5 is a flow diagram of a CNN algorithm with regressing foot pressure mapping images to estimate knee joint angle. This can be done when walking with a comfortable gait in a variety of shoes.

1) 입력 데이터 처리1) Input data processing

각 실험 조건에서 수집된 발 압력 매핑 이미지는 F-Scan 센서를 통해 측정되고, F-scan Research 7.0(Tekscan Inc., Boston, MA, USA)을 통해 fsx 파일로 저장된다. 여기서, F-scan Research 7.0은 fsx 파일을 열고, 그 파일을 영상 파일에 저장하는데 사용된다. Foot pressure mapping images collected in each experimental condition were measured using the F-Scan sensor and saved as fsx files through F-scan Research 7.0 (Tekscan Inc., Boston, MA, USA). Here, F-scan Research 7.0 is used to open the fsx file and save the file to an image file.

F-scan 센서에 힘이 가해지면, 발 압력 매핑 이미지가 접촉 영역의 이미지로 나타난다. 보행 주기는 도 6에 도시한 바와 같이, 자세 단계(stance phase)(보행 주기의 60%)와 스윙 단계(swing phase)(보행 주기의 40%)를 포함한다. Eh 6에서, L은 left foot, R은 right foot, HS는 heel strike, FF는 flat foot, MSt는 mid-stance, HO는 heel off, TO는 toe off, IS는 initial swing, MSw는 mid-swing을 나타낸다.When force is applied to the F-scan sensor, the foot pressure mapping image appears as an image of the contact area. As shown in FIG. 6 , the gait cycle includes a stance phase (60% of the gait cycle) and a swing phase (40% of the gait cycle). In Eh 6, L is left foot, R is right foot, HS is heel strike, FF is flat foot, MSt is mid-stance, HO is heel off, TO is toe off, IS is initial swing, MSw is mid-swing indicates

보행 주기(GC: Gait Cycle)는 보행 중 다음 발꿈치 타격까지의 발꿈치 타격 순간(발꿈치와 지면의 접촉)으로 정의된다. 일반적으로, 보행 주기는 뒷꿈치가 지면에 처음 닿는 순간부터 시작된다. 그러나, 작은 크기의 매핑 이미지만이 나타나기 때문에 각각의 보행 주기 영상을 추출하기가 용이하지 않다. 본 발명의 실시예에서는 Wafai 연구진해 의해 연구된 이미지 크기와 유사하게, 힐 타격시의 보행 주기 데이터를 절단하였으며, 안정적인 분석 영역인 1분 중반 데이터에서 GC 영상 10개를 추출하였다. 각각의 GC 영상은 Kinovea 0.8.27(Open and Free Software Foundation, Inc., Bostan, MA, USA)을 통해 절단되었다. 각 주제 및 실험 조건 별로 GC 영상 지속시간이 일정하지 않기 때문에, 동일한 길이의 입력 데이터를 생성하기 위해 각각의 GC 영상에서 100개의 영상을 추출하였다. 도 7은 GC 영상에서 100개의 발 압력 매핑 영상을 획득하는 흐름도를 나타낸 도면이다.The gait cycle (GC) is defined as the heel strike moment (heel contact with the ground) until the next heel strike during walking. In general, the gait cycle begins when the heel first strikes the ground. However, since only a small-sized mapping image appears, it is not easy to extract each gait cycle image. In the embodiment of the present invention, similar to the image size studied by Wafai Research, gait cycle data at the time of heel strike was cut, and 10 GC images were extracted from the mid-minute data, which is a stable analysis area. Each GC image was cropped with Kinovea 0.8.27 (Open and Free Software Foundation, Inc., Bostan, MA, USA). Since the GC image duration is not constant for each subject and experimental condition, 100 images were extracted from each GC image to generate input data of the same length. 7 is a flowchart illustrating the acquisition of 100 foot pressure mapping images from GC images.

먼저, GC 영상의 초당 프레임(fps: frame per second)을 추출하고, GC 영상의 프레임 수를 카운트하였다. 또한, GC 영상의 총 프레임을 초당 프레임으로 나누어 GC 영상의 지속시간을 계산하였다. 또한, 수학식 1을 이용하여 GC 영상으로부터 각 프레임(이미지)를 추출하기 위한 새로운 기간(Tf: timeframe)을 계산하였다. 각각의 이미지는 라벨(1-100)이 지정되었으며, 폴더에 저장된다. 그리고, 각 폴더는 주제와 실험조건에 따라 이름이 정해진다. 영상으로부터 이미지까지 생성하는 기능은 Python 3.7을 통해 수행되었다.First, frames per second (fps) of the GC image were extracted, and the number of frames of the GC image was counted. In addition, the duration of the GC image was calculated by dividing the total frames of the GC image by frames per second. In addition, a new period (Tf: timeframe) for extracting each frame (image) from the GC image was calculated using Equation 1. Each image is assigned a label (1-100) and stored in a folder. And, each folder is named according to subject and experiment condition. The function of generating images from images was performed through Python 3.7.

[수학식 1][Equation 1]

Figure 112021088099652-pat00001
Figure 112021088099652-pat00001

여기서, Tf는 GC 영상으로부터 각각의 이미지(프레임)을 추출하기 위해 사용하는 새로운 기간으로 정의되며, TGC는 GC 영상의 전체 시간으로 정의된다.Here, T f is defined as a new period used to extract each image (frame) from the GC image, and T GC is defined as the total time of the GC image.

본 발명의 실시예에서는 피험자는 편안한 걸음걸이로 러닝 머신 위를 걸어야 하며, 러닝 머신은 보폭 시간을 줄일 수 있다. 따라서, 각 보행 주기 데이터 지속시간은 짧다. 보행 주기 영상에서 100개의 영상을 생성하면, 다른 영상에서의 서있는 각각의 이미지와 비교할 때 이미지 상에 약간의 변화가 나타날 수 있다. 발 압력 매핑 정보는 발이 지면에 접촉할 때 나타난다. 스윙 단계 동안, 발은 지면으로부터 들어 올려지기 때문에 발 압력 매핑에서 그라운드 응력이 발생하지 않는다. 도 8은 GC 영상에서 추출한 100개의 이미지를 포함하는 입력 데이터의 GC의 예를 나타낸다.In an embodiment of the present invention, the subject must walk on the treadmill with a comfortable gait, and the treadmill can reduce the stride time. Therefore, the duration of each gait cycle data is short. If 100 images are generated from the gait cycle image, a slight change may appear on the image compared to each standing image in the other images. Foot pressure mapping information appears when the foot contacts the ground. During the swing phase, ground stress does not occur in the foot pressure mapping because the foot is lifted off the ground. 8 shows an example of GC of input data including 100 images extracted from GC images.

2) 참조 데이터 처리2) Reference data processing

기준 무릎관절 각도는 영상 녹화에서 Kinovea 소프트웨어를 통해 보정될 수 있다. 2분짜리 영상은 처음과 끝부분을 삭제하여 1분으로 잘라내었으며, 보행 분할 성능은 GC 영상의 중간 1분을 통해 수행되었다. Kinovea 소프트웨어에서, 각도 도구는 힐 타격으로부터 시작하여 다음 힐 타격까지 지속적으로 마커를 추적하도록 할당되었으며, 그때는 교정이 중지되고 데이터가 엑셀(Excel) 파일로 저장된다. 이와 같은 과정은 중간 1분의 영상에서 10회의 보행주기를 추출할 때까지 동일한 절차가 반복될 수 있다. 본 발명의 실시예에 따른 무릎관절 각도 추정은 각 피험자와 실험조건에 대한 무릎관절 각도 데이터의 10개의 보행주기를 추출하여 CNN 영상기반 모델의 기준 데이터로 사용하였다. GC의 무릎관절 각도는 길이가 동일하지 않아 MATLAB의 1D 기능에 interp1을 적용하여 GC 당 100개의 데이터 포인트(DP)를 획득하였다.The reference knee joint angle can be corrected through Kinovea software in video recording. The 2-minute video was cut to 1 minute by deleting the beginning and end, and the gait segmentation performance was performed through the middle 1 minute of the GC video. In Kinovea software, the angle tool is assigned to track the marker starting from the heel strike and continuing until the next heel strike, at which time the calibration is stopped and the data is saved as an Excel file. The same process may be repeated until 10 gait cycles are extracted from the video of the middle 1 minute. For knee joint angle estimation according to an embodiment of the present invention, 10 gait cycles of knee joint angle data for each subject and experimental condition were extracted and used as reference data for a CNN image-based model. Since the knee joint angles of the GCs were not of the same length, interp1 was applied to the 1D function of MATLAB to obtain 100 data points (DP) per GC.

3) 제안된 CNN 이미지 기반 모델3) Proposed CNN image-based model

CNN 모델의 헤비 매트릭스를 줄이기 위해 이미지 데이터를 120x120x1인 높이, 너비, 그레이 스케일로 형상화 하였으며, 여기서 채널 치수는 각각 1이다. 영상 데이터의 각각의 픽셀에는 0부터 255까지의 값 범위가 포함되지만, CNN 훈련을 용이하게 하기 위하여 영상 데이터의 각 픽셀을 0-1의 작은 범위로 정규화할 수도 있다. 도 9는 특성 추출과 회귀 블록을 포함하는, 제안된 CNN 이미지 기반 네트워크 아키텍처를 나타낸다.To reduce the heavy matrix of the CNN model, the image data is shaped into 120x120x1 height, width, and gray scale, where the channel dimensions are each 1. Each pixel of the image data includes a value range from 0 to 255, but each pixel of the image data may be normalized to a small range of 0-1 to facilitate CNN training. Figure 9 shows the proposed CNN image-based network architecture, including feature extraction and regression blocks.

딥러닝 알고리즘의 성능은 아키텍처 매개변수와 훈련 매개변수를 포함하는 두 개의 요소에 의존한다. 도 10은 무릎관절 각도를 추정하기 위한 발 압력 매핑 이미지의 실행 하에 CNN 이미지 기반 회귀 작업에서의 각 요소의 세부 사항을 나타낸다. The performance of deep learning algorithms depends on two factors including architecture parameters and training parameters. Figure 10 shows the details of each element in the CNN image-based regression task under the execution of the foot pressure mapping image for estimating the knee joint angle.

일반적으로 딥러닝 알고리즘의 수행은 특성 추출 및 회귀 단계에서 사용되는 아키텍처 매개변수 및 훈련 매개변수를 포함하여, 최적으로 조정된 하이퍼 매개변수를 선택하는 것에 의해 영향을 받는다. 특성 추출 프로세스의 경우, 하이퍼 매개변수는 딥러닝 모델의 정확도를 최적화하는데 중요한 역할을 하며, 딥러닝 모델은 모델을 훈련하기 전에 선택되어야 한다. 아키텍처 매개변수를 선택할 때 층수, 필터 수, 각 필터 크기 및 풀링 크기를 고려해야 할 필요가 있다. 본 발명의 실시예에서는 CNN 이미지 기반 모델을 Conv2D_1 계층, Conv2D_2 계층 및 Conv2D_3 계층에 대하여 각각 32개의 필터, 64 개의 필터 및 64개의 필터를 이용한다. 또한, 각각의 필터의 크기는 모든 컨벌루션에서 3x3 및 2x2 최대 풀링으로 구성된다. 이때, Conv2D_1 계층, Conv2D_2 계층 및 Conv2D_3 계층에서 각각 최대 풀링 후 10%, 10% 및 25%의 확률 레벨을 갖는 중퇴자를 채택하였다. 활성화 함수는 입력 무게가 변환되는 방식을 정의하는데 필수적인 역할을 하는 비선형 변환이며, 이는 뉴런의 다음 층에서 사용될 수 있다. 또한, 시그모이드(Sigmoid), 릴루(Relu), 릴루, 및 엘루(Elu)의 활성화 함수를 통해 Conv2D_1, Conv2D_2, Conv2D_3, 및 조밀도의 출력을 변환하였다. 본 발명의 실시예에 따른 무릎관절 각도의 추정은 회귀과제의 CNN 이미지 기반 모델에서 동작하기 때문에 선형 활성화가 선택되었다. 따라서, 출력 계층은 조밀한 계층의 합계 출력에 선형 활성화 함수를 적용함으로써 공급된다(도 9 참조). 훈련 매개변수의 경우, 배치 크기가 50,500 epochs 이며, 0.007의 학습을 갖는 RMSpro 최적화가 설정되었다.In general, the performance of deep learning algorithms is influenced by selecting optimally tuned hyperparameters, including architectural parameters and training parameters used in the feature extraction and regression stages. For the feature extraction process, hyperparameters play an important role in optimizing the accuracy of the deep learning model, and the deep learning model should be selected before training the model. When choosing architecture parameters, it is necessary to consider the number of layers, number of filters, size of each filter and pooling size. In the embodiment of the present invention, the CNN image-based model uses 32 filters, 64 filters, and 64 filters for the Conv2D_1 layer, the Conv2D_2 layer, and the Conv2D_3 layer, respectively. Also, the size of each filter consists of 3x3 and 2x2 max pooling in all convolutions. At this time, dropouts with probability levels of 10%, 10%, and 25% were selected after maximum pooling in the Conv2D_1 layer, the Conv2D_2 layer, and the Conv2D_3 layer, respectively. The activation function is a non-linear transformation that plays an essential role in defining how the input weight is transformed, which can be used in the next layer of neurons. In addition, the outputs of Conv2D_1, Conv2D_2, Conv2D_3, and density were converted through activation functions of Sigmoid, Relu, Relu, and Elu. Linear activation was selected because the estimation of the knee joint angle according to the embodiment of the present invention operates on the CNN image-based model of the regression task. Thus, the output layer is supplied by applying a linear activation function to the sum output of the dense layer (see Fig. 9). For the training parameters, the batch size is 50,500 epochs and the RMSpro optimization with learning of 0.007 is set.

6명의 피험자들은 세 종류의 신발을 신고 러닝 머신을 걸었다. GC는 100개의 이미지가 포함되며, 각 실험 조건에 대하여 10개의 보행 주기가 추출되었다. 샘플은 훈련, 검증 및 테스트를 위해 각각 12000-3000-3000 이미지와 관련하여 4-1-1 주제로 무작위로 분할되었다.Six subjects walked on a treadmill wearing three types of shoes. GC includes 100 images, and 10 gait cycles for each experimental condition were extracted. Samples were randomly split into 4-1-1 subjects with respect to 12000-3000-3000 images respectively for training, validation and testing.

CNN 모델에 발 압력 매핑의 테스트 이미지를 적용함으로써 얻은 예측 무릎각도의 결과는 1) 이동평균 필터의 10개 지점, 2) 차단 주파수가 10Hz인 디지털 필터, 3) 무릎관절 각도를 얻기 위한 예측된 결과의 언-레벨의 세 단계의 전처리가 요구된다.The results of the predicted knee angle obtained by applying the test image of the foot pressure mapping to the CNN model were 1) 10 points of the moving average filter, 2) a digital filter with a cutoff frequency of 10 Hz, and 3) the predicted result to obtain the knee joint angle. Un-level three-step preprocessing is required.

4) 성능 분석4) Performance analysis

본 발명의 실시예에 따른 무릎관절 각도 추정은 평균 절대 오차(MAE: Mean Absolute Error), 평균 상대 오차(MRE: Mean Relative Error) 및 상관 계수(R)를 사용하여 CNN 영상 기반 모델의 성능을 테스트할 수 있다. Knee joint angle estimation according to an embodiment of the present invention tests the performance of CNN image-based models using Mean Absolute Error (MAE), Mean Relative Error (MRE), and correlation coefficient (R) can do.

MAE는 그 방향을 고려하지 않고 추정값과 실제값 사이의 오차를 관찰하도록 정의된다. MRE는 훈련 동안의 모델에 대한 적합도를 평가하기 위해 계산된다. R-값은 회귀선에 예측값이 얼마나 잘 표시되는지 그리고 독립변수가 모델에 변동량으로 얼마나 잘 조정되었는지를 보여준다. 전술한 세 가지 지표는 다음과 같다.MAE is defined to observe the error between the estimated value and the actual value without considering its direction. The MRE is calculated to evaluate the goodness of fit of the model during training. The R-value shows how well the regression line represents the predicted value and how well the independent variable is adjusted for variation in the model. The three indicators mentioned above are:

[수학식 2][Equation 2]

Figure 112021088099652-pat00002
Figure 112021088099652-pat00002

[수학식 3][Equation 3]

Figure 112021088099652-pat00003
Figure 112021088099652-pat00003

[수학식 4][Equation 4]

Figure 112021088099652-pat00004
Figure 112021088099652-pat00004

여기서, yi는 실제 값, xi는 예측 값, N은 샘플 수,

Figure 112021088099652-pat00005
는 실제 값의 평균, 그리고
Figure 112021088099652-pat00006
는 예측 값의 평균이다.where y i is the actual value, x i is the predicted value, N is the number of samples,
Figure 112021088099652-pat00005
is the average of the actual values, and
Figure 112021088099652-pat00006
is the average of the predicted values.

본 발명의 실시예에 따른 무릎관절 각도의 추정은 발 압력 매핑 이미지로 통합된 CNN 이미지 기반 모델 성능을 평가하기 위하여 세 가지 매트릭스를 사용하였다. 도 11은 세 가지 유형의 신발에 대한 CNN 모델 예측과 기준 데이터를 비교한 무릎관절 각도의 10개의 보행 주기를 나타낸다. CNN 이미지 기반은 무릎관절 각도를 정확하게 측정할 수 있으며, 추정된 무릎관절 각도와 실제의 무릎관절 각도 사이의 유사한 패턴을 보여준다. 세가지 테스트 신발 유형에 대한 정확성은 도 12에 나타낸 바와 같다. 신발의 MAE(deg)는 F1, F2, F3의 각각에 대하여 9.8, 8.9 및 7.2였다. 또한, 도 12를 참조하면, 신발의 MRE(%)는 세 가지 신발 유형 F1, F2, F3의 각각에 대하여 7.0, 6.0 및 5.0 이었다. 또한, F1, F2, F3의 무릎관절 각도를 추정하기 위한 CNN 이미지 기반 구현의 R-값(%)은 각각 72.0, 80.0 및 75.0이었다. 이를 통해, 세 가지 신발 유형에 대해 비슷한 예측 결과를 나타내며, 따라서 CNN 이미지 기반은 서로 다른 신발 유형에 대하여 탁월한 적응성을 보여줌을 알 수 있다.Estimation of the knee joint angle according to an embodiment of the present invention uses three matrices to evaluate the performance of the CNN image-based model integrated with the foot pressure mapping image. Figure 11 shows 10 gait cycles of knee joint angles compared with CNN model predictions and reference data for three types of shoes. The CNN image base can accurately measure the knee joint angle and shows a similar pattern between the estimated knee joint angle and the actual knee joint angle. Accuracy for the three test shoe types is shown in FIG. 12 . The MAE (deg) of the shoe was 9.8, 8.9, and 7.2 for F1, F2, and F3, respectively. Also, referring to FIG. 12, the MRE (%) of the shoes were 7.0, 6.0, and 5.0 for the three shoe types F1, F2, and F3, respectively. In addition, the R-values (%) of the CNN image-based implementation for estimating the knee joint angles of F1, F2, and F3 were 72.0, 80.0, and 75.0, respectively. Through this, it can be seen that similar prediction results are shown for the three types of shoes, and therefore, the CNN image base shows excellent adaptability to different types of shoes.

본 발명의 실시예에 따른 무릎관절 각도의 추정은 다양한 형태의 신발을 신고 편안한 걸음걸이로 걸을 경우의 발 압력 매핑 이미지를 이용한 CNN 이미지 기반 모델 성능을 조사하였다. 비록 스윙 단계에서 이미지 패턴 데이터 없이 훈련되었지만(도 8 참조), CNN 이미지 기반은 MRE가 10% 미만인 무릎관절 각도를 예측할 수 있으며(도 12 참조), 세 가지 유형의 신발에 대하여 GC의 기준 데이터와 유사한 무릎관절 각도 패턴을 제공할 수 있다(도 11 참조). CNN 이미지 기반 네트워크는 입력 이미지 패턴에 크게 의존하므로 스윙 단계 동안의 큰 진폭의 차이는 예측의 불량을 초래할 수 있다.To estimate the knee joint angle according to an embodiment of the present invention, the performance of CNN image-based models was investigated using foot pressure mapping images when walking with a comfortable gait wearing various types of shoes. Although trained without image pattern data in the swing phase (see Fig. 8), the CNN image base can predict the knee joint angle with an MRE of less than 10% (see Fig. 12), and for the three types of shoes, the GC's reference data and A similar knee joint angle pattern can be provided (see FIG. 11). Since CNN image-based networks are highly dependent on input image patterns, large amplitude differences during the swing phase may lead to poor prediction.

관절 각도는 기계학습 또는 딥러닝 알고리즘을 사용하여 서로 다른 센서에서 얻은 수치 데이터를 통해 평가할 수 있다. 또한, CNN 모델을 구축하기 위한 이미지 데이터를 사용하여 관절 각도를 구할 수 있었다. Joint angles can be evaluated through numerical data obtained from different sensors using machine learning or deep learning algorithms. In addition, joint angles could be obtained using image data for constructing a CNN model.

본 발명의 실시예에 따른 무릎관절 각도 추정은 CNN과 발 압력 이미지를 사용하는 것에 초점을 맞추었다. F1, F2, F3 신발 착용시에 GC 이미지 100개를 사용하여 왼쪽 무릎관절 각도가 각각 9.8, 8.9, 7.2인 MAE(deg)를 측정하였다. 본 발명에 따르면, 세 가지 테스트 신발 모두에 대하여 MAE 값이 유사하였다. 따라서, CNN 이미지 기반은 다양한 종류의 신발에 대하여 적응성이 뛰어나다. 본 발명의 실시예에서는 GC 데이터에서 100개의 이미지를 추출하였다. 이때, 더 많은 이미지를 사용할수록 더 낮은 MAE를 나타낼 수 있다.Knee joint angle estimation according to an embodiment of the present invention focuses on using CNN and foot pressure images. When F1, F2, and F3 shoes were worn, MAE (deg) of 9.8, 8.9, and 7.2 angles of the left knee joint was measured using 100 GC images. According to the present invention, the MAE values were similar for all three test shoes. Therefore, the CNN image base is highly adaptable to various types of shoes. In the embodiment of the present invention, 100 images were extracted from GC data. In this case, as more images are used, a lower MAE may be indicated.

실외 또는 가정용 모니터링에서는, 복잡한 시스템 설정, 센서 정렬위치 찾기의 어려움, 사용자가 본 발명의 실시예에 따른 측정시스템을 사용하기 위해 요구되는 피부 또는 신체 관절에 센서를 부착하는 불편을 최소화하는 것이 바람직하다. 본 발명의 실시예에서는 센서를 깔창에 끼우기만 하면 된다. In outdoor or home monitoring, it is desirable to minimize complicated system settings, difficulty in finding sensor alignment positions, and inconvenience of attaching sensors to the skin or body joints required for the user to use the measurement system according to the embodiment of the present invention. . In the embodiment of the present invention, it is only necessary to insert the sensor into the insole.

또한, 딥러닝 접근 방식은 데이터 자동 특성 추출인 엔드-투-엔드 프로세스이며, 입력 이미지 데이터는 딥러닝 모델이 직접 적용된다. 딥러닝은 데이터로부터 높은 수준의 특성을 배우려고 하며, 특성 추출의 구현은 딥러닝 과정에서는 생략되었던 정확한 성능을 제공하는데 있어서 생물의학 응용 분야에서 필수적인 역할을 한다. 이것은 기계 학습에 대한 딥러닝의 돌파구이며, 의학 애플리케이션에 더 적합한 것으로 간주될 수 있다. In addition, the deep learning approach is an end-to-end process, which is data automatic feature extraction, and the input image data is directly applied to the deep learning model. Deep learning attempts to learn high-level features from data, and the implementation of feature extraction plays an essential role in biomedical applications in providing accurate performance that has been omitted from deep learning processes. This is a breakthrough for deep learning over machine learning, and can be considered more suitable for medical applications.

도 13은 본 발명의 실시예에 따른 무릎관절 각도 추정방법을 나타낸 흐름도이다. 본 발명의 실시예에 따른 무릎관절 각도 추정방법은 도 1에 나타낸 무릎관절 추정장치(100)에 의해 수행될 수 있다.13 is a flowchart illustrating a method for estimating a knee joint angle according to an embodiment of the present invention. The knee joint angle estimating method according to an embodiment of the present invention may be performed by the knee joint estimating device 100 shown in FIG. 1 .

도 1 내지 도 13을 참조하면, 감지센서(102)는 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지한다(S102). 이때, 감지센서(102)는 신발의 깔창에 장착되는 F-Scan 센서로 구현될 수 있다. 1 to 13 , the detection sensor 102 detects at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle when the subject is walking (S102). At this time, the detection sensor 102 may be implemented as an F-Scan sensor mounted on the insole of the shoe.

F-Scan 센서는 상업적인 제품이며, 발바닥의 압력 정보를 검출할 수 있는 임상도구로 정의될 수 있다. 특히, F-Scan 센서는 정확하고, 신뢰성이 있으며, 비용 면에서 효율적이다. 여기서, F-Scan 센서는 유연성 있는 폴리머(polymer) 재질의 깔창(insole)으로 이루어지며, 0.15mm 이하 두께의 잉크 기반의 힘 감지 저항을 포함하는 매트릭스 시스템으로 구현될 수 있다. 즉, F-Scan 센서는 960개의 개별 압력 감지 위치를 가지며, 단위면적(cm2)당 4개의 셀로 구성된다. 이때, 각각의 셀이 힘을 측정하며, 시스템 소프트웨어를 이용하여 각각의 셀에 대한 평균 압력을 계산할 수 있다. 이 경우, 감지요소는 F-Scan 센서의 행과 열에 배열되며, 데이터는 시스템 소프트웨어를 통해 컴퓨터 화면에 2차원으로 표시될 수 있다. 또한, F-Scan 센서에 대응하는 시스템 소프트웨어를 통해 수직 접지 응력, 압력, 피크 압력, 접촉 영역 및 보행주기 시간 데이터를 얻을 수 있으며, 이와 같은 데이터는 추가 분석을 위한 수치, 영상 등으로 저장될 수 있다. 다양한 종류의 신발에 F-Scan 센서를 적용하면, 신발의 종류에 따른 발 압력 데이터를 수집할 수 있다.The F-Scan sensor is a commercial product and can be defined as a clinical tool capable of detecting pressure information on the sole of the foot. In particular, the F-Scan sensor is accurate, reliable and cost effective. Here, the F-Scan sensor is made of an insole made of a flexible polymer material and can be implemented as a matrix system including an ink-based force sensing resistor having a thickness of 0.15 mm or less. That is, the F-Scan sensor has 960 individual pressure sensing positions and is composed of 4 cells per unit area (cm 2 ). At this time, each cell measures the force, and the average pressure for each cell can be calculated using system software. In this case, sensing elements are arranged in rows and columns of the F-Scan sensor, and data can be displayed in two dimensions on a computer screen through system software. In addition, vertical ground stress, pressure, peak pressure, contact area, and gait cycle time data can be obtained through the system software corresponding to the F-Scan sensor, and such data can be saved as numerical values and images for further analysis. there is. By applying the F-Scan sensor to various types of shoes, it is possible to collect foot pressure data according to the type of shoes.

마커(104)는 피험자의 무릎, 무릎의 상측 및 무릎의 하측에 각각 부착된다. 즉, 피험자의 어떠한 자세에서도 무릎 관절의 각도를 측정하기 위해, 마커(104)는 무릎과, 무릎 위의 엉덩이 부분과, 무릎 아래의 발목 부분에 복수로 부착될 수 있다. 이때, 각도측정의 소프트웨어를 이용하여 각각의 마커(104)의 위치를 연결하며, 도 2에 도시한 바와 같이, 피험자의 보행을 하는 동안의 움직임에 따라 무릎 관절의 각도의 변화를 측정할 수 있다(S104).The marker 104 is attached to the subject's knee, the upper side of the knee, and the lower side of the knee, respectively. That is, in order to measure the angle of the knee joint in any posture of the subject, a plurality of markers 104 may be attached to the knee, the hip portion above the knee, and the ankle portion below the knee. At this time, the angle measurement software is used to connect the positions of each marker 104, and as shown in FIG. 2, the change in angle of the knee joint can be measured according to the movement of the subject while walking. (S104).

카메라(108)는 피험자의 위치로부터 설정된 거리에 이격되어 설치되며, 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영한다(S106). 이때, 관절각도 추정부(106)는 카메라(108)에 의해 촬영되는 이미지 프레임, 감지센서(102)에 의해 감지되는 감지신호, 및 각각의 마커(104)에 의해 측정되는 무릎각도를 동기화하여 무릎관절 각도를 추정할 수 있다. 이때, 관절각도 추정부(106)는 카메라(108)에 의해 촬영되는 영상과, 감지센서(102)에 의해 감지되는 감지신호, 및 마커(104)를 통해 측정되는 무릎관절 각도를 시간적으로 동기화하며, 카메라(108)에 의해 촬영되는 영상신호에 감지신호 및 무릎관절 각도의 측정신호를 함께 실시간으로 표시할 수 있다.The camera 108 is installed at a set distance from the subject's position, and captures a set number of image frames per unit time for analyzing the subject's gait state (S106). At this time, the joint angle estimator 106 synchronizes the image frame captured by the camera 108, the detection signal detected by the detection sensor 102, and the knee angle measured by each marker 104 to synchronize the knee angle. Joint angles can be estimated. At this time, the joint angle estimation unit 106 synchronizes the video captured by the camera 108, the detection signal detected by the sensor 102, and the knee joint angle measured through the marker 104 in time. , It is possible to display the detection signal and the measurement signal of the knee joint angle together with the video signal photographed by the camera 108 in real time.

무릎관절 각도 추정장치(100)는 카메라(108)에 의해 촬영되는 이미지 프레임, 감지센서(102)에 의해 감지되는 감지신호, 각각의 마커(104)에 의해 측정되는 무릎각도를 동기화할 수 있다(S108). The knee joint angle estimating device 100 may synchronize an image frame captured by the camera 108, a detection signal detected by the sensor 102, and a knee angle measured by each marker 104 ( S108).

또한, 무릎관절 각도 추정장치(100)는 전술한 바와 같이, 카메라(108)에 의해 촬영되는 설정된 보행 시간 동안의 이미지 프레임에서 설정된 보행 주기의 이미지를 추출하고, 추출된 이미지를 CNN(Convolutional Neural Network) 이미지 기반 모델의 기준 데이터로 이용함으로써, 각각의 신발에 대응하는 무릎관절 각도를 추정할 수 있다(S110).In addition, as described above, the knee joint angle estimator 100 extracts an image of a set gait cycle from an image frame for a set gait time photographed by the camera 108, and converts the extracted image to a convolutional neural network (CNN). ), it is possible to estimate the knee joint angle corresponding to each shoe by using it as the reference data of the image-based model (S110).

이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 보호 범위는 다음의 특허청구범위뿐만 아니라 이와 균등한 것들에 의해 정해져야 한다.Embodiments according to the present invention have been described above, but these are merely examples, and those skilled in the art will understand that various modifications and embodiments of equivalent range are possible therefrom. Therefore, the protection scope of the present invention should be defined by the following claims as well as those equivalent thereto.

Claims (10)

피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지하는 감지센서;
상기 피험자의 무릎, 상기 무릎의 상측 및 상기 무릎의 하측에 각각 부착되는 마커;
각각의 상기 마커를 연결하여 무릎각도를 측정하며, 측정되는 상기 무릎각도 및 상기 감지센서에 의해 감지되는 감지신호에 기반하여 신발에 대응하는 무릎관절 각도를 추정하는 관절각도 추정부; 및
상기 피험자의 위치로부터 설정된 거리에 이격되어 설치되며, 상기 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영하는 카메라;
를 포함하고,
상기 관절각도 추정부는 상기 카메라에 의해 촬영되는 이미지 프레임, 상기 감지센서에 의해 감지되는 감지신호, 및 각각의 상기 마커에 의해 측정되는 무릎각도를 동기화하여 무릎관절 각도를 추정하며, 상기 카메라에 의해 촬영되는 설정된 보행 시간 동안의 이미지 프레임에서 설정된 보행 주기의 이미지를 추출하고, 추출된 이미지를 CNN(Convolutional Neural Network) 이미지 기반 모델의 기준 데이터로 이용하는 것을 특징으로 하는 무릎관절 각도 추정장치.
a sensor for detecting at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle when the subject is walking;
markers respectively attached to the subject's knee, an upper side of the knee, and a lower side of the knee;
a joint angle estimator for measuring a knee angle by connecting each of the markers and estimating a knee joint angle corresponding to a shoe based on the measured knee angle and a detection signal detected by the sensor; and
a camera installed at a set distance from the subject's position and photographing a set number of image frames per unit time for analyzing the subject's walking state;
including,
The joint angle estimation unit estimates a knee joint angle by synchronizing an image frame photographed by the camera, a detection signal detected by the detection sensor, and a knee angle measured by each marker, and photographed by the camera. A knee joint angle estimator characterized by extracting an image of a set gait cycle from an image frame for a set gait time and using the extracted image as reference data for a convolutional neural network (CNN) image-based model.
삭제delete 삭제delete 제1항에 있어서,
상기 감지센서는 유연성이 있는 0.15mm 두께 이하의 폴리머 깔창(polymer insole)으로 이루어지며, 단위면적당 설정된 개수 이상의 셀로 구성되고, 각각의 상기 셀에 기반하여 감지위치 및 평균압력을 감지하는 것을 특징으로 하는 무릎관절 각도 추정장치.
According to claim 1,
The detection sensor is made of a flexible polymer insole with a thickness of 0.15 mm or less, is composed of a set number or more cells per unit area, and detects the detection position and average pressure based on each cell. Characterized in that Knee joint angle estimator.
제1항에 있어서,
상기 관절각도 추정부는 힐(heel) 높이 1.0cm 이하의 플랫 슈즈(flat shoes), 3.0cm 이하의 운동화, 9.0cm 이하의 클래식 펌프 힐(classic pump heel)의 각각에 대응하여 무릎관절 각도를 추정하는 것을 특징으로 하는 무릎관절 각도 추정장치.
According to claim 1,
The joint angle estimation unit estimates knee joint angles corresponding to flat shoes with a heel height of 1.0 cm or less, sneakers with a heel height of 3.0 cm or less, and classic pump heels with a height of 9.0 cm or less. Knee joint angle estimator, characterized in that.
무릎관절 각도 추정장치에 의해 수행되는, 신발에 대응하는 무릎관절 각도 추정방법에 있어서,
감지센서를 이용하여, 피험자의 보행시의 수직 그라운드 압력, 압력, 피크압력, 접촉 영역 및 보행주기 중의 적어도 하나를 감지하는 단계;
상기 피험자의 무릎, 상기 무릎의 상측 및 상기 무릎의 하측에 각각 부착되는 마커를 연결하여 무릎각도를 측정하는 단계;
상기 피험자의 위치로부터 설정된 거리에 이격되어 설치된 카메라를 이용하여, 상기 피험자의 보행상태를 분석하기 위한 단위시간당 설정된 수의 이미지 프레임을 촬영하는 단계;
상기 카메라에 의해 촬영되는 이미지 프레임, 상기 감지센서에 의해 감지되는 감지신호, 및 각각의 상기 마커에 의해 측정되는 무릎각도를 동기화하는 단계; 및
측정되는 상기 무릎각도 및 상기 감지센서에 의해 감지되는 감지신호에 기반하여 상기 신발에 대응하는 무릎관절 각도를 추정하는 단계;
를 포함하며,
상기 무릎관절 각도를 추정하는 단계는 상기 카메라에 의해 촬영되는 설정된 보행 시간 동안의 이미지 프레임에서 설정된 보행 주기의 이미지를 추출하고, 추출된 이미지를 CNN(Convolutional Neural Network) 이미지 기반 모델의 기준 데이터로 이용하는 것을 특징으로 하는 무릎관절 각도 추정방법.
In the knee joint angle estimating method corresponding to the shoe, performed by the knee joint angle estimating device,
detecting at least one of vertical ground pressure, pressure, peak pressure, contact area, and gait cycle when the subject walks by using a sensor;
measuring a knee angle by connecting markers respectively attached to the subject's knee, an upper side of the knee, and a lower side of the knee;
photographing a set number of image frames per unit time for analyzing a gait state of the subject using a camera installed at a set distance from the position of the subject;
synchronizing an image frame photographed by the camera, a detection signal detected by the detection sensor, and a knee angle measured by each of the markers; and
estimating a knee joint angle corresponding to the shoe based on the measured knee angle and the detection signal detected by the sensor;
Including,
The step of estimating the knee joint angle extracts an image of a set gait cycle from an image frame for a set gait time taken by the camera, and uses the extracted image as reference data of a Convolutional Neural Network (CNN) image-based model. Knee joint angle estimation method, characterized in that.
삭제delete 삭제delete 제6항에 있어서,
상기 감지센서는 유연성이 있는 0.15mm 두께 이하의 폴리머 깔창(polymer insole)으로 이루어지며, 단위면적당 설정된 개수 이상의 셀로 구성되고, 각각의 상기 셀에 기반하여 감지위치 및 평균압력을 감지하는 것을 특징으로 하는 무릎관절 각도 추정방법.
According to claim 6,
The detection sensor is made of a flexible polymer insole with a thickness of 0.15 mm or less, is composed of a set number or more cells per unit area, and detects the detection position and average pressure based on each cell. Characterized in that Knee joint angle estimation method.
제6항에 있어서,
상기 무릎관절 각도를 추정하는 단계는 힐(heel) 높이 1.0cm 이하의 플랫 슈즈(flat shoes), 3.0cm 이하의 운동화, 9.0cm 이하의 클래식 펌프 힐(classic pump heel)의 각각에 대응하여 무릎관절 각도를 추정하는 것을 특징으로 하는 무릎관절 각도 추정방법.

According to claim 6,
The step of estimating the knee joint angle corresponds to each of flat shoes with a heel height of 1.0 cm or less, sneakers with a heel height of 3.0 cm or less, and classic pump heels with a height of 9.0 cm or less. Knee joint angle estimation method, characterized in that for estimating the angle.

KR1020210100264A 2021-07-30 2021-07-30 Knee joint angle estimating apparatus and method KR102517554B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210100264A KR102517554B1 (en) 2021-07-30 2021-07-30 Knee joint angle estimating apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210100264A KR102517554B1 (en) 2021-07-30 2021-07-30 Knee joint angle estimating apparatus and method

Publications (2)

Publication Number Publication Date
KR20230018556A KR20230018556A (en) 2023-02-07
KR102517554B1 true KR102517554B1 (en) 2023-04-03

Family

ID=85221130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210100264A KR102517554B1 (en) 2021-07-30 2021-07-30 Knee joint angle estimating apparatus and method

Country Status (1)

Country Link
KR (1) KR102517554B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101980378B1 (en) 2019-02-22 2019-08-28 (주)대우루컴즈 Exercise motion guidance system using dynamic motion and body balance
KR102277292B1 (en) * 2020-12-24 2021-07-15 근로복지공단 Measuring device for walking state

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101118654B1 (en) * 2010-08-20 2012-03-06 경북대학교 산학협력단 rehabilitation device using motion analysis based on motion capture and method thereof
KR101556117B1 (en) * 2013-12-27 2015-09-30 한국산업기술대학교산학협력단 System and method for estimating joint angles value of knee joint rehabilitation robot
KR20180089126A (en) 2017-01-31 2018-08-08 주식회사 셀루메드 Apparatus For Rehabilitating A Knee Joint Having Measuring Apparatus Of Knee Bending Angle, And Operating Method Therefor
KR20190061381A (en) * 2017-11-27 2019-06-05 주식회사 알고리고 Method and apparatus for hardware variable automation
KR20200087027A (en) * 2019-01-10 2020-07-20 한국전자통신연구원 Method and apparatus for capturing motion for musculoskeletal diagnosis
KR102302719B1 (en) * 2019-07-22 2021-09-27 단국대학교 산학협력단 Apparatus and method for classification of gait type by performing neural network analysis for various detection information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101980378B1 (en) 2019-02-22 2019-08-28 (주)대우루컴즈 Exercise motion guidance system using dynamic motion and body balance
KR102277292B1 (en) * 2020-12-24 2021-07-15 근로복지공단 Measuring device for walking state

Also Published As

Publication number Publication date
KR20230018556A (en) 2023-02-07

Similar Documents

Publication Publication Date Title
Yang et al. Review wearable sensing system for gait recognition
Nandikolla et al. Experimental gait analysis to study stress distribution of the human foot
CN114052718A (en) Gait assessment system and gait assessment method
Jiang et al. Exploration of gait parameters affecting the accuracy of force myography-based gait phase detection
Strohrmann et al. A data-driven approach to kinematic analysis in running using wearable technology
Li et al. An automatic recognition system for patients with movement disorders based on wearable sensors
Pineda-Gutiérrez et al. Designing a wearable device for step analyzing
KR102517554B1 (en) Knee joint angle estimating apparatus and method
CN112998696A (en) Sole correction method and system based on lower limb assessment and gait analysis and application of sole correction method and system
KR102343379B1 (en) Wearable gait start intention detection device
Aggarwal et al. Design and development of integrated insole system for gait analysis
Kumar et al. Towards a portable human gait analysis & monitoring system
Huang et al. Assessment method of balance ability of older adults using an in-shoe motion sensor
Negi et al. Gait analysis-based identification of neurodegenerative diseases using machine learning techniques
Aqueveque et al. Simple gait segmentation method using a novel plantar pressure measurement system with custom-made capacitive sensors: preliminary results
Gastaldi et al. Technical challenges using magneto-inertial sensors for gait analysis
Inaba et al. Center of pressure estimation and gait pattern recognition using shoes with photo-reflective sensors
Boutaayamou et al. Extraction of Temporal Gait Parameters using a Reduced Number of Wearable Accelerometers.
Hannink et al. Quantifying postural instability in Parkinsonian gait from inertial sensor data during standardised clinical gait tests
Oluwadare Gait analysis on a smart floor for health monitoring
Huang et al. An algorithm for real time minimum toe clearance estimation from signal of in-shoe motion sensor
Sant'Anna et al. Developing a motion language: Gait analysis from accelerometer sensor systems
Gastaldi1a et al. Evaluation of the performances of two wearable systems for gait analysis: a pilot study
Ismail et al. Human postural sway estimation from noisy observations
KR102404850B1 (en) Method and system for frailty prediction using gait parameters

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant