KR102350593B1 - Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble - Google Patents

Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble Download PDF

Info

Publication number
KR102350593B1
KR102350593B1 KR1020200146340A KR20200146340A KR102350593B1 KR 102350593 B1 KR102350593 B1 KR 102350593B1 KR 1020200146340 A KR1020200146340 A KR 1020200146340A KR 20200146340 A KR20200146340 A KR 20200146340A KR 102350593 B1 KR102350593 B1 KR 102350593B1
Authority
KR
South Korea
Prior art keywords
gait
unit
classification
rnn
cnn
Prior art date
Application number
KR1020200146340A
Other languages
Korean (ko)
Other versions
KR102350593B9 (en
Inventor
최상일
Original Assignee
단국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 산학협력단 filed Critical 단국대학교 산학협력단
Priority to KR1020200146340A priority Critical patent/KR102350593B1/en
Application granted granted Critical
Publication of KR102350593B1 publication Critical patent/KR102350593B1/en
Publication of KR102350593B9 publication Critical patent/KR102350593B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • A61B5/6807Footwear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Fuzzy Systems (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a multimodal sensor-based gait pattern classification apparatus using deep learning ensembles, which collects gait information by using a sensor of a shoe insole and accurately identifying a gait pattern by using a combination of convolutional neural network (CNN) and a recurrent neural network (RNN), and a method thereof. According to the present invention, the multimodal sensor-based gait pattern classification apparatus comprises: a data collection unit collecting gait data from a smart insole; a data generation unit defining a section of a unit step in gait information and adjusting the size of all unit steps to a standard length to generate a data set; a CNN learning classification unit and an RNN learning classification unit independently trained by using the data set generated by the data generation unit and applying an average ensemble model to provide one final prediction by performing CNN learning classification and RNN learning classification, respectively; and a gait classification result output unit using a value output from a fully connected network through the CNN learning classification unit and the RNN learning classification unit to determine and output a gait type.

Description

딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법{Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble}Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble}

본 발명은 보행 패턴 분류에 관한 것으로, 구체적으로 신발 인솔의 센서를 이용하여 보행 정보를 수집하고, CNN(Convolutional Neural Network)과 RNN(Recurrent Neural Network)의 조합을 사용하여 보행 패턴을 정확하게 식별할 수 있도록 한 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법에 관한 것이다.The present invention relates to gait pattern classification. Specifically, gait information is collected using a sensor of a shoe insole, and a gait pattern can be accurately identified using a combination of CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network). It relates to an apparatus and method for gait pattern classification based on a multimodal sensor using a deep learning ensemble.

보행은 인간의 대표적인 동작들 가운데 하나로서, 보행 패턴의 분석은 생체공학, 재활의학, 헬스케어 등의 많은 응용분야에서 활용될 수 있다.Walking is one of the representative movements of humans, and analysis of gait patterns can be utilized in many applications such as bionics, rehabilitation medicine, and healthcare.

보행분석의 세부 분야의 하나로서 보행형태 분류는 센서를 사용해 취득한 보행데이터를 바탕으로 파킨슨씨병 진단, 스포츠 분석, 노인 보행보조기구 개발을 위해 연구되고 있다.As one of the sub-fields of gait analysis, gait type classification is being studied for the diagnosis of Parkinson's disease, sports analysis, and development of walking aids for the elderly based on gait data acquired using sensors.

보행형태는 신체적 특성에 의한 물리적 차이, 속도 및 지형의 차이와 같은 요인에 쉽게 영향을 받는 특성을 가지고 있는데, 이러한 특성은 같은 보행형태 내에서의 변이를 크게 만들어 보행형태 분류의 성능에 악영향을 미친다.Gait patterns have characteristics that are easily affected by factors such as physical differences due to physical characteristics, differences in speed and topography, and these characteristics have a negative effect on the performance of gait type classification by making large variations within the same gait type. .

이를테면, 같은 걸음 동작에 대해서도 평지를 걷는 것과 언덕길을 걷는 것의 패턴에 차이가 있고 이러한 변이는 '걸음'이라는 보행형태를 분류하기 위한 특징추출을 힘들게 한다.For example, even for the same gait motion, there is a difference in the pattern of walking on flat ground and walking on a hill, and this variation makes it difficult to extract features for classifying a gait type called 'walking'.

보행형태 분류시스템은 센서데이터를 취득하는 센서 모듈과 취득된 데이터를 기반으로 분류결과를 계산하는 어플리케이션 모듈로 구성된다 보행분류에 이용되는 센서로는 주로 비디오 센서, EMG(electromyographic)센서, plantar pressure 센서, 가속도센서, 자이로 센서 등이 있다.The walking type classification system consists of a sensor module that acquires sensor data and an application module that calculates classification results based on the acquired data. , an accelerometer, and a gyro sensor.

하지만, 대부분의 센서들은 센서의 크기, 설치의 불편함과 같은 제약으로 인해 제한된 환경에서만 보행데이터를 측정할 수밖에 없는 한계가 존재했다.However, most sensors have limitations in measuring gait data only in a limited environment due to limitations such as the size of the sensor and the inconvenience of installation.

최근 웨어러블 센서 기술의 발전은 보행데이터의 측정에 사용할 장비의 경량화 및 간소화를 이끌어내었다.Recent developments in wearable sensor technology have led to weight reduction and simplification of equipment used for measuring gait data.

즉, 센서 모듈이 소형화 되고 저전력 센서 기술들이 발전하면서 스마트 워치, 스포츠 밴드, 스마트 인솔 등 다양한 웨어러블 디바이스들이 개발되고 있다. That is, various wearable devices such as smart watches, sports bands, and smart insoles are being developed as sensor modules are miniaturized and low-power sensor technologies are developed.

웨어러블 센서의 사용은 데이터를 수집하기 위한 환경적 제약이 적기 때문에 일상생활에서 비교적 쉽게 데이터를 수집할 수 있으며, 옵티컬플로우나 히트맵(heat map) 같은 비디오 데이터에 비해서 용량이 작기 때문에 데이터를 저장 및 처리 부담이 적은 장점이 있다.Since the use of wearable sensors has fewer environmental restrictions for data collection, data can be collected relatively easily in daily life. It has the advantage of low processing load.

그리고 다양한 종류의 센서가 내장된 스마트 인솔을 이용하여 보행 정보를 수집하고, 센서 종류별로 신경망 분석을 실시하며, 분석된 정보를 이용하여 보행의 종류를 분류하는 기술들이 제안되고 있으나, 이와 같은 종래 기술의 보행 패턴 분류 기술은 정확도 측면에서 한계가 있다.In addition, techniques for collecting gait information using a smart insole with various types of sensors, performing neural network analysis for each sensor type, and classifying gait types using the analyzed information have been proposed. 's gait pattern classification technique has limitations in terms of accuracy.

따라서, 보행 패턴 분류 정확도를 높일 수 있는 새로운 기술의 개발이 요구되고 있다.Therefore, the development of a new technology capable of increasing the accuracy of gait pattern classification is required.

대한민국 공개특허 제10-2020-0063795호Republic of Korea Patent Publication No. 10-2020-0063795 대한민국 공개특허 제10-2020-0019051호Republic of Korea Patent Publication No. 10-2020-0019051 대한민국 공개특허 제10-2019-0136324호Republic of Korea Patent Publication No. 10-2019-0136324

본 발명은 종래 기술의 보행 패턴 분류 기술의 문제점을 해결하기 위한 것으로, 딥러닝 알고리즘을 활용하여 웨어러블 기기를 통해 수집된 보행 정보를 확인하여 보행 패턴 분류 정확도를 높일 수 있도록 한 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법을 제공하는데 그 목적이 있다.The present invention is to solve the problems of the gait pattern classification technology of the prior art, and by using a deep learning algorithm to check the gait information collected through a wearable device to increase the accuracy of gait pattern classification, a multi-using deep learning ensemble An object of the present invention is to provide an apparatus and method for classifying a gait pattern based on a modal sensor.

본 발명은 신발 인솔의 센서를 이용하여 보행 정보를 수집하고, CNN(Convolutional Neural Network)과 RNN(Recurrent Neural Network)의 조합을 사용하여 보행 패턴을 정확하게 식별할 수 있도록 한 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법을 제공하는데 그 목적이 있다.The present invention collects gait information using a sensor of a shoe insole, and uses a combination of CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network) to accurately identify gait patterns. Multimodal using a deep learning ensemble An object of the present invention is to provide an apparatus and method for sensor-based gait pattern classification.

본 발명은 수집된 원시 보행 정보로부터 사람의 보행 주기를 정확하게 감지하고, CNN과 RNN을 협력적이고 보완적인 방식으로 사용하는 앙상블 모델을 설계하여 멀티모달 센싱을 활용하는 것에 의해 식별 정확도를 높일 수 있도록 한 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법을 제공하는데 그 목적이 있다.The present invention accurately detects the human gait cycle from the collected raw gait information, and designs an ensemble model that uses CNN and RNN in a cooperative and complementary way to improve identification accuracy by utilizing multimodal sensing. An object of the present invention is to provide an apparatus and method for gait pattern classification based on a multimodal sensor using a deep learning ensemble.

본 발명은 인솔이 있는 신발을 신고, 보행 정보를 시스템에 등록하는 환경을 제공하고, 한 걸음의 보행 정보에서 높은 정확도로 보행 패턴을 식별할 수 있도록 한 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법을 제공하는데 그 목적이 있다.The present invention provides an environment for wearing shoes with insoles, registering gait information in the system, and using a deep learning ensemble to identify gait patterns with high accuracy from gait information of one step. An object of the present invention is to provide an apparatus and method for pattern classification.

본 발명의 다른 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Other objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치는 스마트 인솔로부터 보행 데이터를 수집하는 데이터 수집부;보행에 관한 정보에서 단위 스텝의 구간을 정의하고 모든 단위 스텝의 크기를 표준 길이로 조정하여 데이터 세트를 생성하는 데이터 생성부;데이터 생성부에서 생성된 데이터 세트를 이용하여 각각 독립적으로 훈련되고, 각각 CNN 학습 분류 및 RNN 학습 분류를 하여 하나의 최종 예측을 제공하기 위해 평균 앙상블 모델을 적용하는 CNN 학습 분류부 및 RNN 학습 분류부;CNN 학습 분류부 및 RNN 학습 분류부를 통한 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단하여 출력하는 보행 분류 결과 출력부;를 포함하는 것을 특징으로 한다.An apparatus for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention for achieving the above object is a data collection unit that collects gait data from a smart insole; Section of a unit step in information about gait A data generator that defines and adjusts the size of all unit steps to a standard length to generate a data set; Each is independently trained using the data set generated by the data generator, and performs CNN learning classification and RNN learning classification, respectively. A CNN learning classifier and RNN learning classifier that apply an average ensemble model to provide one final prediction; a gait type is determined using the value output from a fully connected network through a CNN learning classifier and an RNN learning classifier. and a gait classification result output unit to output.

다른 목적을 달성하기 위한 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법은 스마트 인솔로부터 사용자의 보행에 관한 정보를 수집하는 단계;보행에 관한 정보에서 단위 스텝의 구간을 정의하는 단계;스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고, 두 발에 대해 동일한 양식의 단위 스텝을 연결하여 데이터 세트를 생성하는 단계;생성된 데이터 세트를 이용하여 CNN 학습 분류 및 RNN 학습 분류를 하고 보행의 종류를 분류할 수 있는 완전연결 네트워크에 입력하고, 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단하는 단계;를 포함하는 것을 특징으로 한다.A method for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention for achieving another object includes: collecting information about a user's gait from a smart insole; section of a unit step in gait-related information defining a data set; scaling all unit steps to a standard length using spline interpolation, and concatenating unit steps of the same form for both feet to generate a data set; Using the CNN learning classification and RNN learning classification, input to a fully connected network capable of classifying the type of gait, and determining the type of gait using the value output from the fully connected network; characterized in that it comprises; do.

이상에서 설명한 바와 같은 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법은 다음과 같은 효과가 있다.The apparatus and method for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble according to the present invention as described above have the following effects.

첫째, 딥러닝 알고리즘을 활용하여 웨어러블 기기를 통해 수집된 보행 정보를 확인하여 보행 패턴 분류 정확도를 높일 수 있도록 한다.First, the deep learning algorithm is used to check the gait information collected through the wearable device to increase the accuracy of gait pattern classification.

둘째, 신발 인솔의 센서를 이용하여 보행 정보를 수집하고, CNN(Convolutional Neural Network)과 RNN(Recurrent Neural Network)의 조합을 사용하여 보행 패턴을 정확하게 식별할 수 있도록 한다.Second, it collects gait information using the sensor of the shoe insole, and uses a combination of CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network) to accurately identify gait patterns.

셋째, 수집된 원시 보행 정보로부터 사람의 보행 주기를 정확하게 감지하고, CNN과 RNN을 협력적이고 보완적인 방식으로 사용하는 앙상블 모델을 설계하여 멀티모달 센싱을 활용하는 것에 의해 식별 정확도를 높일 수 있도록 한다.Third, it is possible to accurately detect the human gait cycle from the collected raw gait information, and to design an ensemble model that uses CNN and RNN in a cooperative and complementary way to increase the identification accuracy by utilizing multimodal sensing.

넷째, 인솔이 있는 신발을 신고, 보행 정보를 시스템에 등록하는 환경을 제공하고, 한 걸음의 보행 정보에서 높은 정확도로 보행 패턴을 식별할 수 있도록 한다.Fourth, it provides an environment in which shoes with insoles are worn, gait information is registered in the system, and gait patterns can be identified with high accuracy in gait information of one step.

도 1은 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 구성도
도 2는 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법을 나타낸 플로우 차트
도 3은 본 발명에 따른 풋로거(FootLogger)의 구성도
도 4는 사람의 보행 주기를 나타낸 구성도
도 5는 8 개의 압력값(파란색 선)의 평균과 표준 편차 및 가우스 함수의 컨볼루션 그래프
도 6은 데이터 표준화 절차를 나타낸 구성도
도 7은 본 발명의 일 실시 예에 따른 네트워크 모델 구성도
도 8은 데이터를 학습 및 테스트 데이터 세트로 분할하는 구성도
도 9는 CNN 및 RNN 아키텍처에서 256개 단위가 있는 완전 연결 계층의 출력에 대한 t-SNE 플롯을 나타낸 구성도
도 10은 트라이 모달 감지를 사용하는 CNN, RNN 및 앙상블 네트워크의 식별 정확도를 나타낸 구성도
도 11은 바이 모달 감지를 사용하는 CNN, RNN 및 앙상블 네트워크의 식별 정확도를 나타낸 구성도
도 12a와 도 12b는 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치를 이용한 분류 정확도 비교 그래프
1 is a block diagram of a device for gait pattern classification based on a multi-modal sensor using a deep learning ensemble according to the present invention;
2 is a flowchart illustrating a method for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention.
3 is a block diagram of a foot logger according to the present invention;
4 is a block diagram showing a gait cycle of a person;
5 is a convolution graph of the average and standard deviation of eight pressure values (blue line) and a Gaussian function;
6 is a block diagram showing a data standardization procedure
7 is a configuration diagram of a network model according to an embodiment of the present invention;
8 is a schematic diagram of partitioning data into training and test data sets.
9 is a schematic diagram showing a t-SNE plot for the output of a fully connected layer with 256 units in CNN and RNN architectures.
10 is a configuration diagram showing the identification accuracy of CNNs, RNNs and ensemble networks using tri-modal detection
11 is a block diagram showing the identification accuracy of CNNs, RNNs and ensemble networks using bi-modal detection.
12A and 12B are graphs comparing classification accuracy using an apparatus for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention.

이하, 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법의 바람직한 실시 예에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a preferred embodiment of an apparatus and method for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble according to the present invention will be described in detail as follows.

본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법의 특징 및 이점들은 이하에서의 각 실시 예에 대한 상세한 설명을 통해 명백해질 것이다.Features and advantages of the apparatus and method for multimodal sensor-based gait pattern classification using a deep learning ensemble according to the present invention will become apparent through detailed description of each embodiment below.

도 1은 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 구성도이다.1 is a block diagram of a device for gait pattern classification based on a multimodal sensor using a deep learning ensemble according to the present invention.

본 발명은 보행 정보에서 개인을 식별하는 프레임 워크를 제공하기 위한 것으로, 참가자 신발 인솔의 센서를 이용하여 보행 정보를 수집하고, CNN(Convolutional Neural Network)과 RNN(Recurrent Neural Network)의 조합을 사용하여 보행 패턴을 분류하는 구성을 포함할 수 있다.The present invention is to provide a framework for identifying an individual in gait information, collecting gait information using a sensor of a participant's shoe insole, and using a combination of CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network) It may include a configuration for classifying a gait pattern.

본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치는 압력센서, 가속도센서,자이로센서를 포함하고 사용자의 보행에 관한 정보를 수집하는 스마트 인솔(10)과, 스마트 인솔(10)로부터 보행 데이터를 수집하는 데이터 수집부(20)와, 보행에 관한 정보에서 단위 스텝의 구간을 정의하고 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고, 두 발에 대해 동일한 양식의 단위 스텝을 연결하여 데이터 세트를 생성하는 데이터 생성부(30)와, 데이터 생성부(30)에서 데이터 세트를 이용하여 각각 독립적으로 훈련되고, 각각 CNN 학습 분류 및 RNN 학습 분류를 하여 하나의 최종 예측을 제공하기 위해 평균 앙상블 모델을 적용하는 CNN 학습 분류부(40) 및 RNN 학습 분류부(50)와, CNN 학습 분류부(40) 및 RNN 학습 분류부(50)를 통한 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단하여 출력하는 보행 분류 결과 출력부(60)를 포함한다.An apparatus for classifying a walking pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention includes a pressure sensor, an acceleration sensor, and a gyro sensor, and a smart insole 10 that collects information about a user's walking, and a smart insole A data collection unit 20 that collects gait data from (10), defines the section of a unit step in information about gait, and adjusts the size of all unit steps to a standard length using spline interpolation, The data generation unit 30, which generates a data set by connecting the unit steps of the same form for both feet, and the data generation unit 30 are each independently trained using the data set, respectively, CNN learning classification and RNN learning A CNN learning classifier 40 and an RNN learning classifier 50 that apply an average ensemble model to classify and provide one final prediction, a CNN learning classifier 40 and an RNN learning classifier 50 and a gait classification result output unit 60 that determines and outputs the type of gait using the value output from the fully connected network.

여기서, 데이터 생성부(30)는 보행에 관한 정보에서 단위 스텝의 구간을 정의하고 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고 압력, 가속 및 회전의 세 가지 감지 모드로 분리하는 감지모드 분리부(31)와, 두 발에 대해 동일한 양식의 단위 스텝을 연결하고 표준화된 데이터 세트를 생성하는 데이터 세트 생성부(32)를 포함한다.Here, the data generator 30 defines a section of a unit step in information about walking, adjusts the size of all unit steps to a standard length using spline interpolation, and detects three types of pressure, acceleration, and rotation. It includes a sensing mode separating unit 31 that separates into modes, and a data set generating unit 32 that connects unit steps of the same form for both feet and generates a standardized data set.

도 2는 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법을 나타낸 플로우 차트이다.2 is a flowchart illustrating a method for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble according to the present invention.

본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법은 먼저, 데이터 수집부가 압력센서, 가속도센서,자이로센서를 포함하는 스마트 인솔로부터 사용자의 보행에 관한 정보를 수집한다.(S201)In the method for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention, first, a data collection unit collects information about a user's gait from a smart insole including a pressure sensor, an acceleration sensor, and a gyro sensor. (S201)

이어, 보행에 관한 정보에서 단위 스텝의 구간을 정의한다.(S202)Next, a section of a unit step is defined in the information about walking. (S202)

그리고 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고, 두 발에 대해 동일한 양식의 단위 스텝을 연결하고 데이터 세트를 생성한다.(S203)Then, by using spline interpolation, the size of all unit steps is adjusted to a standard length, and the unit steps of the same form are connected for both feet and a data set is generated (S203).

이어, 데이터 세트를 이용하여 CNN 학습 분류 및 RNN 학습 분류를 하고 보행의 종류를 분류할 수 있는 완전연결 네트워크에 입력하고, 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단한다.(S204)Next, CNN learning classification and RNN learning classification are performed using the data set, input to a fully connected network capable of classifying the type of gait, and the gait type is determined using the value output from the fully connected network. (S204 )

이하에서 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법의 각 단계를 구체적으로 설명한다.Hereinafter, each step of the method for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble according to the present invention will be described in detail.

수집된 데이터는 압력 센서, 3축 가속도계 및 신발 인솔에 설치된 3축 자이로스코프로 측정된 시계열로 구성되고, 보행 주기에는 스탠스 단계와 스윙 단계가 포함된다.The collected data consists of a time series measured by a pressure sensor, a 3-axis accelerometer, and a 3-axis gyroscope installed on the shoe insole, and the gait cycle includes a stance phase and a swing phase.

보행주기란 한쪽 발이 지면에 닿는 순간부터 지면에서 떨어졌다가 다시 지면에 닿기까지의 동작을 의미한다.The gait cycle refers to the movement from the moment one foot touches the ground to the moment it leaves the ground and then touches the ground again.

보행주기는 총 7단계(heel strike, foot flat, mid stance, heel off, toe off, mid swing, late swing)로 구성된다.The gait cycle consists of a total of 7 steps (heel strike, foot flat, mid stance, heel off, toe off, mid swing, late swing).

Heel strike 단계는 보행 주기의 시작을 나타내는 단계로 일측발의 뒤꿈치가 지면에 닿게 되는 단계이고, foot flat 단계는 일측 발의 발바닥이 지면에 닿는 단계이다. Mid stance 단계는 일측 발의 다리가 지면과 수직이 되며 멈춰있는 상태이고 이때 타측의 다리가 앞으로 움직인다. Heel off 단계는 일측 발뒤꿈치가 바닥에서 들리기 시작하는 시점을 의미하고, toe off 단계는 일측 발의 앞쪽 발가락이 바닥에서 떨어지는 동시에 타측 발의 발바닥이 지면에 닿아 있는 단계이다. Mid swing 단계는 일측 발이 땅에서 떨어진 상태로 앞쪽으로 나아가는 단계이고, late swing 단계는 다음 보행 주기가 시작하기 바로 전 단계를 의미한다.The heel strike stage is a stage indicating the start of the gait cycle, and the heel of one foot is in contact with the ground, and the foot flat stage is a stage in which the sole of one foot is in contact with the ground. In the mid stance phase, the leg of one foot is perpendicular to the ground and is stopped, and at this time, the leg of the other foot moves forward. The heel-off stage refers to a time when one heel starts to be lifted off the floor, and the toe-off stage is a stage in which the front toe of one foot falls off the floor and the sole of the other foot touches the ground at the same time. The mid swing stage is a stage in which one foot moves forward with one foot off the ground, and the late swing stage refers to the stage just before the start of the next gait cycle.

일반적으로 일측 발을 기준으로, 발이 지면에 닿아 있는 heel strike, foot flat, mid stance, heel off, toe off 단계를 스탠스 단계(stance phase)라 정의하며, 발이 지면에서 떨어져 있는 mid swing, late swing 단계를 스윙 단계(swing phase)라 정의한다.In general, based on one foot, heel strike, foot flat, mid stance, heel off, and toe off phases in which the foot is in contact with the ground are defined as the stance phase, and the mid swing and late swing phases in which the foot is away from the ground is defined as the swing phase.

스윙 단계는 발이 공중에 있는 전체 시간이므로 스윙 단계 동안의 압력 값은 해당 발에 대해 0이어야 한다.The swing phase is the total time the foot is in the air, so the pressure value during the swing phase should be zero for that foot.

보행 주기의 이러한 특성을 고려하면 데이터를 보다 효율적으로 사용하기 위해 원래 시계열을 일련의 별도 단위(즉, 단계)로 나눌 수 있어야 한다.Given this nature of the gait cycle, it should be possible to divide the original time series into a series of separate units (i.e., steps) in order to use the data more efficiently.

그러나 인솔에 장착된 압력 센서는 고온 또는 센서 간의 간섭으로 인해 스윙 단계에서 0이 아닌 값을 자주 보고된다.However, the pressure sensor mounted on the insole frequently reports a non-zero value during the swing phase due to high temperature or interference between the sensors.

본 발명에서는 압력 센서의 잠재적인 오류를 극복하기 위해 가우스 필터링을 사용하여 단위 스텝을 결정한다. 그리고 연속적인 단위 스텝(unit step) 데이터에서 보행 패턴을 식별하기 위해 멀티 모달 센싱 데이터와 함께 CNN 및 RNN을 사용하여 앙상블 네트워크를 설계한다.In the present invention, the unit step is determined using Gaussian filtering to overcome the potential error of the pressure sensor. Then, we design an ensemble network using CNN and RNN together with multi-modal sensing data to identify gait patterns in continuous unit step data.

데이터 세트는 압력 센서, 가속도계 또는 자이로 스코프에서 단일, 이중 또는 삼중 모달 입력을 선택하여 생성된다.Data sets are generated by selecting single, double, or triple modal inputs from a pressure sensor, accelerometer, or gyroscope.

그런 다음 CNN과 RNN은 동일한 훈련 데이터 세트를 사용하여 독립적으로 훈련되고, 테스트 단계에서 개인의 소프트 맥스 점수(softmax scores)는 CNN 및 RNN에서 소프트 맥스 점수의 평균을 취하여 계산된다.Then, the CNN and RNN are independently trained using the same training data set, and in the test phase, the individual's softmax scores are calculated by taking the average of the softmax scores from the CNN and RNN.

이와 같은 구성에 의해 단일 단위 스텝만 사용하여 트라이 모달 감지를 사용하여 약 99 %의 식별 정확도를 달성할 수 있다.With such a configuration, an identification accuracy of about 99% can be achieved using tri-modal detection using only a single unit step.

이하에서 원시 보행 정보를 표준 형식으로 변환하기 위한 데이터 전처리 절차, 컨볼루션 신경망, 순환 신경망 및 식별에 사용되는 앙상블 모델의 설계에 관하여 설명한다.Hereinafter, data preprocessing procedures for converting raw gait information into a standard format, convolutional neural networks, recurrent neural networks, and the design of ensemble models used for identification are described.

보행 정보는 정신적, 신체적 질병을 진단하기 위해 분석되고 있다.Gait information is being analyzed to diagnose mental and physical diseases.

보행 패턴의 변화는 지적 장애, 치매, 우울증 및 관절 질환의 변형의 지표 일 수 있고, 보행 정보는 노인의 정신 건강을 반영할 수 있다.Changes in gait patterns may be indicative of intellectual disability, dementia, depression and deformation of joint diseases, and gait information may reflect the mental health of the elderly.

특히 정신 건강이 좋지 않으면 걸음 걸이가 더 비대칭이 된다. 또한, 보행 분석은 연령 및 성별 추정에도 사용할 수 있다.In particular, poor mental health can make your gait more asymmetrical. Gait analysis can also be used to estimate age and gender.

그리고 보행 정보는 시계열 벡터로 수집되며 여러 연속 단위 스텝을 나타낸다. And the gait information is collected as a time series vector and represents several consecutive unit steps.

본 발명에서 데이터 소스는 다음과 같이 획득될 수 있다.In the present invention, the data source may be obtained as follows.

도 3은 본 발명에 따른 풋로거(FootLogger)의 구성도이고, 도 4는 사람의 보행 주기를 나타낸 구성도이다.3 is a block diagram of a foot logger according to the present invention, and FIG. 4 is a block diagram illustrating a gait cycle of a person.

보행 정보를 수집하기 위해 상용 인솔(FootLogger)을 사용할 수 있다.A commercial insole (FootLogger) can be used to collect gait information.

도 1에서와 같이, FootLogger에는 8개의 압력 센서, 3축 가속도계 및 각 발에 대한 3축 자이로스코프가 포함되어 있다. 샘플링 속도는 각 장치에 대해 100Hz이고, 압력 센서는 압력 강도를 0, 1 또는 2의 세 가지 수준 중 하나로 분류한다.As shown in Figure 1, FootLogger includes 8 pressure sensors, a 3-axis accelerometer, and a 3-axis gyroscope for each foot. The sampling rate is 100 Hz for each device, and the pressure sensor categorizes the pressure intensity into one of three levels: 0, 1, or 2.

이와 같이, FootLogger는 8개의 압력 센서로 구성된 압력 센서 어레이(sensor array)와, 3축 가속도 센서 어레이, 3축 자이로 센서 어레이를 내장하고, 양 쪽 인솔에 각각 장착된 센서들은 100Hz의 샘플링율로 데이터를 측정한다. As such, FootLogger has a built-in pressure sensor array consisting of 8 pressure sensors, a 3-axis acceleration sensor array, and a 3-axis gyro sensor array. measure

압력 센서의 경우, 압력의 세기에 따라 0, 1, 2의 값을 출력하는데, 0은 압력이 없는 상태, 즉 swing phase(지면에서 발이 떨어진 상태)이고, 1과 2는 stance phase(발이 지면을 딛고 있는 상태)에서의 압력의 세기를 의미한다.In the case of the pressure sensor, 0, 1, and 2 values are output according to the strength of the pressure. 0 is the state without pressure, that is, the swing phase (the state where the foot is off the ground), and 1 and 2 are the stance phase (the state where the foot is on the ground). It means the strength of the pressure in the standing state).

가속도계와 자이로스코프는 각각 가속과 회전을 측정하고, 모두 3D 공간에 -32,768에서 32,768 사이의 정수로 기록된다.The accelerometer and gyroscope measure acceleration and rotation respectively, both recorded as integers between -32,768 and 32,768 in 3D space.

(단 변량) 시계열과 다변량 시계열을 각각

Figure 112020117927597-pat00001
Figure 112020117927597-pat00002
로 표시한다.(univariate) time series and multivariate time series, respectively
Figure 112020117927597-pat00001
and
Figure 112020117927597-pat00002
indicated as

다른 감지 양식은 위 첨자 문자를 사용하여 표현된다. 즉, 압력은

Figure 112020117927597-pat00003
, 가속도는
Figure 112020117927597-pat00004
, 회전의 경우
Figure 112020117927597-pat00005
이다. 다른 참가자 식별은 아래 첨자 번호, 즉 id = i에 대해
Figure 112020117927597-pat00006
를 사용하여 표현된다.Other sensing modalities are expressed using superscript characters. That is, the pressure is
Figure 112020117927597-pat00003
, the acceleration is
Figure 112020117927597-pat00004
, in the case of rotation
Figure 112020117927597-pat00005
to be. Another participant identification is for a subscript number, i.e. id = i
Figure 112020117927597-pat00006
is expressed using

그리고 데이터 전처리 과정으로 수집된 데이터를 고정된 표준 형식으로 변환함하여 성능을 개선한다.And it improves performance by converting the data collected through data preprocessing into a fixed standard format.

본 발명에서는 식별 정확도 측면에서. 데이터를 표준 형식으로 변환하기 위해 Gaussian 필터링을 사용할 수 있다.In the present invention, in terms of identification accuracy. Gaussian filtering can be used to transform the data into a standard format.

단위 스텝을 보다 일관되고 정확하게 결정하기 위해 8개의 압력 값과 가우스 함수의 평균을 사용하여 컨볼루션 연산을 수행한다.To determine the unit step more consistently and accurately, a convolution operation is performed using the average of the eight pressure values and the Gaussian function.

Figure 112020117927597-pat00007
는 8개의 압력 값의 평균이고,
Figure 112020117927597-pat00008
여기서
Figure 112020117927597-pat00009
라고 하면, 컨볼루션 연산은 수학식 1에서와 같이 정의된다.
Figure 112020117927597-pat00007
is the average of eight pressure values,
Figure 112020117927597-pat00008
here
Figure 112020117927597-pat00009
, the convolution operation is defined as in Equation 1.

Figure 112020117927597-pat00010
Figure 112020117927597-pat00010

도 5는 8 개의 압력값(파란색 선)의 평균과 표준 편차 s = 0.2s(빨간색 선) 인 평균 및 가우스 함수의 컨볼루션 그래프이다.5 is a convolution graph of the average and Gaussian function of the average of eight pressure values (blue line) and the standard deviation s = 0.2s (red line).

도 5에서

Figure 112020117927597-pat00011
Figure 112020117927597-pat00012
의 예는 각각 파란색 선과 빨간색 선으로 표시된다.in Figure 5
Figure 112020117927597-pat00011
and
Figure 112020117927597-pat00012
Examples of are indicated by blue and red lines, respectively.

표준 형식을 정하기 위하여 단위 스텝을 공식적으로 정의한다. A unit step is formally defined to establish a standard format.

각 발에 대해 정렬된 목록

Figure 112020117927597-pat00013
이고, 여기서, 모든 시간 t에 대해
Figure 112020117927597-pat00014
Figure 112020117927597-pat00015
이 되는
Figure 112020117927597-pat00016
이다.Sorted list for each foot
Figure 112020117927597-pat00013
, where, for every time t
Figure 112020117927597-pat00014
and
Figure 112020117927597-pat00015
becoming
Figure 112020117927597-pat00016
to be.

단위 스텝을 시계열

Figure 112020117927597-pat00017
Figure 112020117927597-pat00018
으로 정의하고, 여기서,
Figure 112020117927597-pat00019
이다.time series of unit steps
Figure 112020117927597-pat00017
Figure 112020117927597-pat00018
is defined as, where,
Figure 112020117927597-pat00019
to be.

불연속 변수의 경우, 인솔의 샘플링 속도가 100Hz이고 표준 길이는

Figure 112020117927597-pat00020
으로 정의되므로
Figure 112020117927597-pat00021
이고, 여기서
Figure 112020117927597-pat00022
모든 참가자의 두 발의 단위 스텝이다.For discrete variables, the sampling rate of the insole is 100 Hz and the standard length is
Figure 112020117927597-pat00020
because it is defined as
Figure 112020117927597-pat00021
and where
Figure 112020117927597-pat00022
It is a unit step of all participants' two feet.

그런 다음 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이 d로 조정하고, 두 발에 대해 동일한 양식의 단위 스텝을 연결한다.Then, using spline interpolation, all unit steps are scaled to a standard length d, and unit steps of the same form are connected for both feet.

요약하면, m을 감지하는 i 번째 단위 스텝은

Figure 112020117927597-pat00023
으로 표시되고, 여기서
Figure 112020117927597-pat00024
이고, 해당 치수는
Figure 112020117927597-pat00025
Figure 112020117927597-pat00026
이다. 실험에서는 d = 87로 설정한다.In summary, the i-th unit step detecting m is
Figure 112020117927597-pat00023
is indicated as, where
Figure 112020117927597-pat00024
, and the dimensions are
Figure 112020117927597-pat00025
and
Figure 112020117927597-pat00026
to be. In the experiment, d = 87 is set.

도 6은 데이터 표준화 절차를 나타낸 구성도이다.6 is a block diagram illustrating a data standardization procedure.

도 6의 (a)는 원본 형식이고, (b)는 형식의 길이가 d = 87로 고정된 것이고, (c)는 두 발의 동일한 감지 방식이 표준 형식으로 연결되는 것을 나타낸 것이다.Figure 6 (a) shows the original format, (b) shows that the length of the model is fixed at d = 87, and (c) shows that the same sensing method of both feet is connected in a standard format.

도 6은 데이터 표준화를 직관적으로 보여주기 위해 절차를 나타낸 것으로, 두 발의 원본 시계열은 다음 절차에 따라 표준 형식으로 변환된다.6 shows a procedure to intuitively show data standardization, and the original time series of two feet is converted into a standard format according to the following procedure.

(a) 원본 시계열은 두 발의 단위 스텝의 시작 시간과 종료 시간을 독립적으로 사용하여 단위 조각(unit fragments)으로 분할된다.(a) The original time series is divided into unit fragments using the start time and end time of the two unit steps independently.

(b) 모든 단위 조각은 스플라인 보간을 사용하여 표준 단위 스텝 간격 d로 크기가 조정된다. 그런 다음 압력, 가속 및 회전의 세 가지 감지 모드로 분리된다.(b) All unit pieces are scaled using spline interpolation with standard unit step spacing d. It is then separated into three sensing modes: pressure, acceleration and rotation.

(c) 각 감지 모드에 대해 두 발의 크기가 조정된 조각이 함께 결합된다.(c) For each sensing mode, the sized pieces of the two feet are joined together.

또한,

Figure 112020117927597-pat00027
연속 단위 스텝을 하나의 샘플로 결합하여 참조 데이터 세트를 생성한다.Also,
Figure 112020117927597-pat00027
Consecutive unit steps are combined into one sample to create a reference data set.

도 6은 참조 데이터 세트를 사용하여 단위 스텝의 정보 양이 분류 정확도에 미치는 영향을 나타낸 것으로, 정보의 양은 k- 값에 비례한다.6 shows the effect of the amount of information of a unit step on classification accuracy using a reference data set, and the amount of information is proportional to the k-value.

세부적으로, 일련의 단위 스텝

Figure 112020117927597-pat00028
를 전체
Figure 112020117927597-pat00029
에 관한 새 레이블
Figure 112020117927597-pat00030
로 다시 레이블을 지정한다. 여기서,
Figure 112020117927597-pat00031
이다.Specifically, a series of unit steps
Figure 112020117927597-pat00028
full
Figure 112020117927597-pat00029
new label about
Figure 112020117927597-pat00030
label it again with here,
Figure 112020117927597-pat00031
to be.

따라서 데이터 세트의 치수는

Figure 112020117927597-pat00032
로 표현할 수 있다.So the dimensions of the data set are
Figure 112020117927597-pat00032
can be expressed as

여기서 w = 8은 압력의 경우이고 가속 및 회전의 경우 w = 3이다.where w = 8 for pressure and w = 3 for acceleration and rotation.

네트워크 설계에 관하여 설명하면 다음과 같다.The network design will be described as follows.

데이터 세트에는 트라이 모달 감지를 사용하여 측정된 시계열이 포함된다.The data set contains time series measured using tri-modal sensing.

본 발명에서는 인솔에서 동일한 보행주기 동안 한 발과 지면의 서로 다른 위치 사이의 압력을 측정했기 때문에 8개의 압력 값이 상관 관계가 있는 것을 이용한다. 마찬가지로 3차원 공간의 가속도 값은 상관 관계가 있고 3차원 공간의 회전 값도 상관 관계가 있다.In the present invention, since the pressure between one foot and different positions on the ground was measured in the insole during the same gait cycle, eight pressure values correlated with each other are used. Similarly, acceleration values in 3D space are correlated, and rotation values in 3D space are also correlated.

이러한 특성을 고려하여 CNN과 RNN을 활용한 예측 네트워크 모델을 설계한다.Considering these characteristics, we design a predictive network model using CNN and RNN.

본 발명에 따른 네트워크 모델의 입력은 표준 형식의 압력

Figure 112020117927597-pat00033
,가속도
Figure 112020117927597-pat00034
및 회전
Figure 112020117927597-pat00035
의 단위 스텝이며 모델의 출력은 소프트 맥스 확률 u의 벡터로 다음과 같이 정의된다.The input of the network model according to the invention is a pressure in standard form
Figure 112020117927597-pat00033
,acceleration
Figure 112020117927597-pat00034
and rotation
Figure 112020117927597-pat00035
is a unit step of and the output of the model is a vector of soft max probability u, defined as

Figure 112020117927597-pat00036
Figure 112020117927597-pat00036

CNN 만 활성화된 경우

Figure 112020117927597-pat00037
, RNN 만 활성화 된 경우
Figure 112020117927597-pat00038
, CNN과 RNN이 모두 활성화 된 경우
Figure 112020117927597-pat00039
표기법을 사용한다.If only CNN is enabled
Figure 112020117927597-pat00037
, if only RNN is active
Figure 112020117927597-pat00038
, when both CNN and RNN are enabled
Figure 112020117927597-pat00039
use the notation.

또한 제안된 네트워크 모델은 단일 모드 및 이중 모드 감지에도 적용할 수 있도록 설계된다.In addition, the proposed network model is designed to be applicable to single-mode and dual-mode detection.

유니 모달 감지 모델인 경우에는

Figure 112020117927597-pat00040
,
Figure 112020117927597-pat00041
,
Figure 112020117927597-pat00042
, 바이 모달 감지 모델의 경우
Figure 112020117927597-pat00043
,
Figure 112020117927597-pat00044
,
Figure 112020117927597-pat00045
,
Figure 112020117927597-pat00046
,
Figure 112020117927597-pat00047
,
Figure 112020117927597-pat00048
으로 표기한다.In case of uni-modal detection model,
Figure 112020117927597-pat00040
,
Figure 112020117927597-pat00041
,
Figure 112020117927597-pat00042
, for the bimodal sensing model
Figure 112020117927597-pat00043
,
Figure 112020117927597-pat00044
,
Figure 112020117927597-pat00045
,
Figure 112020117927597-pat00046
,
Figure 112020117927597-pat00047
,
Figure 112020117927597-pat00048
marked with

네트워크 모델의 개념 다이어그램은 도 7에서와 같다.A conceptual diagram of the network model is shown in FIG. 7 .

도 7은 본 발명의 일 실시 예에 따른 네트워크 모델 구성도이다.7 is a configuration diagram of a network model according to an embodiment of the present invention.

본 발명에 적용되는 컨볼루션 신경망(Convolutional Neural Network)에 관하여 설명하면 다음과 같다.A convolutional neural network applied to the present invention will be described as follows.

컨볼루션 인공신경망은 특징 추출기(feature extractor)와 완전 연결 레이어(fully connected layer)로 구성된다. 특징 추출기는 필터 레이어(filter layer), 비선형 활성화 함수 레이어(non-linearity activation function layer), 그리고 특징추출 레이어(feature pooling layer)의 3단계로 이루어진다.A convolutional neural network consists of a feature extractor and a fully connected layer. The feature extractor consists of three steps: a filter layer, a non-linearity activation function layer, and a feature pooling layer.

본 발명에 적용되는 CNN은 각 감지 모드에 대해 독립적이지만 동일한 레이어로 구성되고, 네트워크에는 3 개의 연속적인 1 차원(1D) 컨볼루션 계층이 포함된다.The CNN applied to the present invention is composed of the same layer independent but for each detection mode, and the network includes three consecutive one-dimensional (1D) convolutional layers.

첫 번째 컨볼루션 계층에는 크기가

Figure 112020117927597-pat00049
인 32개의 필터가 포함되고, 두 번째 계층에는 크기가 20 × 32인 64개의 필터가 포함되며, 세 번째 계층에는 크기가 20 × 64인 128개의 필터가 포함된다.The first convolutional layer has a size
Figure 112020117927597-pat00049
Figure 112020117927597-pat00049
32 filters are included, the second layer contains 64 filters of size 20 × 32, and the third layer contains 128 filters of size 20 × 64.

첫 번째 레이어의 경우 필터 너비는 표준 입력 형식

Figure 112020117927597-pat00050
의 너비와 같다.For the first layer, the filter width is in the standard input format
Figure 112020117927597-pat00050
equal to the width of

두 번째 및 세 번째 레이어의 경우 필터 너비는 이전 컨벌루션 레이어의 필터 수와 같다.For the second and third layers, the filter width is equal to the number of filters in the previous convolutional layer.

필터와 입력 사이의 컨볼루션 연산은 단일 스칼라 값을 생성하고 일련의 스칼라 값을 연결하여 특징 벡터를 제공한다. 모든 컨벌루션 레이어에 대한 필터링 스트라이드는 1로 설정되었으며 패딩 크기는 출력을 입력과 동일한 높이로 유지하도록 결정된다.The convolution operation between the filter and the input produces a single scalar value and concatenates a series of scalar values to provide a feature vector. The filtering stride for all convolutional layers is set to 1 and the padding size is determined to keep the output the same height as the input.

따라서, 3개의 컨볼루션 레이어 각각 이후의 특성 맵의 차원은 87 × 32, 87 × 64 및 87 × 128이다.Therefore, the dimensions of the feature map after each of the three convolutional layers are 87×32, 87×64, and 87×128.

세 번째 컨벌루션 레이어 이후에 피쳐 맵은 크기가

Figure 112020117927597-pat00051
인 피쳐 벡터를 생성하기 위해 평면화된다.After the third convolutional layer, the feature map is
Figure 112020117927597-pat00051
It is flattened to create an in-feature vector.

바이 모달 및 트라이 모달 감지의 경우 서로 다른 감지 모드의 특징 벡터가 완전 연결 계층의 입력이 되는 하나의 벡터에 연결되고, 그레디언트 손실 현상(vanishing gradient phenomenon)을 피하기 위해 활성화 함수로 ReLU(Rectifier Linear Unit)를 사용한다.In the case of bi-modal and tri-modal sensing, feature vectors of different sensing modes are connected to one vector that becomes the input of a fully connected layer, and Rectifier Linear Unit (ReLU) is used as an activation function to avoid the vanishing gradient phenomenon. use

순환 신경망(Recurrent Neural Network)에 관하여 설명하면 다음과 같다.A recurrent neural network will be described as follows.

CNN과 유사하게 RNN은 각 감지 모드에 대해 동일한 레이어로 구성되고, 네트워크 모델에는 두 개의 연속적인 LSTM(Long Short-Term Memory) 계층이 포함된다.Similar to CNN, RNN consists of the same layer for each detection mode, and the network model includes two consecutive Long Short-Term Memory (LSTM) layers.

다른 RNN 모델과 달리 LSTM은 '오류 역류 문제(error back-flow problem)'를 극복하기 위해 설계된 내부 메모리 장치를 활용하여 장기간의 시계열 데이터에 적용할 수 있다.Unlike other RNN models, LSTM can be applied to long-term time series data by utilizing an internal memory device designed to overcome the 'error back-flow problem'.

본 발명에 따른 네트워크에서 각 LSTM 계층에는 하드 시그모이드 기능(hard sigmoid function)을 사용하여 forget, 입력 및 출력 게이트가 활성화되는 64개의 메모리 유닛이 있다. 과적합 문제를 방지하기 위해 반복적인 드롭 아웃 비율을 0.2로 설정한다.In the network according to the present invention, there are 64 memory units in which forget, input and output gates are activated using a hard sigmoid function in each LSTM layer. Set the iterative dropout ratio to 0.2 to avoid overfitting problems.

첫 번째 LSTM 계층에 대한 입력 차원은

Figure 112020117927597-pat00052
이다.The input dimension to the first LSTM layer is
Figure 112020117927597-pat00052
to be.

입력 데이터의 주어진 행에서 첫 번째 LSTM 계층은 메모리 단위당 단일 스칼라 값을 생성하도록 설계되었으며, 그런 다음 일련의 스칼라 값을 연결하여 출력 벡터를 제공한다.For a given row of input data, the first LSTM layer is designed to produce a single scalar value per unit of memory, and then concatenates a series of scalar values to provide an output vector.

따라서, 첫 번째 LSTM 계층의 출력 차원은 두 번째 LSTM 계층에 대한 입력 인

Figure 112020117927597-pat00053
이다.Thus, the output dimension of the first LSTM layer is the input to the second LSTM layer.
Figure 112020117927597-pat00053
to be.

첫 번째 LSTM 계층과 달리 두 번째 LSTM 계층은 메모리 단위당 출력 벡터의 마지막 스칼라 값만 반환한다. 따라서, 두 번째 LSTM 계층의 출력 차원은 64이다.Unlike the first LSTM layer, the second LSTM layer only returns the last scalar value of the output vector per unit of memory. Therefore, the output dimension of the second LSTM layer is 64.

이중 모드 및 삼중 모드 감지의 경우 서로 다른 감지 모드의 출력 벡터가 하나의 벡터로 연결되어 완전히 연결된 계층의 입력이 된다.In the case of dual-mode and tri-mode sensing, the output vectors of different sensing modes are concatenated into one vector to become the input of a fully connected layer.

전체적으로 연결된 네트워크에 관하여 설명하면 다음과 같다.The overall connected network will be described as follows.

완전 연결 네트워크에는 완전 연결 계층, 드롭 아웃 계층 및 소프트 맥스 계층이 포함된다. 완전 연결 계층에는 256 개의 노드가 포함되며 노드의 활성화 기능은 ReLU이다.A fully connected network includes a fully connected layer, a dropout layer, and a soft max layer. The fully connected layer contains 256 nodes, and the activation function of the node is ReLU.

개별 노드는 확률 0.7로 유지되므로 축소된 레이어가 남게되고, 도 5에서 드롭 아웃 레이어로 표시된다.The individual nodes are kept with a probability of 0.7, so a reduced layer remains, and is indicated as a dropout layer in FIG. 5 .

이 'dropout' 절차는 과적 합 문제(over-fitting problem)를 완화하고 정규화 성능을 개선하는 데 사용된다.This 'dropout' procedure is used to alleviate the over-fitting problem and improve the regularization performance.

소프트 맥스 계층은 n 개의 노드를 포함하고, 여기서, n은 사용자 식별자의 수이다. 이러한 방식으로 소프트 맥스 함수를 사용하여 정규화된 확률을 계산하여 사용자 식별자를 선택할 수 있다.The soft max layer includes n nodes, where n is the number of user identifiers. In this way, a user identifier can be selected by calculating a normalized probability using the soft max function.

평균화 앙상블 모델에 관하여 설명하면 다음과 같다.The averaging ensemble model will be described as follows.

본 발명에 따른 네트워크 모델은 CNN과 RNN을 독립적으로 활용하여 사용자 식별자를 선택한다.The network model according to the present invention selects a user identifier by independently utilizing CNN and RNN.

CNN 및 RNN의 예측을 집계하고 하나의 최종 예측을 제공하기 위해 평균 앙상블 모델을 제안한다. CNN과 RNN 모두 끝에 동일한 소프트 맥스 레이어가 있으므로 다음과 같이 CNN 및 RNN의 평균 확률을 계산할 수 있다.We propose an average ensemble model to aggregate the predictions of CNNs and RNNs and provide one final prediction. Since both CNN and RNN have the same soft max layer at the end, we can compute the average probability of CNN and RNN as follows:

Figure 112020117927597-pat00054
Figure 112020117927597-pat00054

본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법의 성능을 확인하기 위하여 고유한 감지 방식(단일, 이중 및 삼중)과 본 발명에 의한 네트워크 설계(CNN, RNN 및 Ensemble)에서 식별 정확도를 비교한 결과는 다음과 같다.In order to confirm the performance of the apparatus and method for multimodal sensor-based gait pattern classification using the deep learning ensemble according to the present invention, a unique sensing method (single, double and triple) and network design (CNN, RNN) according to the present invention and Ensemble), the results of comparing the identification accuracy are as follows.

20-30세 성인 30명의 보행 정보를 수집하고, 데이터는 참가자들이 약 3분 동안 걷는 동안 인솔을 사용하여 측정되었다. 도보 3분 동안 수집된 데이터에는 평균 약 160 단위 걸음이 포함되었으며 전체 데이터 세트에는 총 4750 단위 걸음이 포함된다.Gait information was collected from 30 adults aged 20-30 years, and the data were measured using an insole while the participants walked for approximately 3 minutes. Data collected during the 3-minute walk included an average of about 160 step steps, while the full data set included a total of 4750 step steps.

실험에서 d = 87로 정하고, 압력, 가속도 및 회전에 대한 데이터 세트의 치수는

Figure 112020117927597-pat00055
,
Figure 112020117927597-pat00056
,
Figure 112020117927597-pat00057
이고, 각각
Figure 112020117927597-pat00058
이다.Let d = 87 in the experiment, and the dimensions of the data set for pressure, acceleration and rotation are
Figure 112020117927597-pat00055
,
Figure 112020117927597-pat00056
,
Figure 112020117927597-pat00057
and each
Figure 112020117927597-pat00058
to be.

도 8은 데이터를 학습 및 테스트 데이터 세트로 분할하는 구성도이다.8 is a block diagram of dividing data into training and test data sets.

도 8에서와 같이, MCCV(30%), Sub-MCCV(50%), MCCV(50%)의 세 가지 유형의 Monte Carlo Cross-Validation(MCCV) 방법에 대해 독립적으로 훈련 및 테스트 데이터 세트를 생성했다.As shown in Figure 8, training and test data sets are generated independently for three types of Monte Carlo Cross-Validation (MCCV) methods: MCCV (30%), Sub-MCCV (50%), and MCCV (50%). did.

훈련 데이터 세트의 제한된 수의 샘플로 시스템의 성능을 확인하기 위해 하위 MCCV 세트가 생성되었다. MCCV는 훈련 또는 테스트 데이터 세트에서 샘플의 100%를 사용했지만 Sub-MCCV는 전체 샘플의 약 84%만 사용하였다.A sub-MCCV set was generated to verify the performance of the system with a limited number of samples from the training data set. MCCV used 100% of the samples in the training or test data set, whereas Sub-MCCV used only about 84% of the total sample.

첫 번째 데이터 세트는 전체 샘플의 30%를 테스트 데이터로, 나머지 데이터를 학습 데이터로 선택하여 생성되었으며, 이 세트를 MCCV(30%)로 표시한다.The first data set was generated by selecting 30% of the total sample as test data and the remaining data as training data, denoted as MCCV (30%).

두 번째 데이터 세트는 테스트 및 학습 데이터에 대해 동일한 수의 샘플을 선택하여 전체 샘플의 하위 집합에서 생성되었으며 이 세트를 Sub-MCCV(50%)로 표시한다.The second data set was generated from a subset of the total sample by selecting the same number of samples for the test and training data, and we denote this set as Sub-MCCV (50%).

세 번째 데이터 세트는 전체 샘플의 50%를 테스트 데이터로, 나머지는 훈련 데이터로 선택하여 생성되었으며, 이 세트를 MCCV(50%)로 표시한다.The third data set was generated by selecting 50% of the total sample as test data and the rest as training data, and denotes this set as MCCV (50%).

다양한 k- 값 및 검증 방법에 대한 샘플 수가 표 1에서와 같다. 위에서 설명한 절차에 따라 세 가지 유형의 데이터 세트 생성을 20회 반복하였다. 각 데이터 세트에 대해 제안된 네트워크를 독립적으로 훈련하고 테스트한 다음 MCCV 방법의 각 유형에 대해 평균 식별 정확도를 요약하였다.Table 1 shows the number of samples for the various k-values and validation methods. Following the procedure described above, the generation of three types of data sets was repeated 20 times. For each data set, the proposed network was independently trained and tested, and then the average identification accuracy was summarized for each type of MCCV method.

Figure 112020117927597-pat00059
Figure 112020117927597-pat00059

잠복 공간 및 훈련 시간(Latent Space and Training Time)은 다음과 같다.The latent space and training time are as follows.

도 9는 단위 특성 벡터의 t- 분산 확률적 이웃 임베딩(t-SNE) 플롯으로, t-SNE는 비선형 차원 감소를 수행한다. 특징 벡터는 도 7의 CNN 및 RNN 아키텍처에서 256개 단위가 있는 완전 연결 계층의 출력이다.9 is a t-dispersion stochastic neighbor embedding (t-SNE) plot of a unit feature vector, where t-SNE performs non-linear dimensionality reduction. The feature vector is the output of the fully connected layer with 256 units in the CNN and RNN architectures of FIG.

도 9의 각 색상은 참가자를 나타내며 동일한 색상의 점은 참가자의 단위 스텝에 해당한다.Each color in Fig. 9 represents a participant, and dots of the same color correspond to the participant's unit step.

각 참가자의 모든 단위 스텝은 명확하게 함께 그룹화되고 모든 참가자의 단위 스텝은 명확하게 클러스터된다.All unit steps of each participant are clearly grouped together and unit steps of all participants are clearly clustered.

도 9는 CNN 및 RNN 아키텍처에서 256개 단위가 있는 완전 연결 계층의 출력에 대한 t-SNE 플롯을 나타낸 구성도이다.9 is a schematic diagram showing a t-SNE plot for the output of a fully connected layer with 256 units in CNN and RNN architectures.

실험에서 k = 1 및 트라이 모달 감지의 경우 앙상블 모델의 평균 훈련 시간은 28.48분이다.For k = 1 and trimodal detection in the experiment, the average training time of the ensemble model is 28.48 minutes.

식별 정확도 검증을 위하여 생성된 데이터 세트를 사용하여 압력, 가속 및 회전 데이터에서 단일, 이중 및 삼중 감지 방식의 세 가지 시나리오를 고려하여 제안된 프레임 워크의 성능을 평가한다.Using the generated data set for identification accuracy verification, we evaluate the performance of the proposed framework by considering three scenarios: single, double and triple sensing schemes in pressure, acceleration and rotation data.

세 가지 다른 MCCV 방법 중 하나에 의해 생성된 주어진 훈련 데이터 세트를 사용하여 1-4의 고유 한 k 값에 대해 독립적으로 CNN 및 RNN 네트워크를 훈련한다.We train CNN and RNN networks independently for unique k values of 1–4 using a given training data set generated by one of three different MCCV methods.

앙상블 네트워크의 예측 결과는 사전 훈련된 CNN 및 RNN 네트워크의 소프트 맥스 점수를 평균하여 결정되었다.The prediction result of the ensemble network was determined by averaging the soft max scores of the pre-trained CNN and RNN networks.

도 10은 서로 다른 k- 값에 대해 트라이 모달 감지를 사용하는 제안된 방법의 식별 정확도를 나타낸 것으로, (a)MCCV(30%), (b)Sub-MCCV(50%), (c)MCCV(50%)이다.10 shows the identification accuracy of the proposed method using tri-modal sensing for different k-values, (a) MCCV (30%), (b) Sub-MCCV (50%), (c) MCCV (50%).

트라이 모달 감지에서 고려한 첫 번째 시나리오는 압력, 가속 및 회전 데이터의 모든 양식을 활용할 수 있다는 것이다. 도 10은 트라이 모달 감지를 사용하는 CNN, RNN 및 앙상블 네트워크의 식별 정확도를 나타낸 것이다.The first scenario considered in tri-modal sensing is that all forms of pressure, acceleration and rotation data can be utilized. 10 shows the identification accuracy of CNNs, RNNs and ensemble networks using tri-modal sensing.

식별 정확도에 대한 자세한 정보는 표 2에서와 같다.Detailed information on the identification accuracy is shown in Table 2.

Figure 112020117927597-pat00060
Figure 112020117927597-pat00060

바이 모달 감지에서 고려한 시나리오는 압력, 가속도 및 회전 데이터에서 두 가지 방식의 조합을 활용할 수 있다는 것이다.The scenario considered in bimodal sensing is that a combination of the two approaches can be utilized in pressure, acceleration and rotation data.

도 11은 바이 모달 감지를 사용하는 CNN, RNN 및 앙상블 네트워크의 식별 정확도를 나타낸 것으로, 도 11의 (a)는 압력-가속, (b)는 압력-회전, (c)는 가속-회전의 식별 정확도이다.11 shows the identification accuracy of CNNs, RNNs and ensemble networks using bi-modal sensing. is accuracy.

표 3은 k = 1에 대한 식별 정확도를 요약한 것이다.Table 3 summarizes the identification accuracy for k = 1.

Figure 112020117927597-pat00061
Figure 112020117927597-pat00061

도 12a와 도 12b는 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치를 이용한 분류 정확도 비교 그래프이다.12A and 12B are graphs comparing classification accuracy using an apparatus for classifying a gait pattern based on a multi-modal sensor using a deep learning ensemble according to the present invention.

본 발명은 압력 데이터를 사용하여 원래 보행 정보에 센서의 소음이 포함되어 있어도 사람의 보행주기를 정확하게 감지할 수 있는 것을 알 수 있다.It can be seen that the present invention can accurately detect a person's gait cycle even if the sensor noise is included in the original gait information by using the pressure data.

단일 보행주기의 데이터를 사용하여 개인을 식별하기 위해 서로 다른 감지 데이터를 개별적으로 또는 함께 사용하는 CNN 및 RNN을 기반으로 한 앙상블 모델을 이용하는 것으로, 식별 정확도를 고려할 때 앙상블 모델은 CNN 또는 RNN 단독에 비해 가장 높은 성능을 나타낸다.It is the use of ensemble models based on CNNs and RNNs that use different sensing data individually or together to identify individuals using data from a single gait cycle. shows the highest performance compared to

이상에서 설명한 본 발명에 따른 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법은 보행 정보에서 개인을 식별하는 프레임 워크를 제공하기 위한 것으로, 참가자 신발 인솔의 센서를 이용하여 보행 정보를 수집하고, CNN(Convolutional Neural Network)과 RNN(Recurrent Neural Network)의 조합을 사용하여 보행 패턴을 분류할 수 있도록 한 것이다.The apparatus and method for gait pattern classification based on multi-modal sensor using a deep learning ensemble according to the present invention described above are to provide a framework for identifying an individual in gait information, and to walk using a sensor of a participant's shoe insole. It collects information and classifies gait patterns using a combination of Convolutional Neural Network (CNN) and Recurrent Neural Network (RNN).

이상에서의 설명에서와 같이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명이 구현되어 있음을 이해할 수 있을 것이다.As described above, it will be understood that the present invention is implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 명시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하고, 본 발명의 범위는 전술한 설명이 아니라 특허청구 범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Therefore, the specified embodiments are to be considered in an illustrative rather than a restrictive point of view, the scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto are included in the present invention. will have to be interpreted.

10. 스마트 인솔 20. 데이터 수집부
30. 데이터 표준화부 40. CNN 학습 분류부
50. RNN 학습 분류부 60. 보행 분류 결과 출력부
10. Smart guide 20. Data collection unit
30. Data standardization unit 40. CNN learning classification unit
50. RNN learning classification unit 60. gait classification result output unit

Claims (13)

스마트 인솔로부터 보행 데이터를 수집하는 데이터 수집부;
보행에 관한 정보에서 단위 스텝의 구간을 정의하고 모든 단위 스텝의 크기를 표준 길이로 조정하여 데이터 세트를 생성하는 데이터 생성부;
데이터 생성부에서 생성된 데이터 세트를 이용하여 각각 독립적으로 훈련되고, 각각 CNN 학습 분류 및 RNN 학습 분류를 하여 하나의 최종 예측을 제공하기 위해 평균 앙상블 모델을 적용하는 CNN 학습 분류부 및 RNN 학습 분류부;
CNN 학습 분류부 및 RNN 학습 분류부를 통한 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단하여 출력하는 보행 분류 결과 출력부;를 포함하고,
CNN 학습 분류부 및 RNN 학습 분류부는, 동일한 훈련 데이터 세트를 사용하여 독립적으로 훈련되고, 테스트 단계에서 개인의 소프트 맥스 점수(softmax scores)는 CNN 및 RNN에서 소프트 맥스 점수의 평균을 취하여 계산되는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
a data collection unit that collects gait data from the smart insole;
a data generator defining a section of a unit step in information about walking and adjusting the size of all unit steps to a standard length to generate a data set;
A CNN learning classifier and RNN learning classifier that are each independently trained using the data set generated by the data generator, and apply an average ensemble model to provide one final prediction by performing CNN learning classification and RNN learning classification, respectively. ;
A gait classification result output unit that determines and outputs the type of gait using the value output from the fully connected network through the CNN learning classification unit and the RNN learning classification unit;
The CNN learning classifier and the RNN learning classifier are independently trained using the same training data set, and individual softmax scores in the test phase are calculated by taking the average of the softmax scores in the CNN and RNN. A device for gait pattern classification based on multimodal sensors using a deep learning ensemble of
제 1 항에 있어서, 데이터 생성부는,
보행에 관한 정보에서 단위 스텝의 구간을 정의하고 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고 압력, 가속 및 회전의 세 가지 감지 모드로 분리하는 감지모드 분리부와,
두 발에 대해 동일한 양식의 단위 스텝을 연결하고 데이터 세트를 생성하는 데이터 세트 생성부를 포함하는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
The method of claim 1, wherein the data generator comprises:
A detection mode separation unit that defines the section of a unit step in information about walking, uses spline interpolation to adjust the size of all unit steps to a standard length, and separates it into three sensing modes: pressure, acceleration, and rotation; ,
A device for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble, characterized in that it includes a data set generator that connects unit steps of the same form for both feet and generates a data set.
삭제delete 제 1 항에 있어서, 단 변량 시계열과 다변량 시계열을 각각
Figure 112021144422835-pat00103
Figure 112021144422835-pat00104
로 표시하고,
단위 스텝을 결정하기 위해 8개의 압력 값과 가우스 함수의 평균을 사용하여 컨볼루션 연산을 수행하고,
Figure 112021144422835-pat00062
는 8개의 압력 값의 평균이고,
Figure 112021144422835-pat00063
여기서
Figure 112021144422835-pat00064
라고 하면, 컨볼루션 연산은,
Figure 112021144422835-pat00065
으로 수행되는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
The method according to claim 1, wherein the univariate time series and the multivariate time series are each
Figure 112021144422835-pat00103
and
Figure 112021144422835-pat00104
indicated as,
Perform a convolution operation using the average of the 8 pressure values and the Gaussian function to determine the unit step,
Figure 112021144422835-pat00062
is the average of eight pressure values,
Figure 112021144422835-pat00063
here
Figure 112021144422835-pat00064
, the convolution operation is
Figure 112021144422835-pat00065
An apparatus for classifying a gait pattern based on a multimodal sensor using a deep learning ensemble, characterized in that it is performed as
제 4 항에 있어서, 단위 스텝을,
각 발에 대해 정렬 된 목록
Figure 112021144422835-pat00066
이고, 여기서, 모든 시간 t에 대해
Figure 112021144422835-pat00067
Figure 112021144422835-pat00068
이 되는
Figure 112021144422835-pat00069
인 경우에,
단위 스텝을 시계열
Figure 112021144422835-pat00070
Figure 112021144422835-pat00071
으로 정의하고, 여기서,
Figure 112021144422835-pat00072
이고,
불연속 변수의 경우, 인솔의 샘플링 속도가 100Hz이고 표준 길이는
Figure 112021144422835-pat00073
으로 정의되므로
Figure 112021144422835-pat00074
이고, 여기서
Figure 112021144422835-pat00075
는 모든 참가자의 두 발의 단위 스텝인 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
5. The method of claim 4, wherein the unit step,
sorted list for each paw
Figure 112021144422835-pat00066
, where, for every time t
Figure 112021144422835-pat00067
and
Figure 112021144422835-pat00068
becoming
Figure 112021144422835-pat00069
in case of,
time series of unit steps
Figure 112021144422835-pat00070
Figure 112021144422835-pat00071
is defined as, where,
Figure 112021144422835-pat00072
ego,
For discrete variables, the sampling rate of the insole is 100 Hz and the standard length is
Figure 112021144422835-pat00073
because it is defined as
Figure 112021144422835-pat00074
and where
Figure 112021144422835-pat00075
is a device for multimodal sensor-based gait pattern classification using a deep learning ensemble, characterized in that it is the unit step of both feet of all participants.
제 5 항에 있어서, m을 감지하는 i 번째 단위 스텝은
Figure 112020117927597-pat00076
으로 표시되고,
여기서
Figure 112020117927597-pat00077
이고, 해당 치수는
Figure 112020117927597-pat00078
Figure 112020117927597-pat00079
인 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
The method of claim 5, wherein the i-th unit step sensing m is
Figure 112020117927597-pat00076
is displayed as
here
Figure 112020117927597-pat00077
, and the dimensions are
Figure 112020117927597-pat00078
and
Figure 112020117927597-pat00079
Apparatus for classification of gait patterns based on multimodal sensors using deep learning ensembles, characterized in that
제 6 항에 있어서, CNN 학습 분류부 및 RNN 학습 분류부의 입력은,
표준 형식의 압력
Figure 112021144422835-pat00080
,가속도
Figure 112021144422835-pat00081
및 회전
Figure 112021144422835-pat00082
의 단위 스텝이며 모델
Figure 112021144422835-pat00105
의 출력은 소프트 맥스 확률 u의 벡터로,
Figure 112021144422835-pat00083
으로 정의되어,
Figure 112021144422835-pat00106
를 입력으로 넣었을 때 모델의 출력
Figure 112021144422835-pat00107
은 softmax activation function에 의해 계산된 각 클래스에 대한 확률을 나타내는 벡터 u로 표현되는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
The method of claim 6, wherein the input of the CNN learning classifier and the RNN learning classifier,
standard form of pressure
Figure 112021144422835-pat00080
,acceleration
Figure 112021144422835-pat00081
and rotation
Figure 112021144422835-pat00082
is the unit step of the model
Figure 112021144422835-pat00105
The output of is a vector of soft max probabilities u,
Figure 112021144422835-pat00083
is defined as
Figure 112021144422835-pat00106
the output of the model when given as input
Figure 112021144422835-pat00107
Apparatus for multimodal sensor-based gait pattern classification using a deep learning ensemble, characterized in that is expressed as a vector u representing the probability for each class calculated by the softmax activation function.
제 1 항에 있어서, 완전 연결 네트워크에는 완전 연결 계층, 드롭 아웃 계층 및 소프트 맥스 계층이 포함되고, 완전 연결 계층에는 256 개의 노드가 포함되며 노드의 활성화 기능은 ReLU인 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.The deep learning ensemble according to claim 1, wherein the fully connected network includes a fully connected layer, a dropout layer, and a soft max layer, and the fully connected layer includes 256 nodes and the activation function of the node is ReLU. A device for gait pattern classification based on a multimodal sensor using 제 1 항에 있어서청 CNN 학습 분류부 및 RNN 학습 분류부는 CNN 및 RNN의 예측을 집계하고 하나의 최종 예측을 제공하기 위해 평균 앙상블 모델을 구축하여, CNN 및 RNN의 평균 확률을,
Figure 112021144422835-pat00084
으로 계산하고,
여기서, CNN만 활성화된 경우
Figure 112021144422835-pat00085
, RNN만 활성화된 경우
Figure 112021144422835-pat00086
, CNN과 RNN이 모두 활성화된 경우
Figure 112021144422835-pat00087
인 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치.
The method of claim 1, wherein the CNN learning classifier and the RNN learning classifier aggregate the predictions of the CNNs and RNNs and build an average ensemble model to provide one final prediction,
Figure 112021144422835-pat00084
calculated as,
Here, if only CNN is enabled
Figure 112021144422835-pat00085
, if only RNN is enabled
Figure 112021144422835-pat00086
, when both CNN and RNN are enabled
Figure 112021144422835-pat00087
Apparatus for classification of gait patterns based on multimodal sensors using deep learning ensembles, characterized in that
데이터 수집 부에서 스마트 인솔로부터 사용자의 보행에 관한 정보를 수집하는 단계;
데이터 생성부에서 보행에 관한 정보에서 단위 스텝의 구간을 정의하는 단계;
데이터 생성부에서 스플라인 보간(spline interpolation)을 사용하여 모든 단위 스텝의 크기를 표준 길이로 조정하고, 두 발에 대해 동일한 양식의 단위 스텝을 연결하여 데이터 세트를 생성하는 단계;
생성된 데이터 세트를 이용하여 CNN 학습 분류부 및 RNN 학습 분류부에서 CNN 학습 분류 및 RNN 학습 분류를 하고 보행의 종류를 분류할 수 있는 완전연결 네트워크에 입력하고, 보행 분류 결과 출력부에서 완전연결 네트워크에서 출력된 값을 이용하여 보행의 종류를 판단하는 단계;를 포함하고,
CNN 학습 분류부 및 RNN 학습 분류부에서 CNN 학습 분류 및 RNN 학습 분류를 위하여, CNN과 RNN은 동일한 훈련 데이터 세트를 사용하여 독립적으로 훈련되고, 테스트 단계에서 개인의 소프트 맥스 점수(softmax scores)는 CNN 및 RNN에서 소프트 맥스 점수의 평균을 취하여 계산되는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법.
collecting information about the user's gait from the smart insole in the data collection unit;
defining a section of a unit step in information about walking in a data generator;
adjusting the sizes of all unit steps to standard lengths by using spline interpolation in the data generating unit, and generating a data set by connecting unit steps of the same form for both feet;
Using the generated data set, the CNN learning classification unit and the RNN learning classification unit perform CNN learning classification and RNN learning classification, and input to a fully connected network that can classify the type of gait, and the fully connected network in the gait classification result output unit Including; determining the type of gait using the value output from
For CNN learning classification and RNN learning classification in CNN learning classifier and RNN learning classifier, CNN and RNN are trained independently using the same training data set, and individual softmax scores in the test phase are And A method for multimodal sensor-based gait pattern classification using a deep learning ensemble, characterized in that it is calculated by taking the average of the soft max scores in the RNN.
제 10 항에 있어서, 수집된 데이터는 압력 센서, 3축 가속도계 및 신발 인솔에 설치된 3축 자이로스코프로 측정된 시계열로 구성되고, 보행 주기에는 스탠스 단계와 스윙 단계가 포함되는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법.11. The deep learning of claim 10, wherein the collected data consists of a time series measured by a pressure sensor, a 3-axis accelerometer, and a 3-axis gyroscope installed on a shoe insole, and the gait cycle includes a stance phase and a swing phase. A method for classification of gait patterns based on multimodal sensors using ensembles. 제 11 항에 있어서, 압력 센서의 오류를 극복하기 위해 가우스 필터링을 사용하여 단위 스텝을 결정하고,
멀티 모달 센싱 데이터와 함께 CNN 및 RNN을 사용하여 앙상블 네트워크를 구축하여 연속적인 단위 스텝(unit step) 데이터에서 보행 패턴을 식별하는 것을 특징으로 하는 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 방법.

12. The method of claim 11, wherein the unit step is determined using Gaussian filtering to overcome the error of the pressure sensor;
Multimodal sensor-based gait pattern classification using deep learning ensemble, which is characterized by identifying gait patterns from continuous unit step data by constructing an ensemble network using CNN and RNN together with multi-modal sensing data. way for.

삭제delete
KR1020200146340A 2020-11-04 2020-11-04 Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble KR102350593B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200146340A KR102350593B1 (en) 2020-11-04 2020-11-04 Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146340A KR102350593B1 (en) 2020-11-04 2020-11-04 Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble

Publications (2)

Publication Number Publication Date
KR102350593B1 true KR102350593B1 (en) 2022-01-14
KR102350593B9 KR102350593B9 (en) 2023-04-12

Family

ID=79342801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146340A KR102350593B1 (en) 2020-11-04 2020-11-04 Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble

Country Status (1)

Country Link
KR (1) KR102350593B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019393A (en) * 2022-06-09 2022-09-06 天津理工大学 Exoskeleton robot gait recognition system and method based on convolutional neural network

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093283A (en) * 2010-02-12 2011-08-18 삼성전자주식회사 Apparatus and method for analyzing of gait pattern
KR20160031246A (en) * 2014-09-12 2016-03-22 삼성전자주식회사 Method and apparatus for gait task recognition
KR20170098640A (en) * 2016-02-22 2017-08-30 엘지전자 주식회사 Insole and mobile terminal
KR101856053B1 (en) * 2017-02-22 2018-05-10 (주)스윙뱅크 A shoe pad for coping with dangerous situation and a method for distinguishing dangerous situation using the same
KR20190048351A (en) * 2017-10-31 2019-05-09 권혁준 Smart health care system for checking exercise
KR20190136324A (en) 2018-05-30 2019-12-10 단국대학교 산학협력단 Apparatus and Method for Gait Type Classificating Using Pressure Sensor of Smart Insole
KR20200019051A (en) 2018-08-13 2020-02-21 박만규 Apparatus for measuring a gait pattern using acceleration and gyro sensors
KR20200063795A (en) 2018-11-28 2020-06-05 단국대학교 산학협력단 System and method for gait type classification using machine learning and gait pressure data
KR20200094815A (en) * 2019-01-17 2020-08-10 조선대학교산학협력단 Ensemble network-based data learning method and person identification method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093283A (en) * 2010-02-12 2011-08-18 삼성전자주식회사 Apparatus and method for analyzing of gait pattern
KR20160031246A (en) * 2014-09-12 2016-03-22 삼성전자주식회사 Method and apparatus for gait task recognition
KR20170098640A (en) * 2016-02-22 2017-08-30 엘지전자 주식회사 Insole and mobile terminal
KR101856053B1 (en) * 2017-02-22 2018-05-10 (주)스윙뱅크 A shoe pad for coping with dangerous situation and a method for distinguishing dangerous situation using the same
KR20190048351A (en) * 2017-10-31 2019-05-09 권혁준 Smart health care system for checking exercise
KR20190136324A (en) 2018-05-30 2019-12-10 단국대학교 산학협력단 Apparatus and Method for Gait Type Classificating Using Pressure Sensor of Smart Insole
KR20200019051A (en) 2018-08-13 2020-02-21 박만규 Apparatus for measuring a gait pattern using acceleration and gyro sensors
KR20200063795A (en) 2018-11-28 2020-06-05 단국대학교 산학협력단 System and method for gait type classification using machine learning and gait pressure data
KR20200094815A (en) * 2019-01-17 2020-08-10 조선대학교산학협력단 Ensemble network-based data learning method and person identification method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
국제학회지 Ito, Chihiro, et al. Application of CNN for human activity recognition with FFT spectrogram of acceleration and gyro sensors. Proceedings of the 2018 ACM International Joint Conference and 2018* *
이성신 외 2명, "스마트 깔창의 센서를 이용한 보행 타입 분류 방법", 한국 통신 학회, 1378~1381 페이지, 2018. 08. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019393A (en) * 2022-06-09 2022-09-06 天津理工大学 Exoskeleton robot gait recognition system and method based on convolutional neural network

Also Published As

Publication number Publication date
KR102350593B9 (en) 2023-04-12

Similar Documents

Publication Publication Date Title
EP3468450B1 (en) Method and system for analyzing human gait
CN107753026B (en) Intelligent shoe self-adaptive monitoring method for spinal leg health
Novak et al. Automated detection of gait initiation and termination using wearable sensors
Massé et al. Improving activity recognition using a wearable barometric pressure sensor in mobility-impaired stroke patients
Attal et al. Automatic recognition of gait phases using a multiple-regression hidden Markov model
Sethi et al. A comprehensive survey on gait analysis: History, parameters, approaches, pose estimation, and future work
Turner et al. The classification of minor gait alterations using wearable sensors and deep learning
Li et al. An adaptive and on-line IMU-based locomotion activity classification method using a triplet Markov model
Kawsar et al. A novel activity detection system using plantar pressure sensors and smartphone
Saad et al. Detection of freezing of gait for Parkinson’s disease patients with multi-sensor device and Gaussian neural networks
Chinimilli et al. Human activity recognition using inertial measurement units and smart shoes
Potluri et al. Machine learning based human gait segmentation with wearable sensor platform
Sivakumar et al. Artificial neural network based ankle joint angle estimation using instrumented foot insoles
Rastegari et al. A bag-of-words feature engineering approach for assessing health conditions using accelerometer data
Prado et al. Prediction of gait cycle percentage using instrumented shoes with artificial neural networks
Gill et al. Smart Shoe Classification Using Artificial Intelligence on EfficientnetB3 Model
KR102350593B1 (en) Apparatus and method for classifying gait pattern based on multi modal sensor using deep learning ensemble
Peng et al. Human walking pattern recognition based on KPCA and SVM with ground reflex pressure signal
Choi et al. Determination of input variables for the development of a gait asymmetry expert system in patients with idiopathic scoliosis
KR102280291B1 (en) Apparatus and method for identify patients with parkinson's disease and patients with podarthritis by performing neural network analysis by various detection information
KR102302719B1 (en) Apparatus and method for classification of gait type by performing neural network analysis for various detection information
KR102194313B1 (en) Apparatus and method for identifying individuals by performing neural network analysis for various detection information
Wu et al. A novel graph-based hybrid deep learning of cumulative GRU and deeper GCN for recognition of abnormal gait patterns using wearable sensors
Liang et al. Elderly fall risk prediction with plantar center of force using convlstm algorithm
Aftab et al. Estimation of gait parameters using leg velocity for amputee population

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]