KR20230101464A - Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof - Google Patents

Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof Download PDF

Info

Publication number
KR20230101464A
KR20230101464A KR1020210191590A KR20210191590A KR20230101464A KR 20230101464 A KR20230101464 A KR 20230101464A KR 1020210191590 A KR1020210191590 A KR 1020210191590A KR 20210191590 A KR20210191590 A KR 20210191590A KR 20230101464 A KR20230101464 A KR 20230101464A
Authority
KR
South Korea
Prior art keywords
smart
feature
sensor data
database
smart device
Prior art date
Application number
KR1020210191590A
Other languages
Korean (ko)
Inventor
남윤영
성지현
Original Assignee
순천향대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천향대학교 산학협력단 filed Critical 순천향대학교 산학협력단
Priority to KR1020210191590A priority Critical patent/KR20230101464A/en
Publication of KR20230101464A publication Critical patent/KR20230101464A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 시스템은, 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 데이터베이스; 상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리부; 상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 특징 추출부; 및 상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 분류기를 포함하는 점에 그 특징이 있다.A multi-sensory access system based on a smart device according to an embodiment of the present invention includes a database for receiving and collecting sensor data measured from sensors of at least one smart device to detect a user's activity; a pre-processing unit which removes noise from the sensor data collected in the database and divides it into windows or segments; a feature extractor extracting features by increasing the feature vector size of the preprocessed sensor data; and a classifier for classifying physical activity by applying the extracted feature to a machine learning algorithm.

Description

스마트 기기 기반의 다중 감각 접근 시스템 및 그 방법{Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof} Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof}

본 발명은 스마트 기기 기반의 다중 감각 접근 시스템 및 그 방법 에 관한 것으로, 특히 복잡한 인간 활동 인식을 스마트 기기에 내장된 센서 기능을 이용하여 측정된 센서 데이터를 딥러닝 학습에 적용하여 인간 활동 인식 분류를 높은 정확도 및 빠른 계산으로 제공할 수 있는 스마트 기기 기반의 다중 감각 접근 시스템 및 그 방법에 관한 것이다. The present invention relates to a multi-sensory access system based on a smart device and a method therefor, and in particular, complex human activity recognition is classified by applying sensor data measured using a sensor function built into a smart device to deep learning learning. It relates to a smart device-based multi-sensory access system and method capable of providing high accuracy and fast calculation.

최근에 센서 기반 인간 활동 인식(HAR)은 비전 기반 인간 활동 인식과 비교하여 장점이 있는 머신 러닝의 신흥 분야이다. 그러나 비전 기반 HAR은 하드웨어 설치, 비용, 데이터 저장 요구 사항 및 계산 시간으로 인해 휴대성이 제한되어 선호되지 않고 있다. Recently, sensor-based human activity recognition (HAR) is an emerging field of machine learning that has advantages compared to vision-based human activity recognition. However, vision-based HAR is not favored due to limited portability due to hardware installation, cost, data storage requirements and computation time.

이에 반해 웨어러블 센서 기반의 인간 활동 인식 시스템은 다양한 내장형 스마트 센서가 포함된 스마트폰, 시계 및 피트니스 밴드에 사용하고 있으며, 일반적으로 가속도계, 자이로스코프, 자력계, GPS(Global Positioning System), 온도 센서, 근접 센서, 기압계 등과 같은 센서가 스마트 장치에 구비된다. In contrast, human activity recognition systems based on wearable sensors are used in smartphones, watches, and fitness bands with various built-in smart sensors. Sensors such as sensors, barometers, and the like are provided in smart devices.

이러한 센서는 다양한 방식의 충분한 기능과 용이한 가용성으로 인해 센서 기반 인간 활동 인식 시스템이 더욱 대중화되었다. Due to the sufficient functionality and easy availability of these sensors in a variety of ways, sensor-based human activity recognition systems have become more popular.

한편, 센서 기반 활동 인식은 스마트 워치에서 덜 반복적인 활동(예: 손/팔 움직임)을 관찰하기가 더 효과적이고, 스마트폰에서는 반복적인 활동(즉, 전반적인 인체 움직임)을 관찰하기에 더 나은 결과를 제공한다. 이는 센서 위치가 활동 인식에서도 중요한 역할을 함을 의미한다. On the other hand, sensor-based activity recognition is more effective for observing less repetitive activities (e.g., hand/arm movements) on smart watches, and better results for observing repetitive activities (i.e., overall body movements) on smartphones. provides This means that sensor location also plays an important role in activity recognition.

따라서, 최근에는 스마트폰과 스마트워치 센서를 함께 사용하여 더 좋은 결과를 얻을 수 있는 연구들이 활발하다. 즉, 인간의 기본적인 활동(예: 앉기, 걷기, 뛰기, 계단 오르내리기 등)을 스마트폰(주머니 위치)으로 인식하지만, 복잡한 인간 활동(식사, 흡연, 말하기 등)은 활동에 손의 움직임이 포함되기 때문에 손목 웨어러블 센서를 사용하여 쉽게 인식할 수 있다. Therefore, recently, studies that can obtain better results by using a smart phone and a smart watch sensor together are active. In other words, basic human activities (e.g. sitting, walking, running, going up and down stairs) are recognized as a smartphone (pocket location), but complex human activities (eating, smoking, talking, etc.) involve hand movements. Because of this, it can be easily recognized using a wrist wearable sensor.

예를 들면, 복잡한 활동은 걷거나 앉아 있는 동안 담배를 피우거나, 걷거나 아이스크림을 먹는 것과 같은 기본 활동과 중첩될 수 있다. 이러한 활동은 다중 센서를 사용하여 인식되지만 손목 착용형 센서와 스마트폰 센서의 조합은 사람이 수행하는 활동의 유형을 효율적으로 인식하게 된다. For example, a complex activity may overlap with a basic activity such as smoking a cigarette while walking or sitting, walking or eating ice cream. These activities are recognized using multiple sensors, but a combination of wrist-worn sensors and smartphone sensors effectively recognizes the type of activity a person is performing.

그러나, 아직 복잡한 인간 활동에 대한 신뢰할 수 있는 인식은 HAR 응용 프로그램의 새로운 방향을 제시할 수 있지만 인식 정확도가 떨어지는 문제점이 있다.However, although reliable recognition of complex human activities can present a new direction for HAR applications, there is a problem of poor recognition accuracy.

한국특허출원 제10-2008-0068467 호Korean Patent Application No. 10-2008-0068467

본 발명은 상기와 같은 문제점을 해결하기 복잡한 인간 활동 인식을 스마트 기기에 내장된 센서 기능을 이용하여 측정된 센서 데이터를 딥러닝 학습에 적용하여 인간 활동 인식 분류를 높은 정확도 및 빠른 계산으로 제공할 수 있는 스마트 기기 기반의 다중 감각 접근 시스템 및 그 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, the present invention can provide human activity recognition classification with high accuracy and fast calculation by applying sensor data measured using a sensor function built into a smart device to deep learning learning for complex human activity recognition. Its purpose is to provide a smart device-based multi-sensory access system and method.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 시스템은, 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 데이터베이스; 상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리부; 상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 특징 추출부; 및 상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 분류기를 포함하는 점에 그 특징이 있다.As a technical means for achieving the above-described technical problem, a smart device-based multi-sensory access system according to an embodiment of the present invention uses sensor data measured from at least one sensor of a smart device to detect a user's activity. database that receives and collects input; a pre-processing unit which removes noise from the sensor data collected in the database and divides it into windows or segments; a feature extractor extracting features by increasing the feature vector size of the preprocessed sensor data; and a classifier for classifying physical activity by applying the extracted feature to a machine learning algorithm.

여기서, 특히 상기 데이터베이스에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터인 점에 그 특징이 있다.Here, in particular, the sensor data collected in the database is characterized in that it is sensor data measured from four three-axis sensors, accelerometers, gyroscopes, linear acceleration sensors, and magnetometers, each included in smart devices such as smart phones and smart watches. there is.

여기서, 특히 상기 데이터베이스에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하는 점에 그 특징이 있다.Here, in particular, the 12-dimensional data measured from each of the four 3-axis sensors in the smart phone and smart watch collected in the database labels each sample and fuses the data of the two devices in parallel. It has a characteristic.

여기서, 특히 상기 특징 추출부의 특징 벡터는 회전 특징, 시간 영역 특징 및 주파수 영역 특징으로 구성되는 점에 그 특징이 있다.Here, in particular, the feature vector of the feature extractor is characterized in that it is composed of a rotation feature, a time domain feature, and a frequency domain feature.

여기서, 특히 상기 회전 특징은 x축에 대한 회전의 피치(Pitch)(*?*), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하는 점에 그 특징이 있다.Here, in particular, the rotational characteristics are the pitch of rotation about the x-axis (*?*), the roll of rotation about the z-axis (φ), and the acceleration vector of instantaneous rotation (α) derived from the orientation of the device. ) is included in the calculation.

여기서, 특히 상기 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하는 점에 그 특징이 있다.Here, in particular, the time domain feature is characterized in that dispersion of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i is calculated using a window.

여기서, 특히 상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f

Figure pat00001
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하는 점에 그 특징이 있다.Here, in particular, the frequency domain feature is the pitch (f) using a fast Fourier transform (FFT)
Figure pat00001
), roll (fφ), and acceleration magnitude (fα) are calculated.

여기서, 특히 상기 분류기는 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN)의 기계 학습 알고리즘을 사용하는 점에 그 특징이 있다.Here, in particular, the classifier is characterized in that it uses machine learning algorithms of Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN). .

또한, 상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 방법은, 데이터베이스에 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 단계; 상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리 단계; 상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 단계; 및 In addition, as a technical means for achieving the above-described technical problem, a smart device-based multi-sensory approach method according to an embodiment of the present invention measures data from at least one sensor of a smart device to detect a user's activity in a database. receiving and collecting the received sensor data; a preprocessing step of removing noise from the sensor data collected in the database and dividing it into windows or segments; extracting features by increasing the feature vector size of the preprocessed sensor data; and

상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 단계를 포함하는 점에 그 특징이 있다.It is characterized in that it includes the step of classifying the physical activity by applying the extracted feature to a machine learning algorithm.

여기서, 특히 상기 데이터베이스에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터인 점에 그 특징이 있다.Here, in particular, the sensor data collected in the database is characterized in that it is sensor data measured from four three-axis sensors, accelerometers, gyroscopes, linear acceleration sensors, and magnetometers, each included in smart devices such as smart phones and smart watches. there is.

여기서, 특히 상기 데이터베이스에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하는 점에 그 특징이 있다.Here, in particular, the 12-dimensional data measured from each of the four 3-axis sensors in the smart phone and smart watch collected in the database labels each sample and fuses the data of the two devices in parallel. It has a characteristic.

여기서, 특히 상기 특징 벡터는 회전 특징, 시간 영역 특징 및 주파수 영역 특징으로 구성되는 점에 그 특징이 있다.In particular, the feature vector is characterized in that it is composed of a rotation feature, a time domain feature, and a frequency domain feature.

여기서, 특히 상기 회전 특징은 x축에 대한 회전의 피치(Pitch)(

Figure pat00002
), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하는 점에 그 특징이 있다.Here, in particular, the rotational feature is the pitch of rotation about the x-axis (
Figure pat00002
), a roll of rotation about the z-axis (φ), and an acceleration vector of instantaneous rotation (α) derived from the direction of the device.

여기서, 특히 상기 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하는 점에 그 특징이 있다.Here, in particular, the time domain feature is characterized in that dispersion of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i is calculated using a window.

여기서, 특히 상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f

Figure pat00003
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하는 점에 그 특징이 있다.Here, in particular, the frequency domain feature is the pitch (f) using a fast Fourier transform (FFT)
Figure pat00003
), roll (fφ), and acceleration magnitude (fα) are calculated.

여기서, 특히 상기 기계 학습 알고리즘은 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN) 알고리즘을 사용하는 점에 그 특징이 있다.In particular, the machine learning algorithm is characterized in that it uses Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN) algorithms.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 복잡한 인간 활동 인식을 스마트 기기에 내장된 센서 기능을 이용하여 측정된 센서 데이터를 딥러닝 학습에 적용하여 인간 활동 인식 분류를 높은 정확도 및 빠른 계산으로 제공할 수 있다.According to any one of the above-described problem solving means of the present invention, complex human activity recognition is applied to deep learning learning using sensor data measured using a sensor function built into a smart device to perform human activity recognition classification with high accuracy and fast calculation. can be provided with

또한, 본 발명은 여러 스마트 센서를 사용하여 복잡한 인간 활동 인식을 정확하게 인식하여 나쁜 활동을 식별하고 추적 인식 피드백을 제공함으로써 바른 습관 코칭을 제공할 수 있다.In addition, the present invention can provide correct habit coaching by accurately recognizing complex human activity recognition using several smart sensors to identify bad activities and providing tracking recognition feedback.

도 1은 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 시스템의 구성을 개략적으로 도시한 도면
도 2는 본 발명의 스마트 기기 기반의 다중 감각 접근 시스템의 개략적인 아키텍쳐를 도시한 도면.
도 3은 상기 도 3의 다중 감각 접근 학습 처리 과정을 도시한 도면.
도 4는 본 발명의 나이브 베이즈 분류기의 혼돈 행렬의 예를 도시한 도면.
도 5는 본 발명의 K-최근접이웃 분류기의 혼돈 행렬의 예를 도시한 도면.
도 6은 본 발명의 신경망 분류기의 혼돈 행렬의 예를 도시한 도면.
도 7은 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 방법에 대한 순서도를 개략적으로 도시한 도면.
1 is a diagram schematically showing the configuration of a multi-sensory access system based on a smart device according to an embodiment of the present invention.
Figure 2 is a diagram showing a schematic architecture of the smart device-based multi-sensory access system of the present invention.
FIG. 3 is a diagram illustrating a multi-sensory approach learning process of FIG. 3;
4 is a diagram showing an example of a chaos matrix of the naive Bayes classifier of the present invention.
5 is a diagram showing an example of a chaos matrix of the K-nearest neighbor classifier of the present invention.
6 is a diagram showing an example of a chaos matrix of the neural network classifier of the present invention.
7 is a schematic flowchart of a smart device-based multi-sensory access method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. In order to clearly describe the present invention, parts irrelevant to the description in the drawings are omitted, and similar reference numerals are assigned to similar parts throughout the specification. In addition, while explaining with reference to the drawings, even if the configuration is indicated by the same name, the drawing number may vary depending on the drawing, and the drawing number is only described for convenience of explanation, and the concept, characteristic, function of each component is indicated by the corresponding drawing number. or the effect is not to be construed as limiting.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated, and one or more other components. It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 명세서에 있어서 '부(部)' 또는 '모듈'이란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다. In this specification, 'unit' or 'module' includes a unit realized by hardware or software, or a unit realized by using both, and one unit is realized by using two or more hardware may be, or two or more units may be realized by one hardware.

도 1은 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 시스템의 구성을 개략적으로 도시한 도면이고, 도 2는 본 발명의 스마트 기기 기반의 다중 감각 접근 시스템의 개략적인 아키텍쳐를 도시한 도면이고, 도 3은 상기 도 3의 다중 감각 접근 학습 처리 과정을 도시한 도면이다. 1 is a diagram schematically showing the configuration of a multi-sensory access system based on a smart device according to an embodiment of the present invention, and FIG. 2 shows a schematic architecture of the multi-sensory access system based on a smart device according to the present invention. FIG. 3 is a diagram illustrating a multi-sensory approach learning process of FIG. 3 .

도 1에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 시스템(100)은, 데이터베이스(110), 전처리부(120), 특징 추출부(130), 분류부(140) 및 결정부(150)를 포함하여 구성될 수 있다. As shown in FIG. 1, the smart device-based multi-sensory access system 100 according to an embodiment of the present invention includes a database 110, a pre-processing unit 120, a feature extraction unit 130, a classification unit ( 140) and a decision unit 150.

상기 데이터 베이스(110)는 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하여 저장하게 된다. The database 110 receives, collects, and stores sensor data measured from at least one sensor of a smart device in order to detect a user's activity.

상기 데이터베이스(110)에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터의 데이터 세트로 구성된다. The sensor data collected in the database 110 consists of a data set of sensor data measured from four three-axis sensors, accelerometers, gyroscopes, linear acceleration sensors, and magnetometers, each included in smart devices such as smart phones and smart watches. .

또한, 상기 데이터베이스(110)에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하게 된다. In addition, the 12-dimensional data measured from each of the four 3-axis sensors in the smart phone and smart watch collected in the database 110 labels each sample and fuses the data of the two devices by connecting them in parallel. .

보다 구체적으로, 상기 데이터베이스(110)는 13가지 기본 인간 활동 데이터를 공개적으로 사용 가능한 데이터 세트와 통합 13개의 복잡한 활동과 26개의 기본 및 복잡한 활동의 *?*데이터 세트가 형성되어 저장된다. 여기서, 데이터 세트는 테스트 및 학습 데이터로 나뉠 수 있다.More specifically, the database 110 integrates 13 basic human activity data with publicly available data sets, and 13 complex activities and *** data sets of 26 basic and complex activities are formed and stored. Here, the data set can be divided into test and training data.

예컨대, 데이터 세트는 "Linear data collector V2"라는 안드로이드 애플리케이션은 센서 데이터 로깅에 사용된다. 이는 연령이 다른 여러 개인이 수행하는 각 인간 활동에 대해 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계를 통해 초당 50 샘플 수의 비율로 데이터를 수집하게 된다.For example, the data set is an Android application called "Linear data collector V2" used for sensor data logging. It will collect data at a rate of 50 samples per second via accelerometers, gyroscopes, linear acceleration sensors and magnetometers for each human activity performed by multiple individuals of different ages.

애플리케이션은 데이터 기록 및 수집을 위해 센서와 쉽게 인터페이스 하도록 하고, 센서 데이터를 기록하기 전에 응용 프로그램은 순서대로 참가자의 이름과 ID를 기록할 수 있다. 활동하는 동안 안드로이드(Android )기기는 특정 신체 위치에 배치되어 응용 프로그램에 의해 데이터를 구분하여 수집할 수 있다. 즉, 데이터는 스마트 장치의 콤마-세퍼레이티드 값(CSV) 파일로 수집할 수 있다. 이때, 14개의 중첩된 기본 및 복잡한 활동에 대해 테스트를 하게 된다. Let the application easily interface with the sensor for data recording and collection, and before recording the sensor data, the application can in turn record the participant's name and ID. During activity, the Android device is placed in a specific body position, and data can be classified and collected by the application. That is, data can be collected as a comma-separated value (CSV) file of the smart device. At this time, 14 nested basic and complex activities are tested.

따라서 최종 데이터 세트는 25가지의 인간 활동 이상의 포함하고, 각 신체 활동은 알려진 레이블 및 타임스탬프는 60초 이상 쉰 개 샘플(각각의 센서 출력의 50 Hz에서)이 여러 사용자가 수행하는 다양한 인간의 신체 활동에 대해 수집되었다. Thus, the final data set contains more than 25 human activities, each with a known label and timestamp, fifty samples (at 50 Hz of each sensor output) over 60 seconds of a variety of human body activities performed by multiple users. activity was collected.

따라서 4개의 3축 센서로 구성된 각 장치에 의해 총 (4 * 3 = 12) 차원 데이터를 수집하게 된다. 특히, 단일 인간 활동에 대해 1초 동안 50개 샘플이 각 장치에서 12차원 데이터가 수집될 수 있다. 빅 데이터 세트는 모든 참가자의 샘플, 유사한 복잡한 인간 활동 인식 시스템의 오분류를 극복하고 정확한 활동을 인식할 수 있게 된다.Therefore, a total of (4 * 3 = 12) dimensional data is collected by each device composed of four 3-axis sensors. In particular, 12-dimensional data can be collected on each device, 50 samples per second for a single human activity. A big data set will overcome the misclassification of a sample of all participants, similarly complex human activity recognition systems, and will be able to recognize accurate activities.

또한, 각 디바이스(스마트폰, 스마트 워치)에서 12차원 데이터를 50Hz의 주파수, 데이터의 각 샘플에 레이블이 지정되고 타임 스탬프가 지정될 수 있다. In addition, 12-dimensional data from each device (smartphone, smart watch) can be labeled at a frequency of 50Hz, each sample of the data and time stamped.

이때, 더 나은 인식을 위해 복잡한 인간 활동의 데이터를 스마트 폰과 스마트 워치에서 수집하고, 두 장치의 데이터를 병렬로 연결하여 융합하게 된다.At this time, complex human activity data is collected from smart phones and smart watches for better recognition, and the data from the two devices are connected in parallel to fuse.

따라서 샘플 공간 차원은 각 인간 활동에 대해 24차원 데이터로 형성될 수 있다. Thus, a sample space dimension can be formed with 24-dimensional data for each human activity.

상기 전처리부(120)는 상기 데이터베이스(110)에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리 과정을 수행한다.The pre-processing unit 120 performs a pre-processing process of removing noise from the sensor data collected in the database 110 and dividing it into windows or segments.

보다 구체적으로, 스마트폰과 스마트워치에 내장된 센서에서 측정된 원시 데이터를 정규화하는 전처리 과정으로, 상기 센서 데이터 융합 후 전처리 원시 데이터에서 노이즈를 제거하고 이를 창 또는 세그먼트로 나누게 된다. More specifically, as a preprocessing process of normalizing raw data measured by sensors built into smart phones and smartwatches, after fusing the sensor data, noise is removed from the preprocessed raw data and divided into windows or segments.

다시 말해, 인간의 신체 활동 인식은 센서의 원시 데이터를 사용하여 직접 분류되지 않고, 분류 작업은 여러 전처리 및 특성 추출 기술에서 얻은 구조적 데이터 변화로 특징 벡터를 얻게 된다. In other words, human body activity recognition is not directly classified using the raw data of the sensor, and the classification task obtains a feature vector with structural data changes obtained from various preprocessing and feature extraction techniques.

상기 각 센서에서는 x축, y축 및 z축을 따라 3개의 시계열을 생성하게 된다. Each sensor generates three time series along the x-axis, y-axis, and z-axis.

상기 특징 추출부(130)는 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하게 된다.The feature extraction unit 130 extracts features by increasing the feature vector size of the preprocessed sensor data.

상기 전처리부(120)에서 전처리 후, 각 스마트 장치의 4개 센서에서 얻은 3차원(x, y, z) 원시 데이터는 12차원 벡터를 포함한다. 그 후, 해당 센서와 두 장치의 데이터 융합은 데이터를 24차원으로 만들게 된다. 그 후, 특징 추출은 특징 벡터 크기를 최대 72차원 특징으로 증가시키며, 이는 각 장치의 각 센서에서 9개의 특징을 의미한다. 이때, 특징 벡터는 회전, 시간 영역 및 주파수 영역 특징으로 구성될 수 있다.After pre-processing in the pre-processing unit 120, the 3-dimensional (x, y, z) raw data obtained from the four sensors of each smart device includes a 12-dimensional vector. After that, fusion of the sensor and the data of the two devices makes the data 24-dimensional. After that, feature extraction increases the feature vector size to a maximum of 72-dimensional features, which means 9 features in each sensor of each device. In this case, the feature vector may be composed of rotation, time domain, and frequency domain features.

여기서, 상기 특징 벡터의 회전 특징은 x축에 대한 회전의 피치(Pitch)(

Figure pat00004
), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하게 된다.Here, the rotational feature of the feature vector is the pitch of rotation about the x-axis (
Figure pat00004
), the roll of rotation about the z-axis (φ), and the acceleration vector of instantaneous rotation (α) derived from the orientation of the device.

이러한 회전 특징은 다음 수학식 1 내지 수학식 3과 같이 계산된다.These rotation characteristics are calculated as in Equations 1 to 3 below.

수학식 [1]- [3]Equation [1]- [3]

여기서, sxi; syi; szi 는 x; y; z 센서, 각 디바이스 i = 1; 2; 3; 4 i.e., 스마트폰, 스마트워치 등.Here, sx i ; sy i ; sz i is x; y; z sensor, each device i = 1; 2; 3; 4 ie, smart phone, smart watch, etc.

상기 특징 벡터의 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하게 된다.For the time domain feature of the feature vector, the dispersion of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i is calculated using a window.

이러한 특징은 Matlab의 mat2gray() 명령을 사용하여 정규화된다. 즉, 정의된 기간 동안 몇 가지 통계적 특징을 도출하게 된다. 윈도우 방식을 사용하여 각 센서의 6가지 특징을 추출하게 된다. 주어진 입력 데이터 Xt에 대해 크기 k의 창은 다음과 같이 계산된다.These features are normalized using Matlab's mat2gray() command. That is, several statistical characteristics are derived over a defined period. Six features of each sensor are extracted using the window method. For a given input data Xt, a window of size k is calculated as:

Xt = [x(t); x(t - 1); x(t - 2);. . . x(t - k)]. 창은 Matlab의 fspecial( ) 및 imfilter( ) 함수를 사용하여 크기 q의 평균 필터를 사용하여 필터링된다. Xt = [x(t); x(t - 1); x(t - 2);. . . x(t - k)]. The window is filtered using an average filter of size q using Matlab's fspecial( ) and imfilter( ) functions.

여기서, q= floor

Figure pat00005
where q = floor
Figure pat00005

특정 기간(t)에 대한 평균 창을 얻은 후에는 각 센서에 대한 다음 6개 특징이 계산된다. 즉, 윈도우에 대해 다음과 같이 수학식 [4]에 의해 편향되지 않은 분산으로 피치, 롤 및 가속도 크기를 계산될 수 있다.After obtaining the averaging window for a specific period (t), the following six features for each sensor are computed. That is, the pitch, roll, and acceleration magnitudes can be calculated with unbiased variance by Equation [4] as follows for the window.

수학식 [4]Equation [4]

여기서, β 는 θ , φ , α 또는

Figure pat00006
u일 수 있으며, 윈도우에 대한 입력 특성의 평균이고 n은 센서의 숫자이다. 특징 7-9는 윈도우에 대한 고속 푸리에 변환(FFT)의 구성 요소이고, 이전 단계는 각 센서의 9가지 특징을 모두 제공하므로 72가지 특징 세트가 있게 된다. 즉, 샘플을 얻을 때마다 특징 공간 정보는 다음과 같다.where β is θ, φ, α or
Figure pat00006
It can be u, the average of the input characteristics for the window and n is the number of sensors. Features 7-9 are the components of the Fast Fourier Transform (FFT) over the window, and the previous step provides all 9 features of each sensor, so there are 72 feature sets. That is, whenever a sample is obtained, the feature space information is as follows.

보다 구체적으로, 시간 영역 특징인 시계열 성분은 스마트폰 s 1의 4개 센서의 데이터 s 1 ; s 2 ; s 3 ; s 4 가 수집되고, s 1은 가속도계 센서 데이터, s 2 는 선형 가속도 센서 데이터, s 3 은 자이로스코프 센서 데이터, s 4 는 자력계 데이터이다. 각 센서에는 시계열(t) 데이터의 축(x; y; z )이 포함되어 있으므로 s 1 로 표시되는 센서 데이터 s 1 x; s 1 y; s 1 z 는 첫 번째 센서의 x축, y축 및 z축 데이터를 표시한다. 유사하게, 스마트폰 s2 로 표시되는 s 2 ; s 3 ; s 4 센서 데이터는 (s 2 x; s 2 y; s 2 z), (s 3 x; s 3 y; s 3 z), (s 4 x; s 4 y;s 4 z)로 다음과 같이 표시된다.More specifically, the time series component, which is a time domain feature, is data s 1 of four sensors of smartphone s 1 ; s 2 ; s 3 ; s 4 is collected, s 1 is accelerometer sensor data, s 2 is linear acceleration sensor data, s 3 is gyroscope sensor data, and s 4 is magnetometer data. Since each sensor contains an axis (x; y; z) of time-series (t) data, sensor data denoted by s 1 s 1 x; s 1 y; s 1 z displays the x-axis, y-axis, and z-axis data of the first sensor. Similarly, s 2 represented by smartphone s 2 ; s 3 ; The s 4 sensor data is ( s 2 x; s 2 y; s 2 z ), ( s 3 x; s 3 y; s 3 z ), and ( s 4 x; s 4 y; s 4 z ) as follows: displayed

수학식 [5]Equation [5]

X 1 (t) =[s 1 (x, y, z) . . . s 4 (x, y, z)] ---------(5) X 1 (t) =[ s 1 (x , y , z) . . . s 4 (x , y , z) ] ---------(5)

X 1 (t)의 벡터 차원은 각 인간 활동의 모든 샘플에서 12이다. 비슷하게, 스마트워치(smartwatch) 센서의 시계열 데이터는 다음 수식과 같이 표시된다.The vector dimension of X 1 (t) is 12 for all samples of each human activity. Similarly, the time series data of a smartwatch sensor is represented by the following formula.

수학식 [6]Equation [6]

X 2 (t) = [ s 1 (x , y , z)...s 4 (x , y , z) ]-----(6)X 2 (t) = [ s 1 (x , y , z)...s 4 (x , y , z) ]-----(6)

두 장치를 시계열로 사용하여 센서의 데이터를 결합한 후 하기 수식 [7]에서 X(t)를 얻게 된다.After combining the sensor data using the two devices in time series, X(t) is obtained in the following equation [7].

수학식 [7]Equation [7]

X (t) = X 1 (t) : X 2 (t)-----------(7)X (t) = X 1 (t) : X 2 (t)------------(7)

여기서 X(t)는 각 인간 활동의 모든 샘플에 있는 24차원 원시 데이터이다.where X(t) is the 24-dimensional raw data from all samples of each human activity.

또한, 계산된 회전 특징 V (t) i.e., 피치(Pitch)(θ), 롤(Roll)(φ) 및 원시 데이터의 가속도 크기(α)는 하기 수학식 [8]과 같다.In addition, the calculated rotational feature V (t) ie, pitch ( θ ), roll ( φ ), and acceleration magnitude (α) of raw data are as shown in Equation [8] below.

수학식 [8]Equation [8]

V 1 (t) =[s1 , , α) . . . s8 , , α)]----------------(8) V 1 (t) = [ s 1 , , α) . . . s 8 , , α) ]----------------(8)

다음 48개의 통계적 특징은 정의된 짧은 기간 동안 윈도우 방법을 사용하여 얻을 수 있다. 다음 수학식 [9]와 같이, 피치 σ 2 θ i, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하게 된다. The following 48 statistical features can be obtained using the window method over a defined short period. As shown in Equation [9], the dispersion of the pitch σ 2 θ i , the roll σ 2 φ i , and the magnitude of acceleration σ 2 α i is calculated.

수학식 [9]Equation [9]

V 2 (t) =[σ 2 1, 1, α1) . . .σ 2 8, 8, α8)]]----------(9) V 2 (t) = [ σ 2 (θ 1, 1, α 1 ) . . .σ 2 (θ 8, 8, α 8 ) ]]----------(9)

또한, 특징 벡터의 상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f

Figure pat00007
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하게 된다. 즉, 고속 푸리에 변환(FFT)을 사용하여 윈도우 크기가 (3 × 3)에 대해 24개의 주파수 영역 특징 Vf 를 다음 식 [10]과 같이 계산된다. In addition, the frequency domain feature of the feature vector is obtained by using a fast Fourier transform (FFT) to obtain a pitch (f
Figure pat00007
), roll (fφ), and acceleration magnitude (fα) data are calculated. That is, 24 frequency domain features Vf for a window size of (3 × 3) are calculated as in the following equation [10] using fast Fourier transform (FFT).

수학식 [10]Equation [10]

Vf =[f (θ 1, 1, α 1 ) . . . f (θ 8, 8, α 8 )]---------------(10) Vf = [ f (θ 1 , 1 , α 1 ) . . . f (θ 8 , 8 , α 8 ) ]----------------(10)

하기 표 [1]은 센서들의 특징 추출에서 센서의 기여를 나타내는 표로, 스마트 폰 및 스마트 워치의 각 센서들에 의한 센서 데이터에 의해 회전 특징, 시간 도메인 특징 및 주파수 도메인 특징을 얻는 계산을 보여주고 있다. Table [1] below shows the contribution of sensors in feature extraction of sensors, and shows calculations for obtaining rotation features, time domain features, and frequency domain features by sensor data from each sensor of a smart phone and a smart watch. .

Figure pat00008
Figure pat00008

마지막으로, 전체 센서 데이터는 하기 수학식 (10)- (12)를 이용하여 Z를 특징의 총 수라고 한다면, 최종 특징 공간을 획득하게 된다. Finally, the final feature space is obtained for all sensor data, if Z is the total number of features using the following equations (10)-(12).

Figure pat00009
Figure pat00009

따라서 전체 데이터 세트가 8:2비율로 훈련 및 테스트 프로세스용 데이터로 분할 구성되어 분류 프로세스에 활용될 수 있게 된다. Therefore, the entire data set is divided into data for training and testing processes in a ratio of 8:2 and can be used for classification process.

도 4는 본 발명의 나이브 베이즈 분류기의 혼돈 행렬의 예를 도시한 도면이고, 도 5는 본 발명의 K-최근접이웃 분류기의 혼돈 행렬의 예를 도시한 도면이고, 도 6은 본 발명의 신경망 분류기의 혼돈 행렬의 예를 도시한 도면이다.4 is a diagram showing an example of a chaos matrix of the naive Bayes classifier of the present invention, FIG. 5 is a diagram showing an example of a chaos matrix of the K-nearest neighbor classifier of the present invention, and FIG. It is a diagram showing an example of a confusion matrix of a neural network classifier.

상기 분류기(140)는 추출된 특징을 기계 학습 알고리즘에 적용하여 다양한 신체 활동을 분류하게 된다.The classifier 140 applies the extracted features to a machine learning algorithm to classify various physical activities.

앞서 설명했듯이 스마트폰과 스마트워치는 각각의 장치에 4개의 센서가 사용되어 인간의 신체 활동을 감지하게 된다. 9개의 특징은 각 센서 원시 데이터에서 파생된다. 그러나 인간의 활동을 식별하기 위해 다양한 센서가 사용되었지만 센서에서 파생된 각 기능은 특정 활동을 감지하고 인식하는 데 독립적인 역할을 하게 된다. 분류 알고리즘은 이전에 나열된 26개의 기본 및 복잡한 활동을 인식하게 된다. 스마트폰의 주머니 위치와 스마트 워치의 손목 위치라는 두 가지 데이터셋이 고려되어 다양한 분류 방법으로 분류되고 있다. As explained earlier, smart phones and smart watches use four sensors in each device to detect human body activity. Nine features are derived from each sensor raw data. However, although various sensors have been used to identify human activities, each sensor-derived function plays an independent role in detecting and recognizing specific activities. The classification algorithm will recognize the 26 basic and complex activities listed previously. Two datasets, the pocket location of the smart phone and the wrist location of the smart watch, are considered and classified using various classification methods.

보다 구체적으로, 상기 분류부(140)는 여러 인간의 신체 활동을 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN)를 사용하여 분류하게 된다.More specifically, the classification unit 140 uses Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN) for various human physical activities. to be classified.

먼저, 나이브 베이즈(Naive Bayes;NB)를 적용한 분류를 수행하기 위해 데이터를 두 그룹으로 나누게 된다. 데이터의 80%는 분류기 훈련에 사용되고 나머지 20%는 테스트 데이터로 사용된다. P를 단일 클래스의 센서 판독 값이라 하고(여기서 J는 클래스의 총 수), xp는 훈련 데이터 세트의 p번째 센서 판독 값을 나타낸다. xp의 요소는 12개의 센서 판독 값(4개 센서의 경우 3축)이다.First, data is divided into two groups to perform classification using Naive Bayes (NB). 80% of the data is used for classifier training and the remaining 20% is used as test data. Let P denote the sensor reading of a single class (where J is the total number of classes), and xp denote the pth sensor reading of the training data set. The elements of xp are the 12 sensor readings (3 axes for 4 sensors).

전체 훈련 데이터를 수집하고 데이터를 단일 벡터로 변환한다. 그런 다음 각 값의 빈도를 계산하고 클래스의 각 값의 확률을 구성하는 데 사용된다. 이는 각 값 xi 및 각 클래스 Cj에 대해 p(xijy = Cj)를 제공하게 된다. 그런 다음 새로운 판독 값 xtesti의 모든 요소를 취하여 센서 판독값이 클래스 또는 b에 속하는지 결정하고 다음 식과 같이 계산된다.Collect the entire training data and transform the data into a single vector. It is then used to calculate the frequency of each value and construct the probability of each value in the class. This will give p(xijy = Cj) for each value xi and each class Cj. It then takes all elements of the new reading xtesti to determine if the sensor reading belongs to class or b and is calculated as:

수학식 [14] -[15]Equation [14] -[15]

Figure pat00010
Figure pat00010

여기서, (14)> (15)인 경우 새 판독 값이 클래스에 속한다고 가정할 수 있다. 그렇지 않으면 새 판독 값이 클래스 b에 속하게 된다. 분류는 최대값을 취함으로써 여러 클래스의 비교로 쉽게 확장될 수 있다.Here, if (14) > (15), we can assume that the new reading belongs to the class. Otherwise the new reading will belong to class b. Classification can be easily extended to comparison of multiple classes by taking the maximum.

또한, K-최근접 이웃(K-Nearest Neighbors ;KNN)의 알고리즘을 적용한 분류는 다음 식 [16]과 같다. In addition, the classification applying the K-Nearest Neighbors (KNN) algorithm is as follows: [16].

수학식 [16]Equation [16]

Figure pat00011
Figure pat00011

이는 Cj와 비교되는 전체 클래스를 제공하고, KNN을 이용한 인간 활동 인식을 위해 인간의 신체 활동 횟수마다 이웃 K의 수를 할당한다. 여기서, 26개의 활동을 "k number Neighbor"로 할당하게 된다. 여러 인간 활동 인식 시스템의 경우 KNN이 다중 클래스 분류기로 사용된다. 이때, 데이터 포인트 사이의 유클리드 거리를 계산한다. 두 점 사이의 거리는 유클리드 거리이며 다음 식 [17]과 같이 계산된다.This provides the entire class compared with C j and assigns the number of neighbors K to each number of human body activities for human activity recognition using KNN. Here, 26 activities are assigned as "k number Neighbor". For several human activity recognition systems, KNN is used as a multi-class classifier. At this time, the Euclidean distance between the data points is calculated. The distance between the two points is the Euclidean distance and is calculated as the following equation [17].

수학식 [17]Equation [17]

Figure pat00012
Figure pat00012

마찬가지로 다지점에 대해서도 위의 절차를 반복하게 된다. 각 이웃 그룹의 평균값에서 KNN 유클리드 거리를 계산한다. 각 데이터 포인트를 최소 거리의 새 클래스에 다시 할당한 후 이러한 이웃 그룹의 중심을 계산한다. 데이터 포인트에 고정된 숫자가 거의 남지 않을 때까지 절차를 반복하게 된다. Similarly, the above procedure is repeated for multiple points. Calculate the KNN Euclidean distance from the mean of each neighboring group. After re-assigning each data point to a new class with the minimum distance, the centroid of this group of neighbors is computed. The process is repeated until there are few fixed numbers left for the data points.

또한, 신경망(Neural Network;NN) 알고리즘을 적용하여 분류하게 된다. 여기서, 신경망(NN)의 매개변수, 즉 뉴런의 수와 은닉층의 수는 테스트 데이터의 교차 엔트로피 오류의 최소값에 도달할 때까지 실험적으로 선택될 수 있다. MATLAB GUI의 한계를 극복하기 위해 사용자 지정 코딩과 함께 MATLAB의 신경망 툴킷을 사용하여 시뮬레이션을 구현할 수 있다. In addition, classification is performed by applying a Neural Network (NN) algorithm. Here, the parameters of the neural network (NN), namely the number of neurons and the number of hidden layers, can be experimentally selected until the minimum value of the cross-entropy error of the test data is reached. To overcome the limitations of the MATLAB GUI, simulations can be implemented using MATLAB's neural network toolkit along with custom coding.

인공 신경망에 대해 다음과 같은 구성을 사용할 수 있다. 입력 기능 = 72, 출력 클래스 = 26, 두 개의 은닉 레이어[110, 75 뉴런], Sigmoid Activation function, Conjugate gradient training function, Error Back propagation, 500 epochs. Neural Network-Nearest Neighbor, Naive Bayes, Ensemble method AdaBoost Decision Tree를 포함한 여러 분류기를 사용하여 분석할 수 있다. 여기서, 앙상블 목적으로 MATLAB 학습자 GUI 응용 프로그램을 사용할 수 있다. For an artificial neural network, the following configuration can be used. Input features = 72, output classes = 26, two hidden layers [110, 75 neurons], Sigmoid Activation function, Conjugate gradient training function, Error Back propagation, 500 epochs. It can be analyzed using several classifiers including Neural Network-Nearest Neighbor, Naive Bayes, Ensemble method AdaBoost Decision Tree. Here, we can use the MATLAB learner GUI application for ensemble purposes.

상기 판단부(150)는 분류부에서 분류된 인간 활동 인식에 대해 기 저장된 활동에서 어떠한 활동인지 여부를 판단하여 사용자에게 피드백을 제공할 수 있다. The determination unit 150 may provide feedback to the user by determining which activity is the pre-stored activity for the human activity recognition classified by the classification unit.

한편, 도 4 내지 도 6에 도시된 바와 같이, 상술한 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN)를 적용하여 분류의 정확도를 보여주고 있다.Meanwhile, as shown in FIGS. 4 to 6, classification is performed by applying the aforementioned Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN). shows the accuracy of

즉, 백분율 기준으로 분류기의 정확도는 다음과 같이 계산된다. 올바른 분류 백분율 = 100 * (1 - Cr)) 이고, 잘못된 분류 백분율 = 100 * Cr)이다. 여기서, Cr은 분류 해제율을 나타내는 혼동 값으로, 위양성, 위음성, 참양성 및 참음성 비율 정보를 반환하는 MATLAB 함수 혼동에서 얻은 값이다. 신경망은 99.340162%의 정확도를 제공하는 것을 보여주고 있다. That is, the accuracy of the classifier on a percentage basis is calculated as: Percentage of correct classification = 100 * (1 - Cr)), and percentage of misclassification = 100 * Cr). Here, Cr is the confusion value representing the declassification rate, obtained from the MATLAB function confusion that returns false positive, false negative, true positive, and true negative rate information. The neural network has been shown to give an accuracy of 99.340162%.

도 7은 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 방법에 대한 순서도를 개략적으로 도시한 도면이다. 여기서, 스마트 기기 기반의 다중 감각 접근 방법의 각 단계에 대한 상세한 설명은 상술한 도 1 내지 6을 참조하여 생략하기로 한다. 7 is a diagram schematically illustrating a flow chart for a multi-sensory access method based on a smart device according to an embodiment of the present invention. Here, a detailed description of each step of the smart device-based multi-sensory approach method will be omitted with reference to FIGS. 1 to 6 described above.

도 7에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 스마트 기기 기반의 다중 감각 접근 방법은, 먼저 데이터베이스에 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 단계가 수행된다(S710). 여기서, 상기 데이터베이스에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터이다. 상기 데이터베이스에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하게 된다.As shown in FIG. 7 , in the smart device-based multi-sensory approach method according to an embodiment of the present invention, first, sensor data measured from at least one sensor of the smart device is input to the database to detect the user's activity. A receiving and collecting step is performed (S710). Here, the sensor data collected in the database is sensor data measured from four three-axis sensors included in each of smart devices, such as a smart phone and a smart watch, such as an accelerometer, a gyroscope, a linear acceleration sensor, and a magnetometer. The 12-dimensional data measured from each of the four 3-axis sensors in the smart phone and smart watch collected in the database assigns a label to each sample, and the data of the two devices are connected in parallel and fused.

그리고, 상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리 단계가 수행된다(S720). Then, a preprocessing step of removing noise from the sensor data collected in the database and dividing it into windows or segments is performed (S720).

그 다음, 상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 단계가 수행된다(S730). 여기서, 상기 특징 벡터는 회전 특징, 시간 영역 특징 및 주파수 영역 특징으로 구성될 수 있다. Next, a step of extracting features by increasing the feature vector size of the preprocessed sensor data is performed (S730). Here, the feature vector may be composed of a rotation feature, a time domain feature, and a frequency domain feature.

상기 회전 특징은 x축에 대한 회전의 피치(Pitch)(

Figure pat00013
), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하게 된다.The rotational feature is the pitch of rotation about the x-axis (
Figure pat00013
), the roll of rotation about the z-axis (φ), and the acceleration vector of instantaneous rotation (α) derived from the orientation of the device.

상기 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하게 된다.The time domain feature calculates the variance of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i using a window.

상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f

Figure pat00014
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하게 된다.The frequency domain feature uses a fast Fourier transform (FFT) to determine the pitch (f
Figure pat00014
), roll (fφ), and acceleration magnitude (fα) data are calculated.

이어서, 상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 단계가 수행된다(S740). 여기서, 상기 기계 학습 알고리즘으로 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN) 알고리즘을 사용하여 분류하게 된다. Subsequently, a step of classifying the physical activity by applying the extracted feature to a machine learning algorithm is performed (S740). Here, classification is performed using Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN) algorithms as the machine learning algorithm.

따라서, 상술한 본 발명에 의하면, 일상 생활에서 인간의 여러 신체 활동에 대한 신뢰할 수 있는 인식에 대해 eHealth, 원격 모니터링 및 인식 피드백을 위한 인간 추적, 코칭, 인간 기계 상호 작용, 나쁜 습관 운전과 같은 많은 애플리케이션에 매우 유용하게 적용될 수 있다. Therefore, according to the present invention described above, for reliable recognition of various physical activities of human in daily life, many applications such as eHealth, human tracking for remote monitoring and recognition feedback, coaching, human machine interaction, bad habit driving It can be very useful for applications.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

110: 데이터베이스
120: 전처리부
130: 특징 추출부
140: 특징 분류부
150: 판단부
110: database
120: pre-processing unit
130: feature extraction unit
140: feature classification unit
150: judgment unit

Claims (16)

사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 데이터베이스;
상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리부;
상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 특징 추출부; 및
상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 분류기를 포함하는 스마트 기기 기반의 다중 감각 접근 시스템.
A database for receiving and collecting sensor data measured from at least one sensor of a smart device in order to detect a user's activity;
a pre-processing unit which removes noise from the sensor data collected in the database and divides it into windows or segments;
a feature extractor extracting features by increasing the feature vector size of the preprocessed sensor data; and
A smart device-based multi-sensory access system including a classifier for classifying physical activities by applying the extracted features to a machine learning algorithm.
제1항에 있어서,
상기 데이터베이스에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터인 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 1,
The sensor data collected in the database is based on a smart device, characterized in that the sensor data measured from the accelerometer, gyroscope, linear acceleration sensor, and magnetometer, which are four three-axis sensors included in smart devices, smart phones and smart watches, respectively. A multi-sensory access system.
제2항에 있어서,
상기 데이터베이스에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 2,
The 12-dimensional data measured from each of the four three-axis sensors in the smart phone and smart watch collected in the database labels each sample, and connects the data of the two devices in parallel to fuse them Smart device, characterized in that based multi-sensory access system.
제1항에 있어서,
상기 특징 추출부의 특징 벡터는 회전 특징, 시간 영역 특징 및 주파수 영역 특징으로 구성되는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 1,
The feature vector of the feature extraction unit is a smart device-based multi-sensory access system, characterized in that consisting of rotational features, time domain features and frequency domain features.
제4항에 있어서,
상기 회전 특징은 x축에 대한 회전의 피치(Pitch)(
Figure pat00015
), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 4,
The rotational feature is the pitch of rotation about the x-axis (
Figure pat00015
), a roll (φ) of rotation about the z-axis and an acceleration vector (α) of instantaneous rotation derived from the direction of the device, characterized in that for calculation.
제4항에 있어서,
상기 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 4,
The time domain feature calculates the variance of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i using a window.
제4항에 있어서,
상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f
Figure pat00016
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 4,
The frequency domain feature uses a fast Fourier transform (FFT) to determine the pitch (f
Figure pat00016
), a smart device-based multi-sensory access system, characterized in that for calculating data of roll (fφ) and acceleration magnitude (fα).
제1항에 있어서,
상기 분류기는 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN)의 기계 학습 알고리즘을 사용하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 시스템.
According to claim 1,
The classifier uses a machine learning algorithm of Naive Bayes (NB), K-Nearest Neighbors (KNN), and Neural Network (NN). sensory access system.
데이터베이스에 사용자의 활동 감지를 위해 적어도 하나 이상의 스마트 기기의 센서들로부터 측정된 센서 데이터를 입력받아 수집하는 단계;
상기 데이터베이스에 수집된 센서 데이터에서 노이즈를 제거하고 윈도우 또는 세그먼트로 분할하는 전처리 단계;
상기 전처리된 센서 데이터의 특징 벡터 크기를 증가시켜 특징 추출하는 단계; 및
상기 추출된 특징을 기계 학습 알고리즘에 적용하여 신체 활동을 분류하는 단계를 포함하는 스마트 기기 기반의 다중 감각 접근 방법.
Collecting sensor data measured from at least one sensor of a smart device in order to detect an activity of a user in a database;
a preprocessing step of removing noise from the sensor data collected in the database and dividing it into windows or segments;
extracting features by increasing the feature vector size of the preprocessed sensor data; and
A smart device-based multi-sensory approach comprising classifying physical activity by applying the extracted feature to a machine learning algorithm.
제9항에 있어서,
상기 데이터베이스에 수집된 센서 데이터는 스마트 기기인 스마트 폰 및 스마트 워치에 각각 포함된 4개의 3축 센서인 가속도계, 자이로스코프, 선형 가속도 센서 및 자력계로부터 측정된 센서 데이터인 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 9,
The sensor data collected in the database is based on a smart device, characterized in that the sensor data measured from the accelerometer, gyroscope, linear acceleration sensor, and magnetometer, which are four three-axis sensors included in smart devices, smart phones and smart watches, respectively. A multi-sensory approach.
제10항에 있어서,
상기 데이터베이스에 수집된 스마트 폰 및 스마트 워치에서 각각 4개의 3축 센서로부터 측정된 12차원 데이터는 각 샘플에 레이블을 지정하고, 상기 두 장치의 데이터를 병렬로 연결하여 융합하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 10,
The 12-dimensional data measured from each of the four three-axis sensors in the smart phone and smart watch collected in the database labels each sample, and connects the data of the two devices in parallel to fuse them Smart device, characterized in that based multisensory approach.
제9항에 있어서,
상기 특징 벡터는 회전 특징, 시간 영역 특징 및 주파수 영역 특징으로 구성되는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 9,
The feature vector is a smart device-based multisensory approach method, characterized in that consisting of rotational features, time domain features and frequency domain features.
제12항에 있어서,
상기 회전 특징은 x축에 대한 회전의 피치(Pitch)(
Figure pat00017
), z축에 대한 회전의 롤(roll)(φ) 및 장치의 방향에서 파생되는 순간 회전의 가속도 벡터(α)를 포함하여 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 12,
The rotational feature is the pitch of rotation about the x-axis (
Figure pat00017
), a roll (φ) of rotation about the z-axis and an acceleration vector (α) of instantaneous rotation derived from the direction of the device, characterized in that for calculation.
제12항에 있어서,
상기 시간 영역 특징은 윈도우를 이용하여 피치 σ2θi, 롤 σ 2 φ i 및 가속도 크기 σ 2 α i의 분산을 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 12,
The time domain feature calculates the variance of pitch σ 2 θ i , roll σ 2 φ i , and acceleration magnitude σ 2 α i using a window.
제12항에 있어서,
상기 주파수 영역 특징은 고속 푸리에 변환(FFT)을 사용하여 피치(f
Figure pat00018
), 롤(fφ) 및 가속도 크기(fα)의 데이터를 계산하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 12,
The frequency domain feature uses a fast Fourier transform (FFT) to determine the pitch (f
Figure pat00018
), a multi-sensory approach based on smart devices, characterized in that for calculating data of roll (fφ) and acceleration magnitude (fα).
제9항에 있어서,
상기 기계 학습 알고리즘은 나이브 베이즈(Naive Bayes;NB), K-최근접 이웃(K-Nearest Neighbors ;KNN) 및 신경망(Neural Network;NN) 알고리즘을 사용하는 것을 특징으로 하는 스마트 기기 기반의 다중 감각 접근 방법.
According to claim 9,
The machine learning algorithm uses a Naive Bayes (NB), K-Nearest Neighbors (KNN), and a Neural Network (NN) algorithm. approach.
KR1020210191590A 2021-12-29 2021-12-29 Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof KR20230101464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210191590A KR20230101464A (en) 2021-12-29 2021-12-29 Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210191590A KR20230101464A (en) 2021-12-29 2021-12-29 Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof

Publications (1)

Publication Number Publication Date
KR20230101464A true KR20230101464A (en) 2023-07-06

Family

ID=87185242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210191590A KR20230101464A (en) 2021-12-29 2021-12-29 Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof

Country Status (1)

Country Link
KR (1) KR20230101464A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080068467A (en) 2007-01-19 2008-07-23 삼성전자주식회사 Method for integrity check of digital object and integrity check system using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080068467A (en) 2007-01-19 2008-07-23 삼성전자주식회사 Method for integrity check of digital object and integrity check system using the same

Similar Documents

Publication Publication Date Title
Saboor et al. Latest research trends in gait analysis using wearable sensors and machine learning: A systematic review
Wang et al. Human activity recognition with user-free accelerometers in the sensor networks
Wang et al. A comparative study on human activity recognition using inertial sensors in a smartphone
Khan et al. Human activity recognition via an accelerometer-enabled-smartphone using kernel discriminant analysis
Ahad et al. IoT sensor-based activity recognition
Uddin et al. Random forests based recognition of human activities and postural transitions on smartphone
Nandy et al. Detailed human activity recognition using wearable sensor and smartphones
CN108960430B (en) Method and apparatus for generating personalized classifiers for human athletic activities
WO2011140632A1 (en) Method of identification and devices thereof
Jalloul et al. Activity recognition using complex network analysis
Nguyen et al. Activity recognition using wrist-worn sensors for human performance evaluation
Mesanza et al. A machine learning approach to perform physical activity classification using a sensorized crutch tip
Jahanjoo et al. Detection and multi-class classification of falling in elderly people by deep belief network algorithms
Malshika Welhenge et al. Human activity classification using long short-term memory network
CN110807471B (en) Behavior recognition system and recognition method of multi-mode sensor
Chen et al. Detection of falls with smartphone using machine learning technique
Liu et al. Deep-learning-based signal enhancement of low-resolution accelerometer for fall detection systems
Patil et al. Data integration based human activity recognition using deep learning models
Luqian et al. Human activity recognition using time series pattern recognition model-based on tsfresh features
Yang et al. Comparing cross-subject performance on human activities recognition using learning models
Bayat et al. Classifying human walking patterns using accelerometer data from smartphone
Hwang et al. Hierarchical deep learning model with inertial and physiological sensors fusion for wearable-based human activity recognition
KR20230101464A (en) Smart Devices Based Multisensory Approach for Complex Human Activity Recognition System and the method thereof
Hosein et al. Wearable sensor selection, motion representation and their effect on exercise classification
Hussein et al. Robust recognition of human activities using smartphone sensor data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal