KR101500662B1 - 모바일 단말을 이용한 활동 인식 장치 및 인식 방법 - Google Patents
모바일 단말을 이용한 활동 인식 장치 및 인식 방법 Download PDFInfo
- Publication number
- KR101500662B1 KR101500662B1 KR20130124837A KR20130124837A KR101500662B1 KR 101500662 B1 KR101500662 B1 KR 101500662B1 KR 20130124837 A KR20130124837 A KR 20130124837A KR 20130124837 A KR20130124837 A KR 20130124837A KR 101500662 B1 KR101500662 B1 KR 101500662B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- mobile terminal
- feature
- activity
- feature data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
Abstract
본 발명에 따른 모바일 단말을 이용한 활동 인식 장치는 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 데이터 습득부, 수집된 센서 데이터에 포함된 가속도 데이터에서 특징 데이터를 추출하는 특징 추출부, 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 모바일 단말의 소지 위치를 판별하는 중심 노드, 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 활동 학습부 및 분류된 특징 데이터에 활동 라벨을 배치하는 인식부를 포함한다.
Description
본 발명은 패턴 인식 기술에 관한 것으로, 보다 상세하게는 사용자의 신체 활동을 다양한 센서를 통해 인식하는 기술에 관한 것이다.
산업 영역은 물론 일상의 생활 영역에까지 다양한 패턴 인식 기술이 적용되고 있으며, 패턴 인식을 이용한 행위 인식은 그 중요성과 활용도가 점차 높아지고 있다. 패턴 인식 기술은 센서 기술의 발전에 힘입어 다양한 센서를 이용하여 사용자의 동작을 인식하는 기술로 발전하였으며, 이를 활용하는 여러 가지 기술이 나타나고 있다. 사용자의 동작을 인식하는 기술은 자이로 센서(Gyro Sensor), 가속도계(Accelerometer) 및 GPS(Global Positioning System)과 같은 다양한 센서를 이용하여 측정된 센서 데이터를 분석 및 처리하여 사용자의 신체 활동을 인식하는 기술이다. 하지만, 이와 같은 신체 활동 인식 기술은 다양한 센서 장치를 일일이 구비해야 하는 문제점이 있으며, 센서 장치를 통해 수집된 센서 데이터를 분석하기 위한 별도의 분석 장치를 필요로 하거나, 서버 측의 처리 문제에 직면할 수 있다. 또한, 센서 장치 및 분석 장치를 필요로 하기 때문에, 신체 활동을 인식하는데 장소나 위치에 제약을 받을 수 있다.
2007년 11차 IEEE 국제 심포지엄(11th IEEE International Symposium)에서 발표된 'Real-Time Recognition of Physical Activities and Their Intensities Using Wireless Accelerometers and a Heart Rate Monitor'에서는 일상 생활 활동을 인식하기 위해 사람 몸에 5개의 가속도계와 심박 센서를 부착하여 높은 신뢰를 가지는 인식 방법을 기재하고 있다. 여기서는, 물리적 활동을 통한 단순 베이즈 판단 트리(Naive Bayes Decision Tree) 및 C4.5 트리 패밀리 알고리즘(Tree Family Algorithm)의 성능을 분석한다. 하지만, 이와 같은 기술은 센서 데이터 수집을 위해 서버 사이드 프로세싱(Server Side Processing) 및 침투 알고리즘(Intrusive Algorithm)을 필요로 한다는 점에서 어려움이 존재한다. 이처럼 많은 패턴 인식 기술들은 측정된 센서 데이터를 별도의 서버를 통해 처리하기 때문에, 측정된 센서 데이터를 서버 측으로 전달하기 위한 강력한 통신 채널을 필요로 하기 때문에, 일정한 통신 비용을 필요로 한다.
그리고, 다양한 분류 알고리즘 중에서, 최근접 이웃 검색 알고리즘(Nearest Neighbor Algorithm)은 많은 응용프로그램 도메인에서 가장 많이 사용되는 알고리즘의 하나이며, 특히, 데이터 마이닝(Data Mining)에서 가장 자주 사용되는 알고리즘의 하나이다. 그러나, 최근접 이웃 검색 알고리즘은 많은 양의 필요 메모리를 요구하고, 분류 응답(Classification Response)에서 낮은 효율을 나타내며, 외란(Noise)에 민감한 문제점을 가진다.
E. M. Tapia, S. S. Intille, W. Haskell, K. Larson, J. Wright, A. King, R. Friedman, Real-Time Recognition of Physical Activities and Their Intensities Using Wireless Accelerometers and a Heart Rate Monitor. 11th IEEE International Symposium on Wearable Computers, 2007, pp. 37-40.
본 발명이 해결하고자 하는 과제는 실시간으로 신체 활동을 인식할 수 있으며, 장소나 위치에 제약을 받지 않고, 장치에 독립적인 데이터 수집 방법을 가지는 인식 장치 및 방법을 제공하는 것이다.
본 발명에 따른 모바일 단말을 이용한 활동 인식 장치는 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 데이터 습득부, 수집된 센서 데이터에 포함된 가속도 데이터에서 특징 데이터를 추출하는 특징 추출부, 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 모바일 단말의 소지 위치를 판별하는 중심 노드, 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 활동 학습부 및 분류된 특징 데이터에 활동 라벨을 배치하는 인식부를 포함한다. 그리고, 활동 학습부는 모바일 단말의 소지 위치가 상기 사용자의 손인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제1 분류 모듈, 모바일 단말의 소지 위치가 사용자의 주머니인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제2 분류 모듈 및 모바일 단말의 소지 위치가 사용자의 손 또는 사용자의 주머니가 아닌 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제3 분류 모듈을 포함한다.
본 발명에 따른 모바일 단말을 이용한 활동 인식 방법은 먼저, 모바일 단말에 구비된 센서 장치를 이용하여 센서 데이터를 수집하고, 수집된 센서 데이터에 포함된 가속도 데이터에서 특징 데이터를 추출한다. 그리고, 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 모바일 단말의 소지 위치를 판별한다. 모바일 단말의 소지 위치가 판별되면, 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하고, 분류된 특징 데이터에 활동 라벨을 배치한다. 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 단계는 크게 모바일 단말의 소지 위치가 사용자의 손인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계, 모바일 단말의 소지 위치가 사용자의 주머니인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계 및 모바일 단말의 소지 위치가 사용자의 손 또는 사용자의 주머니가 아닌 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계를 포함할 수 있다.
본 발명에 따른 모바일 단말을 이용한 활동 인식 장치 및 활동 인식 방법은 모바일 단말의 센서 관리 API가 아닌 별도의 API를 사용하여 모바일 단말에 독립적으로 센서 데이터를 수집할 수 있으며, 모바일 단말의 소지 위치를 통해 1차적으로 특징 데이터를 분류한 후 사용자의 신체 활동에 따라 분류할 수 있기 때문에, 연산량을 줄일 수 있으며, 빠른 응답을 가능하게 한다.
도 1은 본 발명에 따른 모바일 단말을 이용한 활동 인식 장치의 일 실시예를 나타내는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 장치의 데이터 흐름을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 방법을 나타내는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 장치의 데이터 흐름을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 방법을 나타내는 흐름도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다. 본 명세서에서 사용되는 용어는 실시예에서의 기능 및 효과를 고려하여 선택된 용어들로서, 그 용어의 의미는 사용자 또는 운용자의 의도 또는 업계의 관례 등에 따라 달라질 수 있다. 따라서 후술하는 실시예들에서 사용된 용어의 의미는, 본 명세서에 구체적으로 명시된 경우에는 명시된 정의에 따르며, 구체적으로 명시하지 않는 경우, 당업자들이 일반적으로 인식하는 의미로 해석되어야 할 것이다.
도 1은 본 발명에 따른 모바일 단말을 이용한 활동 인식 장치의 일 실시예를 나타내는 구성도이다.
도 1을 참조하면, 본 발명에 따른 모바일 단말을 이용한 활동 인식 장치(100)는 데이터 습득부(110), 특징 추출부(120) 및 신체활동 인식부(130)를 포함할 수 있다.
데이터 습득부(110)는 구비된 센서 장치를 통해 센서 데이터를 수집한다. 데이터 습득부(110)에 구비된 센서 장치는 가속도계(Accelerometer), 주변광 센서(Ambient Light Sensor) 및 근접 센서(Proxomity Sensor)를 포함한다.
가속도계는 모바일 단말의 가속도를 측정하여 가속도 데이터를 수집한다. 가속도계를 통해 수집된 가속도 데이터를 통해 모바일 단말의 움직임을 추정할 수 있다. 주변광 센서는 모바일 단말 주변의 빛의 양을 측정하여 주변광 데이터를 수집한다. 그리고, 근접 센서는 모바일 단말에 근접한 것을 비접촉으로 감지하여 그 위치를 검출하여 근접 센서 데이터를 수집한다. 가속도계, 주변광 센서 및 급접 센서는 별도의 센서 장치를 모바일 단말에 구비하여 이용할 수 있으며, 모바일 단말에 내장된 센서 장치를 이용할 수 있다.
데이터 습득부(110)는 3초의 간격(인터벌)을 가지고 50Hz의 샘플링 레이트(Sampling Rate)로 구비된 센서 장치로부터 데이터를 수집하는 것이 바람직할 수 있다. 그리고, 데이터 습득부(110)는 구비된 가속도계, 주변광 센서 및 근접 센서로부터 데이터를 수집할 때, 일반적인 모바일 기기의 센서 관리 API(Application Programing Interface)를 이용하는 것이 아니라, 별도의 활동 인식 API를 구성하여, 별도로 구성된 활동 인식 API를 통해 센서 데이터를 수집할 수 있다. 이를 통해 데이터 습득부(110)는 모바일 단말의 API에 관계없이 모바일 단말에 독립적으로 센서 데이터를 수집할 수 있다.
데이터 습득부(110)는 구비된 가속도계, 주변광 센서 및 근접 센서로부터 수집된 가속도 데이터, 주변광 데이터 및 근접 센서 데이터를 포함하는 센서 데이터를 특징 추출부(120)로 전달한다.
특징 추출부(120)는 데이터 습득부(110)로부터 수신된 센서 데이터에 포함된 가속도 데이터로부터 특징 데이터를 추출한다. 특징 추출부(120)의 특징 추출은 연산의 복잡성을 줄이고 활동 인식 과정을 강화하기 위한 신호를 사용하여 새로운 속성(Attribute)을 정의하는 매우 영역 특수적인 기술이다.
특징 추출부(120)는 첫 번째로, 수집된 가속도 데이터의 방향성(Orientation Issue)을 해결한다. 그리고 나서, 특징 추출부(120)는 시간 영역(Time Domain) 및 주파수 영역(Frequency Domain)으로 구분하여 수집된 가속도 데이터에서 특징 데이터를 추출한다. 특징 추출부(120)는 시간 영역 및 주파수 영역으로 특징 데이터를 추출함으로써, 특징 추출을 위한 연산의 복잡성을 제거할 수 있다.
수학식 1은 가속도 데이터로부터 제곱 평균을 계산한다. 수학식 1에서, 제곱 평균(Root Mean Square)는 양적 변화(Varying Quantity)의 집중경향(Central Tendency)을 측정하기 위한 통계적인 시간 영역 특징이다. 수학식 1에서 는 가속도 센서에 의해 수집된 i번째 가속도 데이터이며, n은 수집된 총 가속도 데이터의 개수이다.
수학식 2는 가속도 데이터로부터 분산을 계산한다. 수학식 2에서, 분산은 다른 행동을 위한 데이터 스프레드(Data Spread)를 측정하기 위한 분산미터법(Dispersion Metric)이다. 수학식 2에서 는 가속도 데이터의 분산을 나타내고, 는 수학식1에 의해 계산된 제곱 평균을 나타낸다.
수학식 3은 가속도 데이터의 상관 특징(Correlation Feature)을 계산한다. 수학식 3에서, 상관 특징은 데이터 사이의 연관성을 실증한다. 그리고, 상관 특징은 복잡한 움직임을 가지는 가속도 데이터를 단순하게 구별하는데 유용하다. 예를 들어, 사용자의 걷는 활동은 보통 1차원에서의 변화를 수반할 수 있다. 반면에, 하이킹(Hikikng)은 1차원을 초과하는 2차원 이상의 차원에서 변화를 수반할 수 있다. 즉, 수학식 3을 통해 수집된 가속도 데이터로부터 상관 특징을 계산하여 모바일 단말의 움직임을 단순하게 구별할 수 있다.
수학식 4는 가속도 데이터의 에너지 특징(Energy Feature)을 계산한다. 수학식 4에서, 에너지 특징은 정의된 시간 주기를 넘어 데이터의 양적인 특징을 찾는 고속 퓨리에 변환(Fast Fourire Transform, FFT) 응용에 의해 계산된다. 수학식 4에 의해 계산된 에너지 특징은 신호의 스트레스(Stress)를 대표하며, 이는 동작의 역동성(Dynamic)을 나타낸다. 즉, 수학식 4를 이용하여 가속도 데이터로부터 계산된 에너지 특징은 모바일 단말의 역동성을 나타내며, 이를 통해 모바일 단말이 움직인 정도를 추정할 수 있다. 수학식 3 또는 수학식 4로부터 계산된 특징의 선택은 선택된 활동의 본질에 영향을 받는다. 그리고, 이러한 특징의 선택은 의도된 활동에 대해 높은 영향(Impact)을 가진다. 단일 특징은 모든 활동을 위해 지속적으로 더 나은 방향으로 수행할 수 있다. 이러한 모든 특징은 3초의 시간 인터벌로 서로 중복되는 슬라이딩 윈도우(Sliding Window) 방법과 함께 삼차원 가속도계 데이터를 위해 계산될 수 있다.
특징 추출부(120)는 수학식 1 내지 수학식 4에 의해 가속도 데이터로부터 추출된 특징 데이터를 신체활동 인식부(130)의 중심 노드(131)로 전달하고, 데이터 습득부(110)로부터 수신된 주변광 데이터 및 근접 센서 데이터 또한 중심 노드(131)로 전달한다.
신체활동 인식부(130)는 중심 노드(131), 활동 학습부(132) 및 인식부(133)를 포함할 수 있다.
중심 노드(131)는 활동 학습부(132) 및 인식부(133) 사이의 통신을 연결한다.
그리고, 중심 노드(131)는 특징 추출부(120)로부터 수신된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 모바일 단말의 소지 위치를 판별할 수 있다. 모바일의 소지 위치는 크게 세 가지로 구분할 수 있다. 첫 번째는 모바일 단말을 손에 파지한 경우이고, 두 번째는 모바일 단말을 주머니에 소지한 경우이며, 세 번째는 손과 주머니를 제외한 기타 지점에 소지한 경우이다. 중심 노드(131)는 주변광 데이터를 통해 모바일 단말을 비추는 햇빛의 양을 추정할 수 있으며, 근접 센서 데이터를 통해 모바일 단말이 밀착된 정도를 추정할 수 있다. 이를 통해, 중심 노드(131)는 모바일 단말의 소지 위치를 판별할 수 있다.
중심 노드(131)는 수신된 주변광 데이터를 통해 모바일 단말에 소정의 기준 이상의 햇빛이 비추는 것으로 추정되고, 근접 센서 데이터를 통해 모바일 단말의 일부 면이 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 손에 파지 되어 있는 것으로 판별할 수 있다. 그리고, 중심 노드(131)는 주변광 데이터를 통해 모바일 단말에 햇빛이 비추지 않는 것으로 추정되고, 근접 센서 데이터를 통해 모바이 단말의 양면이 모두 밀착되어 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 주머니에 위치한 것으로 판별할 수 있다. 또한, 중심 노드(131)는 사용자의 손 및 주머니로 판별되지 않는 주변광 데이터 및 근접 센서 데이터의 경우 기타 장소로 판별할 수 있다.
중심 노드(131)는 주변광 데이터 및 근접 센서 데이터에 기초하여 판별된 모바일 단말의 소지 위치에 따라 활동 학습부(132)의 세 가지 분류 모듈(1321,1322,1323) 중에서 판별된 소지 위치에 대응하는 분류 모듈로 특징 추출부(120)로부터 전달된 추출된 특징 데이터를 전달한다.
활동 학습부(132)는 제1 분류 모듈(1321), 제2 분류 모듈(1322) 및 제3 분류 모듈(1323)을 포함한다.
제1 분류 모듈(1321)은 모바일 단말이 사용자의 손에 위치한 경우에 대해 신체 활동의 종류를 분류하며, 제2 분류 모듈(1322)는 모바일 단말이 주머니에 위치한 경우에 대해 신체 활동의 종류를 분류한다. 그리고, 제3 분류 모듈(1323)는 기타 장소에 위치한 경우에 대해 신체 활동의 종류를 분류한다.
제1 내지 제3 분류 모듈(1321,1322,1323)은 특징 추출부(120)로부터 수신된 특징 데이터에 기초하여 현재 사용자의 신체 활동의 종류를 판별한다. 수신된 특징 데이터는 센서 데이터에 수학식 1 내지 수학식 4을 적용하여 산출된 상관 특징 및 에너지 특징을 포함하고 있다.
제1 내지 제3 분류 모듈(1321,1322,1323)은 상관 특징 또는 에너지 특징을 통해 모바일 단말의 움직임을 추정할 수 있다. 상관 특징은 데이터 사이의 연관성을 실증한다. 그리고, 상관 특징은 복잡한 움직임을 가지는 가속도 데이터를 단순하게 구별하는데 유용하다. 예를 들어, 사용자의 걷는 활동은 보통 1차원에서의 변화를 수반할 수 있다. 반면에, 하이킹(Hikikng)은 1차원을 초과하는 2차원 이상의 차원에서 변화를 수반할 수 있다. 즉, 상관 특징을 통해 모바일 단말의 움직임을 단순하게 구별할 수 있으며, 모바일 단말의 움직임을 통해 모바일 단말을 소지한 사용자의 신체 활동의 종류를 분류할 수 있다. 그리고, 에너지 특징은 정의된 시간 주기를 넘어 데이터의 양적인 특징을 찾는 고속 퓨리에 변환(Fast Fourire Transform, FFT) 응용에 의해 계산된다. 에너지 특징은 신호의 스트레스(Stress)를 대표하며, 이는 동작의 역동성(Dynamic)을 나타낸다. 즉, 가속도 데이터로부터 계산된 에너지 특징은 모바일 단말의 역동성을 나타내며, 이를 통해 모바일 단말이 움직인 정도를 추정할 수 있다. 따라서, 모바일 단말의 움직인 정도를 통해 모바일 단말을 소지한 사용자의 신체 활동을 분류할 수 있다.
제1 내지 제3 분류 모듈(1321,1322,1323)은 손, 주머니 및 기타의 모바일 소지 위치에 따라 분류된 특징 데이터 각각을 다시 일상적인 신체 활동에 따라 분류할 수 있다. 일살적인 신체 활동은 크게 걷기(Walking), 뛰기(Running), 자전거 타기(Cycling), 하이킹(Hiking), 호핑(Hopping) 및 휴식(Relaxing)으로 분류할 수 있다.
제1 내지 제3 분류 모듈(1321,1322,1323)은 특징 데이터를 통해 사용자의 신체 활동을 분류할 때, 비모수 최근접 이웃 알고리즘(Non-parametric Nearest Neighbor Algorithm)을 통해 사용자의 신체 활동을 분류할 수 있다. 제1 내지 제3 분류 모듈(1321,1322,1323)은 비모수 최근접 이웃 알고리즘을 이용함으로써, 보다 연산 자원을 적게 소모하고, 분류를 쉽게 시행할 수 있다.
활동 학습부(132)는 중심 노드(131)로부터 모바일 단말의 소지 위치에 따라 제1 내지 제3 분류 모듈(1321,1322,1323) 중에서 대응하는 분류 모듈에서 특징 데이터를 수신하여 사용자의 신체 활동을 분류한다. 따라서, 본 발명에서는 가속도 데이터 전체 대신에 특징 데이터만을 유지함으로써, 저장 비용을 줄일 수 있다. 또한, 모바일 단말의 소지 위치에 따라 분류된 특징 데이터를 대응하는 분류 모듈에서 수신하여 사용자의 신체 활동을 분류하기 때문에, 불필요한 연산량을 줄일 수 있으며, 보다 빠르게 응답할 수 있다.
활동 학습부(132)의 제1 내지 제3 분류 모듈(1321,1322,1323)은 특징 데이터를 분류하여 생성된 분류된 특징 데이터를 중심 노드(131)를 거쳐 인식부(133)로 전달한다.
인식부(133)는 활동 학습부(132)로부터 수신된 분류된 특징 데이터 각각에 해당하는 활동 라벨을 부여한다. 예를 들어, 수신된 분류된 특징 데이터가 모바일 단말을 손에 파지한 경우 달리는 신체 활동으로 분류된 경우, '손에 파지시 달리기'라는 활동 라벨을 부여할 수 있다. 인식부(133)를 통해 부여된 활동 라벨을 통해 각각의 특징 데이터의 분류 상태를 손쉽게 파악할 수 있다.
본 발명에 따른 모바일 단말을 이용한 활동 인식 장치(100)는 모바일 단말 내에 위치하여, 모바일 단말에 구비된 센서 장치를 이용하여 센서 데이터를 측정하고, 모바일 단말 내에서 측정된 센서 데이터를 모바일 단말의 소지 위치에 따라 분류하여 사용자의 신체 활동을 분류하기 때문에, 통신 채널의 비용을 줄일 수 있으며, 별도의 서버로 데이터 패키지를 전송하는 에너지를 줄일 수 있다.
도 2는 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 장치의 데이터 흐름을 나타내는 흐름도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 장치의 데이터 흐름은 먼저, 데이터 습득부(110)에 구비된 센서를 통해 센서 데이터를 수집한다(201). 데이터 습득부(110)에 구비된 센서 장치는 가속도계, 주변광 센서 및 근접 센서를 포함한다. 가속도계, 주변광 센서 및 급접 센서는 별도의 센서 장치를 모바일 단말에 구비하여 이용할 수 있으며, 모바일 단말에 내장된 센서 장치를 이용할 수 있다. 데이터 습득부(110)는 3초의 간격(인터벌)을 가지고 50Hz의 샘플링 레이트(Sampling Rate)로 구비된 센서 장치로부터 데이터를 수집하는 것이 바람직할 수 있다. 그리고, 데이터 습득부(110)는 구비된 가속도계, 주변광 센서 및 근접 센서로부터 데이터를 수집할 때, 일반적인 모바일 기기의 센서 관리 API를 이용하는 것이 아니라, 별도의 활동 인식 API를 구성하여, 별도로 구성된 활동 인식 API를 통해 센서 데이터를 수집할 수 있다. 이를 통해 데이터 습득부(110)는 모바일 단말의 API에 관계없이 모바일 단말에 독립적으로 센서 데이터를 수집할 수 있다. 그리고, 데이터 습득부(110)는 수집된 가속도 데이터, 주변광 데이터 및 근접 센서 데이터를 포함하는 센서 데이터를 특징 추출부(120)로 전달한다(202).
데이터 습득부(110)로부터 수집된 센서 데이터를 수신한 특징 추출부(120)는 수신된 센서 데이터에 포함된 가속도 데이터로부터 특징 데이터를 추출한다(203). 특징 추출부(120)는 도 1에 기재된 수학식 1 내지 수학식 4을 통해 시간 영역 및 주파수 영역으로 특징 데이터를 추출하여, 상관 특징 및 에너지 특징을 산출한다. 그리고, 특징 추출부(120)는 수학식 1 내지 수학식 4에 의해 가속도 데이터로부터 추출된 특징 데이터 및 주변광 데이터 및 근접 센서 데이터를 포함하는 수집된 센서 데이터를 중심 노드(131)로 전달한다(204).
특징 추출부(120)로부터 센서 데이터를 수신한 중심 노드(131)는 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 모바일 단말의 소지 위치를 판별한다(205). 모바일의 소지 위치는 크게 세 가지로 구분할 수 있다. 첫 번째는 모바일 단말을 손에 파지한 경우이고, 두 번째는 모바일 단말을 주머니에 소지한 경우이며, 세 번째는 손과 주머니를 제외한 기타 지점에 소지한 경우이다. 중심 노드(131)는 주변광 데이터를 통해 모바일 단말을 비추는 햇빛의 양을 추정할 수 있으며, 근접 센서 데이터를 통해 모바일 단말이 밀착된 정도를 추정할 수 있다. 이를 통해, 중심 노드(131)는 모바일 단말의 소지 위치를 판별할 수 있다.
중심 노드(131)는 수신된 주변광 데이터를 통해 모바일 단말에 소정의 기준 이상의 햇빛이 비추는 것으로 추정되고, 근접 센서 데이터를 통해 모바일 단말의 일부 면이 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 손에 파지 되어 있는 것으로 판별할 수 있다. 그리고, 중심 노드(131)는 주변광 데이터를 통해 모바일 단말에 햇빛이 비추지 않는 것으로 추정되고, 근접 센서 데이터를 통해 모바이 단말의 양면이 모두 밀착되어 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 주머니에 위치한 것으로 판별할 수 있다. 또한, 중심 노드(131)는 사용자의 손 및 주머니로 판별되지 않는 주변광 데이터 및 근접 센서 데이터의 경우 기타 장소로 판별할 수 있다. 중심 노드(131)는 주변광 데이터 및 근접 센서 데이터에 기초하여 판별된 모바일 단말의 소지 위치에 따라 활동 학습부(132)의 제1 내지 제3 분류 모듈 중에서 판별된 소지 위치에 대응하는 분류 모듈로 특징 추출부(120)로부터 전달된 추출된 특징 데이터를 전달한다(206).
활동 학습부(132)는 소지 위치에 따라 대응하는 분류 모듈에서 추출된 특징 데이터를 분석하여 사용자의 신체 활동을 분류한다(207). 제1 분류 모듈은 모바일 단말이 사용자의 손에 위치한 경우에 대해 신체 활동의 종류를 분류하며, 제2 분류 모듈는 모바일 단말이 주머니에 위치한 경우에 대해 신체 활동의 종류를 분류한다. 그리고, 제3 분류 모듈는 기타 장소에 위치한 경우에 대해 신체 활동의 종류를 분류한다. 활동 학습부(132)의 제1 내지 제3 분류 모듈은 상관 특징 또는 에너지 특징을 통해 모바일 단말의 움직임을 추정할 수 있다. 상관 특징은 데이터 사이의 연관성을 실증한다. 그리고, 상관 특징은 복잡한 움직임을 가지는 가속도 데이터를 단순하게 구별하는데 유용하다. 예를 들어, 사용자의 걷는 활동은 보통 1차원에서의 변화를 수반할 수 있다.
반면에, 하이킹(Hikikng)은 1차원을 초과하는 2차원 이상의 차원에서 변화를 수반할 수 있다. 즉, 상관 특징을 통해 모바일 단말의 움직임을 단순하게 구별할 수 있으며, 모바일 단말의 움직임을 통해 모바일 단말을 소지한 사용자의 신체 활동의 종류를 분류할 수 있다. 그리고, 에너지 특징은 정의된 시간 주기를 넘어 데이터의 양적인 특징을 찾는 고속 퓨리에 변환(Fast Fourire Transform, FFT) 응용에 의해 계산된다. 에너지 특징은 신호의 스트레스(Stress)를 대표하며, 이는 동작의 역동성(Dynamic)을 나타낸다. 즉, 가속도 데이터로부터 계산된 에너지 특징은 모바일 단말의 역동성을 나타내며, 이를 통해 모바일 단말이 움직인 정도를 추정할 수 있다. 따라서, 모바일 단말의 움직인 정도를 통해 모바일 단말을 소지한 사용자의 신체 활동을 분류할 수 있다. 활동 학습부(132)는 손, 주머니 및 기타의 모바일 소지 위치에 따라 분류된 특징 데이터 각각을 다시 일상적인 신체 활동에 따라 분류할 수 있다. 일살적인 신체 활동은 크게 걷기, 뛰기, 자전거 타기, 하이킹, 호핑 및 휴식으로 분류할 수 있다.
활동 학습부(132)는 중심 노드(131)로부터 모바일 단말의 소지 위치에 따라 제1 내지 제3 분류 모듈 중에서 대응하는 분류 모듈에서 특징 데이터를 수신하여 사용자의 신체 활동을 분류한다. 따라서, 본 발명에서는 가속도 데이터 전체 대신에 특징 데이터만을 유지함으로써, 저장 비용을 줄일 수 있다. 또한, 모바일 단말의 소지 위치에 따라 분류된 특징 데이터를 대응하는 분류 모듈에서 수신하여 사용자의 신체 활동을 분류하기 때문에, 불필요한 연산량을 줄일 수 있으며, 보다 빠르게 응답할 수 있다.
활동 학습부(132)는 분류된 특징 데이터를 중심 노드(131)를 거쳐(208) 인식부(133)로 전달한다(209).
활동 학습부(132)로부터 중심 노드(131)를 거쳐 분류된 특징 데이터를 수신한 인식부(133)는 수신된 분류된 특징 데이터 각각에 해당하는 활동 라벨을 부여한다(210). 예를 들어, 수신된 분류된 특징 데이터가 모바일 단말을 손에 파지한 경우 달리는 신체 활동으로 분류된 경우, '손에 파지시 달리기'라는 활동 라벨을 부여할 수 있다. 인식부(133)를 통해 부여된 활동 라벨을 통해 각각의 특징 데이터의 분류 상태를 손쉽게 파악할 수 있다.
도 3은 본 발명의 일 실시예에 따른 모바일 단말을 이용한 활동 인식 방법을 나타내는 흐름도이다.
도 3을 참조하면, 본 발명의 일 실시예에 다른 모바일 단말을 이용한 활동 인식 방법은 먼저, 모바일 단말에 구비된 센서를 이용하여 센서 데이터를 수집한다(301). 모바일 단말에 구비된 센서 장치는 가속도계, 주변광 센서 및 근접 센서를 포함한다. 가속도계, 주변광 센서 및 급접 센서는 별도의 센서 장치를 모바일 단말에 구비하여 이용할 수 있으며, 모바일 단말에 내장된 센서 장치를 이용할 수 있다. 센서 장치의 샘플링 레이트는 3초의 간격(인터벌)을 가지고 50Hz로 데이터를 수집하는 것이 바람직할 수 있다. 그리고, 구비된 가속도계, 주변광 센서 및 근접 센서로부터 데이터를 수집할 때, 일반적인 모바일 기기의 센서 관리 API를 이용하는 것이 아니라, 별도의 활동 인식 API를 구성하여, 별도로 구성된 활동 인식 API를 통해 센서 데이터를 수집할 수 있다. 이를 통해 본 발명은 모바일 단말의 API에 관계없이 모바일 단말에 독립적으로 센서 데이터를 수집할 수 있다.
센서 데이터가 수집되면, 수집된 센서 데이터에 포함된 가속도 데이터로부터 특징을 추출한다(302). 수집된 센서 데이터는 가속도 데이터, 주변광 데이터 및 근접 센서 데이터를 포함한다. 가속도 데이터에 도 1에 기재된 수학식 1 내지 수학식 4을 적용하여 상관 특징 및 에너지 특징을 포함하는 특징 데이터를 추출한다.
다음으로, 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터에 기초하여 모바일 단말의 소지 위치를 판별한다(303). 모바일의 소지 위치는 크게 세 가지로 구분할 수 있다. 첫 번째는 모바일 단말을 손에 파지한 경우이고, 두 번째는 모바일 단말을 주머니에 소지한 경우이며, 세 번째는 손과 주머니를 제외한 기타 지점에 소지한 경우이다. 주변광 데이터를 통해 모바일 단말을 비추는 햇빛의 양을 추정할 수 있으며, 근접 센서 데이터를 통해 모바일 단말이 밀착된 정도를 추정할 수 있다. 이를 통해, 모바일 단말의 소지 위치를 판별할 수 있다.
수신된 주변광 데이터를 통해 모바일 단말에 소정의 기준 이상의 햇빛이 비추는 것으로 추정되고, 근접 센서 데이터를 통해 모바일 단말의 일부 면이 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 손에 파지 되어 있는 것으로 판별할 수 있다. 그리고, 주변광 데이터를 통해 모바일 단말에 햇빛이 비추지 않는 것으로 추정되고, 근접 센서 데이터를 통해 모바이 단말의 양면이 모두 밀착되어 접촉해 있는 것으로 판단되면, 모바일 단말이 사용자의 주머니에 위치한 것으로 판별할 수 있다. 또한, 용자의 손 및 주머니로 판별되지 않는 주변광 데이터 및 근접 센서 데이터의 경우 기타 장소로 판별할 수 있다.
모바일 단말의 소지 위치가 판별되면, 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동에 따라 분류한다(304). 사용자의 손, 주머니 및 기타로 분류된 특징 데이터를 소지 위치에 따라 분류된 상태에서 신체 활동에 따라 다시 분류한다. 상관 특징 또는 에너지 특징은 모바일 단말의 움직임에 대한 특징을 차원 또는 동적인 정도로 나타내기 때문에, 이를 통해 사용자의 신체 활동을 추정할 수 있다. 상관 특징은 복잡한 움직임을 가지는 가속도 데이터를 단순하게 구별하는데 유용하다. 예를 들어, 사용자의 걷는 활동은 보통 1차원에서의 변화를 수반할 수 있다. 반면에, 하이킹(Hikikng)은 1차원을 초과하는 2차원 이상의 차원에서 변화를 수반할 수 있다. 즉, 상관 특징을 통해 모바일 단말의 움직임을 단순하게 구별할 수 있으며, 모바일 단말의 움직임을 통해 모바일 단말을 소지한 사용자의 신체 활동의 종류를 분류할 수 있다. 그리고, 에너지 특징은 정의된 시간 주기를 넘어 데이터의 양적인 특징을 찾는 고속 퓨리에 변환(Fast Fourire Transform, FFT) 응용에 의해 계산된다. 에너지 특징은 신호의 스트레스(Stress)를 대표하며, 이는 동작의 역동성(Dynamic)을 나타낸다. 즉, 가속도 데이터로부터 계산된 에너지 특징은 모바일 단말의 역동성을 나타내며, 이를 통해 모바일 단말이 움직인 정도를 추정할 수 있다. 따라서, 모바일 단말의 움직인 정도를 통해 모바일 단말을 소지한 사용자의 신체 활동을 분류할 수 있다. 사용자의 신체 활동은 크게 걷기, 뛰기, 자전거 타기, 하이킹, 호핑 및 휴식으로 분류할 수 있다.
이에 따라, 본 발명에서는 가속도 데이터 전체 대신에 특징 데이터만을 유지함으로써, 저장 비용을 줄일 수 있다. 또한, 모바일 단말의 소지 위치에 따라 분류된 특징 데이터를 대응하는 분류 모듈에서 수신하여 사용자의 신체 활동을 분류하기 때문에, 불필요한 연산량을 줄일 수 있으며, 보다 빠르게 응답할 수 있다.
특징 데이터가 소지 위치 및 신체 활동에 따라 분류되면, 분류된 특징 데이터에 활동 라벨을 배치한다(305). 예를 들어, 수신된 분류된 특징 데이터가 모바일 단말을 손에 파지한 경우 달리는 신체 활동으로 분류된 경우, '손에 파지시 달리기'라는 활동 라벨을 부여할 수 있다. 부여된 활동 라벨을 통해 각각의 특징 데이터의 분류 상태를 손쉽게 파악할 수 있다.
상술한 내용을 포함하는 본 발명은 컴퓨터 프로그램으로 작성이 가능하며, 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체 또는 정보저장매체에 저장되고, 컴퓨터에 의하여 판독되고 실행함으로써 본 발명의 방법을 구현할 수 있다.. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상 바람직한 실시예를 들어 본 발명을 상세하게 설명하였으나, 본 발명은 전술한 실시예에 한정되지 않고, 본 발명의 기술적 사상의 범위 내에서 당분야에서 통상의 지식을 가진자에 의하여 여러 가지 변형이 가능하다.
100: 모바일 단말을 이용한 활동 인식 장치
110: 데이터 습득부
120: 특징 추출부
130: 활동 인식부
131: 중심 노드
132: 활동 학습부
1321: 제1 분석 모듈
1322: 제2 분석 모듈
1323: 제3 분석 모듈
133: 인식부
110: 데이터 습득부
120: 특징 추출부
130: 활동 인식부
131: 중심 노드
132: 활동 학습부
1321: 제1 분석 모듈
1322: 제2 분석 모듈
1323: 제3 분석 모듈
133: 인식부
Claims (10)
- 모바일 단말에 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 모바일 단말을 이용한 활동 인식 장치에 있어서,
상기 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 데이터 습득부;
상기 수집된 센서 데이터에 포함된 가속도 데이터에서 특징 데이터를 추출하는 특징 추출부;
상기 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 상기 모바일 단말의 소지 위치를 판별하는 중심 노드;
상기 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 활동 학습부; 및
상기 분류된 특징 데이터에 활동 라벨을 배치하는 인식부;
를 포함하며,
상기 활동 학습부는,
상기 모바일 단말의 소지 위치가 상기 사용자의 손인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제1 분류 모듈;
상기 모바일 단말의 소지 위치가 상기 사용자의 주머니인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제2 분류 모듈; 및
상기 모바일 단말의 소지 위치가 상기 사용자의 손 또는 상기 사용자의 주머니가 아닌 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 제3 분류 모듈;
을 포함하는 것을 특징으로 하는 모바일 단말을 이용한 활동 인식 장치. - 삭제
- 제 1항에 있어서,
상기 수집된 센서 데이터는 가속도 데이터, 근접 센서 데이터 및 주변광 데이터를 포함하는 것을 특징으로 하는 모바일 단말을 이용한 활동 인식 장치. - 모바일 단말에 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 모바일 단말을 이용한 활동 인식 방법에 있어서,
상기 구비된 센서 장치를 이용하여 센서 데이터를 수집하는 단계;
상기 수집된 센서 데이터에 포함된 가속도 데이터에서 특징 데이터를 추출하는 단계;
상기 수집된 센서 데이터에 포함된 주변광 데이터 및 근접 센서 데이터를 통해 상기 모바일 단말의 소지 위치를 판별하는 단계;
상기 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 단계; 및
상기 분류된 특징 데이터에 활동 라벨을 배치하는 단계;
를 포함하며,
상기 모바일 단말의 소지 위치 판별 결과에 따라 분류된 특징 데이터를 분석하여 사용자의 신체 활동의 종류에 따라 분류하는 단계는,
상기 모바일 단말의 소지 위치가 상기 사용자의 손인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계;
상기 모바일 단말의 소지 위치가 상기 사용자의 주머니인 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계; 및
상기 모바일 단말의 소지 위치가 상기 사용자의 손 또는 상기 사용자의 주머니가 아닌 것으로 판별된 특징 데이터를 분석하여 신체 활동의 종류에 따라 분류하는 단계;
를 포함하는 것을 특징으로 하는 모바일 단말을 이용한 활동 인식 방법. - 삭제
- 제 6항에 있어서,
상기 수집된 센서 데이터는 가속도 데이터, 근접 센서 데이터 및 주변광 데이터를 포함하는 것을 특징으로 하는 모바일 단말을 이용한 활동 인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130124837A KR101500662B1 (ko) | 2013-10-18 | 2013-10-18 | 모바일 단말을 이용한 활동 인식 장치 및 인식 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130124837A KR101500662B1 (ko) | 2013-10-18 | 2013-10-18 | 모바일 단말을 이용한 활동 인식 장치 및 인식 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101500662B1 true KR101500662B1 (ko) | 2015-03-09 |
Family
ID=53026962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130124837A KR101500662B1 (ko) | 2013-10-18 | 2013-10-18 | 모바일 단말을 이용한 활동 인식 장치 및 인식 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101500662B1 (ko) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101854332B1 (ko) * | 2016-06-29 | 2018-05-03 | 국민대학교 산학협력단 | 사용자 활동종류를 분류하는 방법, 이를 이용하는 단말 장치 및 시스템 |
GB2581014A (en) * | 2018-12-21 | 2020-08-05 | Amer Sports Digital Services Oy | Sensor data management |
US11137820B2 (en) | 2015-12-01 | 2021-10-05 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11145272B2 (en) | 2016-10-17 | 2021-10-12 | Amer Sports Digital Services Oy | Embedded computing device |
US11144107B2 (en) | 2015-12-01 | 2021-10-12 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11210299B2 (en) | 2015-12-01 | 2021-12-28 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11215457B2 (en) | 2015-12-01 | 2022-01-04 | Amer Sports Digital Services Oy | Thematic map based route optimization |
US11284807B2 (en) | 2015-12-21 | 2022-03-29 | Amer Sports Digital Services Oy | Engaging exercising devices with a mobile device |
US11541280B2 (en) | 2015-12-21 | 2023-01-03 | Suunto Oy | Apparatus and exercising device |
US11587484B2 (en) | 2015-12-21 | 2023-02-21 | Suunto Oy | Method for controlling a display |
US11607144B2 (en) | 2015-12-21 | 2023-03-21 | Suunto Oy | Sensor based context management |
US11703938B2 (en) | 2016-10-17 | 2023-07-18 | Suunto Oy | Embedded computing device |
US11838990B2 (en) | 2015-12-21 | 2023-12-05 | Suunto Oy | Communicating sensor data in wireless communication systems |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120043845A (ko) * | 2010-10-27 | 2012-05-07 | 삼성에스디에스 주식회사 | 사용자 장치 및 그의 사용자의 상황 인지 방법 |
-
2013
- 2013-10-18 KR KR20130124837A patent/KR101500662B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120043845A (ko) * | 2010-10-27 | 2012-05-07 | 삼성에스디에스 주식회사 | 사용자 장치 및 그의 사용자의 상황 인지 방법 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210299B2 (en) | 2015-12-01 | 2021-12-28 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11137820B2 (en) | 2015-12-01 | 2021-10-05 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11144107B2 (en) | 2015-12-01 | 2021-10-12 | Amer Sports Digital Services Oy | Apparatus and method for presenting thematic maps |
US11215457B2 (en) | 2015-12-01 | 2022-01-04 | Amer Sports Digital Services Oy | Thematic map based route optimization |
US11541280B2 (en) | 2015-12-21 | 2023-01-03 | Suunto Oy | Apparatus and exercising device |
US11838990B2 (en) | 2015-12-21 | 2023-12-05 | Suunto Oy | Communicating sensor data in wireless communication systems |
US11607144B2 (en) | 2015-12-21 | 2023-03-21 | Suunto Oy | Sensor based context management |
US11284807B2 (en) | 2015-12-21 | 2022-03-29 | Amer Sports Digital Services Oy | Engaging exercising devices with a mobile device |
US11587484B2 (en) | 2015-12-21 | 2023-02-21 | Suunto Oy | Method for controlling a display |
KR101854332B1 (ko) * | 2016-06-29 | 2018-05-03 | 국민대학교 산학협력단 | 사용자 활동종류를 분류하는 방법, 이를 이용하는 단말 장치 및 시스템 |
US11145272B2 (en) | 2016-10-17 | 2021-10-12 | Amer Sports Digital Services Oy | Embedded computing device |
US11703938B2 (en) | 2016-10-17 | 2023-07-18 | Suunto Oy | Embedded computing device |
GB2581014A (en) * | 2018-12-21 | 2020-08-05 | Amer Sports Digital Services Oy | Sensor data management |
GB2581014B (en) * | 2018-12-21 | 2021-09-22 | Amer Sports Digital Services Oy | Sensor data management |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101500662B1 (ko) | 모바일 단말을 이용한 활동 인식 장치 및 인식 방법 | |
Allouch et al. | Roadsense: Smartphone application to estimate road conditions using accelerometer and gyroscope | |
JP4992043B2 (ja) | 行動識別装置、行動識別システムおよび行動識別方法 | |
Bedogni et al. | By train or by car? Detecting the user's motion type through smartphone sensors data | |
Figo et al. | Preprocessing techniques for context recognition from accelerometer data | |
US9891701B2 (en) | Apparatus, system, and method for automatic identification of sensor placement | |
Uddin et al. | Random forests based recognition of human activities and postural transitions on smartphone | |
Yao et al. | Rf-care: Device-free posture recognition for elderly people using a passive rfid tag array | |
Field et al. | Recognizing human motions through mixture modeling of inertial data | |
San Buenaventura et al. | Basic human activity recognition based on sensor fusion in smartphones | |
Malshika Welhenge et al. | Human activity classification using long short-term memory network | |
Soni et al. | An approach to enhance fall detection using machine learning classifier | |
RoyChowdhury et al. | Detailed activity recognition with smartphones | |
Bashir et al. | The effect of window length on accuracy of smartphone-based activity recognition. | |
Samiei-Zonouz et al. | Smartphone-centric human posture monitoring system | |
Akhavian et al. | Construction activity recognition for simulation input modeling using machine learning classifiers | |
Harasimowicz et al. | Accelerometer-based human activity recognition and the impact of the sample size | |
Sun et al. | Actdetector: Detecting daily activities using smartwatches | |
Lattanzi et al. | Energy-aware Tiny Machine Learning for Sensor-based Hand-washing Recognition | |
Diep et al. | An orientation histogram based approach for fall detection using wearable sensors | |
Zhang et al. | Low-power listen based driver drowsiness detection system using smartwatch | |
Abd Aziz et al. | Wearable Device-based Fall Detection System for Elderly Care Using Support Vector Machine (SVM) classifier | |
Khan et al. | A Machine Learning Approach to Human Activity Recognition | |
Garcia et al. | A preliminary study on hyperparameter configuration for human activity recognition | |
de la Cal et al. | A simple classification ensemble for adl and falls |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180108 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20200302 Year of fee payment: 6 |