KR101644417B1 - Device and method for estimating user activity - Google Patents

Device and method for estimating user activity Download PDF

Info

Publication number
KR101644417B1
KR101644417B1 KR1020150015045A KR20150015045A KR101644417B1 KR 101644417 B1 KR101644417 B1 KR 101644417B1 KR 1020150015045 A KR1020150015045 A KR 1020150015045A KR 20150015045 A KR20150015045 A KR 20150015045A KR 101644417 B1 KR101644417 B1 KR 101644417B1
Authority
KR
South Korea
Prior art keywords
user activity
motion
motion sensor
sensor data
estimating
Prior art date
Application number
KR1020150015045A
Other languages
Korean (ko)
Inventor
이택진
김재헌
김철기
서민아
이석
김선호
우덕하
신범주
전영민
이관희
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020150015045A priority Critical patent/KR101644417B1/en
Priority to PCT/KR2016/000294 priority patent/WO2016122141A1/en
Application granted granted Critical
Publication of KR101644417B1 publication Critical patent/KR101644417B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • H04L67/22
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Environmental & Geological Engineering (AREA)

Abstract

An objective of the present invention is to provide a device and a method for estimating a user activity, which use motion sensor data acquired from a wearable device to automatically estimate a user activity and provide information about the estimated user activity. According to an embodiment of the present invention, the method for estimating a user activity comprises: a step of acquiring motion sensor data from a motion sensor of a wearable device during a prescribed period of time; a step of decomposing the motion sensor data into one or more time intervals to generate a plurality of decomposed motion sensor data; a step of extracting motion features for the decomposed motion sensor data; a step of classifying the motion features based on a predetermined classification algorithm and determining user activities corresponding to the motion features based on classification results; and a step of estimating a final user activity based on the determined user activities.

Description

사용자 활동을 추정하는 장치 및 방법{DEVICE AND METHOD FOR ESTIMATING USER ACTIVITY}[0001] DEVICE AND METHOD FOR ESTIMATING USER ACTIVITY [0002]

본 명세서는 사용자 활동을 추정하는 장치 및 방법에 관한 것으로, 보다 상세하게는 웨어러블 장치로부터 획득된 모션 센서 데이터에 대한 특징을 추출하고 분류함으로써 사용자 활동을 추정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating user activity, and more particularly, to an apparatus and method for estimating user activity by extracting and classifying characteristics of motion sensor data obtained from a wearable apparatus.

최근 소형화 기술의 발전에 따라, 신체에 착용 가능한 다양한 형태의 웨어러블 장치가 나오고 있다. 또한, 이러한 웨어러블 장치로부터 획득한 사용자의 움직임에 대한 센싱 데이터에 기초하여 사용자가 소모한 칼로리, 이동 거리 등에 대한 정보를 사용자에게 제공하는 활동 트래커(activity tracker)들도 다양하게 나오고 있다. 2. Description of the Related Art [0002] With the development of miniaturization technology in recent years, various wearable devices that can be worn on the body have come out. In addition, there are various activity trackers that provide users with information on the calories consumed by the wearer, movement distance, etc. based on the sensing data of the user's movement acquired from the wearable device.

그런데, 종래의 활동 트래커들은 사용자가 직접 자신이 수행 중인 활동을 입력한 경우에만 사용자의 활동에 정보(소모 칼로리, 운동량, 이동 거리 등)들을 제공한다. 이 경우, 사용자는 각 활동을 수행할 때마다 해당 활동이 어떤 활동인지 장치에 매번 수동적으로 입력해야 하는 불편함을 갖는다.  However, conventional activity trackers provide information (consuming calories, momentum, moving distance, and the like) to the user's activities only when the user directly inputs the activities he / she is performing. In this case, each time the user performs each activity, the user is inconvenienced to manually input the activity into the device every time.

등록특허공보 제10-1293575호Patent Registration No. 10-1293575

이에, 본 명세서는, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 사용자의 활동을 자동으로 추정하고, 추정된 사용자의 활동에 대한 정보를 제공하는 사용자 추정 장치 및 방법을 제공하고자 한다. Accordingly, the present invention provides a user estimating apparatus and method for automatically estimating a user's activity by using motion sensor data obtained from a wearable device, and providing information on an estimated user's activity.

본 명세서의 일 실시예에 따른 사용자 활동 추정 장치는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 모션센서 데이터 획득부; 상기 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성하는 분해 모션센서 데이터 생성부; 상기 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출하는 모션 특징 추출부; 미리 결정된 분류 알고리즘에 기초하여 상기 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 상기 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 모션 특징 분류부; 및 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정하는 사용자 활동 추정부를 포함할 수 있다.A user activity estimation apparatus according to an embodiment of the present invention includes a motion sensor data acquisition unit for acquiring motion sensor data for a predetermined period from a motion sensor of a wearable device; An decomposed motion sensor data generation unit for generating a plurality of decomposed motion sensor data by decomposing the motion sensor data into one or more time intervals; A motion feature extraction unit for extracting motion characteristics for each of the plurality of decomposition motion sensor data; A motion feature classifier for classifying each of the motion features based on a predetermined classification algorithm and determining a user activity corresponding to each of the motion features based on the classification result; And a user activity estimator for estimating end user activity based on the determined user activities.

본 명세서의 일 실시예에 따른 사용자 활동 추정 방법은 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 단계; 상기 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성하는 단계; 상기 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출하는 단계; 미리 결정된 분류 알고리즘에 기초하여 상기 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 상기 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 단계; 및 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of estimating user activity, comprising: obtaining motion sensor data for a predetermined period of time from a motion sensor of a wearable device; Generating a plurality of decomposition motion sensor data by decomposing the motion sensor data into one or more time intervals; Extracting motion characteristics for each of said plurality of decomposition motion sensor data; Classifying each of the motion features based on a predetermined classification algorithm and determining a user activity corresponding to each of the motion features based on the classification result; And estimating end user activity based on the determined user activities.

본 명세서에 따르면, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 사용자의 활동을 자동으로 추정함으로써 보다 편리한 활동 트래킹에 대한 사용자 경험을 사용자에게 제공할 수 있다. According to the present invention, by automatically estimating a user's activity using motion sensor data obtained from a wearable device, a user experience for more convenient activity tracking can be provided to a user.

또한, 획득된 모션 센서 데이터를 분해하고, 분해된 모션센서 데이터를 이용하여 사용자 활동을 추정함으로써 전체 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다.In addition, the accuracy of the user activity estimation can be enhanced by decomposing the acquired motion sensor data and estimating the user activity using the disassembled motion sensor data, as compared with a method of estimating the user activity using the entire motion sensor data.

또한, 획득된 모션센서 데이터를 둘 이상의 시간 간격으로 분해하고, 두 종류의 분해된 모션센서 데이터를 이용하여 사용자 활동을 추정함으로써, 사용자 활동 추정의 정확도를 더 높일 수 있다. In addition, the obtained motion sensor data can be decomposed into two or more time intervals, and the user activity estimation using the two kinds of disassembled motion sensor data can further improve the accuracy of the user activity estimation.

또한, 별도의 검증 방법을 이용하여 이미 추정된 사용자 활동을 다시 한번 더 검증함으로써 사용자 활동 추정의 정확도를 높일 수 있다.In addition, the accuracy of the user activity estimation can be improved by verifying the already estimated user activity again using a separate verification method.

또한, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 추정된 사용자 활동에 대한 정보와 사용자로부터 직접 입력된 사용자 활동에 대한 정보를 함께 이용할 수도 있어, 사용자 활동을 추정함으로써 사용자 활동 추정의 정확도를 높일 수 있다.In addition, the information on the estimated user activity using the motion sensor data acquired from the wearable device and the information on the user activity directly input from the user can be used together, so that the accuracy of the user activity estimation can be improved by estimating the user activity have.

도 1은 일 실시 예에 따른, 사용자 활동 추정 장치의 개념도이다.
도 2은 일 실시 예에 따른, 사용자 활동 추정 장치의 구성도이다.
도 3은 일 실시 예에 따른, 사용자 활동 추정 장치를 이용하여 사용자 활동을 추정하는 과정의 데이터 흐름도이다.
도 4는 추출된 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 예시적인 방법을 나타낸다.
도 5는 일 실시예에 따른, 본 장치를 이용한 사용자 활동 추정의 실험 결과를 나타내는 도면이다.
도 6은 일 실시예에 따른, 사용자 활동 추정 방법의 순서도이다.
도 7은 다른 실시예에 따른, 사용자 활동 추정 방법의 순서도이다.
1 is a conceptual diagram of a user activity estimation apparatus according to an embodiment.
2 is a configuration diagram of a user activity estimation apparatus according to an embodiment.
3 is a data flow diagram of a process for estimating user activity using a user activity estimation apparatus, according to an embodiment.
4 illustrates an exemplary method of classifying each of the extracted motion features and determining user activity corresponding to each of the motion features based on the classification results.
5 is a diagram illustrating experimental results of user activity estimation using the apparatus, according to an embodiment.
6 is a flowchart of a method of estimating user activity, according to one embodiment.
7 is a flowchart of a method of estimating a user activity according to another embodiment.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings and the accompanying drawings, but the scope of the claims is not limited or limited by the embodiments.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
As used herein, terms used in the present specification are selected from the general terms that are currently widely used, while taking into consideration the functions, but these may vary depending on the intention or custom of the artisan or the emergence of new techniques. Also, in certain cases, there may be a term selected by the applicant at will, in which case the meaning will be described in the description part of the corresponding specification. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification.

도 1은 일 실시 예에 따른, 사용자 활동 추정 장치와 웨어러블 장치를 나타내는 개략도이다. 1 is a schematic diagram illustrating a user activity estimation device and a wearable device, according to one embodiment.

본 명세서에서, 사용자 활동 추정 장치(100)(이하 “추정 장치(100)”라고도 함)는 사용자의 모션을 센싱한 센서 데이터를 이용하여 사용자의 모션에 대응하는 사용자 활동을 추정하는 장치를 말한다. 예를 들면, 사용자 활동 추정 장치(100)는 웨어러블 장치(10)에 장착된 모션 센서로부터 사용자의 모션을 센싱한 센싱 데이터를 획득하고, 이를 이용하여 사용자의 모션에 대응하는 사용자 활동을 추정하는 전자 장치를 말한다. In the present specification, the user activity estimation apparatus 100 (hereinafter also referred to as " estimation apparatus 100 ") refers to a device that estimates user activity corresponding to a user's motion using sensor data that senses the motion of the user. For example, the user activity estimation apparatus 100 acquires sensing data obtained by sensing a motion of a user from a motion sensor mounted on the wearable device 10, and uses the acquired sensing data to estimate the user activity corresponding to the user's motion Device.

일 실시예에서, 사용자 활동 추정 장치(100)는 웨어러블 장치(10), 모바일 장치(20)(예컨대, 스마트 폰) 또는 임의의 다른 장치(예컨대, 서버) 내에 배치될 수 있다. 사용자 활동 추정 장치(100)가 모바일 장치(20)에 배치된 경우, 사용자 활동 추정 장치(100)는 모바일 장치(20)를 통해 웨어러블 장치(10)와 유선/무선 통신을 수행할 수 있다. 이를 통해, 사용자 활동 추정 장치(100)는 웨어러블 장치(10)로부터 모션 센서 데이터를 획득할 수 있다.In one embodiment, user activity estimation device 100 may be located within wearable device 10, mobile device 20 (e.g., smart phone) or any other device (e.g., server). When the user activity estimation apparatus 100 is disposed in the mobile apparatus 20, the user activity estimation apparatus 100 can perform wired / wireless communication with the wearable apparatus 10 via the mobile apparatus 20. In this way, the user activity estimation apparatus 100 can acquire motion sensor data from the wearable device 10.

본 명세서에서, 웨어러블 장치(10)는 사용자의 신체 일부에 착용되는 전자 장치를 말한다. 예를 들면, 웨어러블 장치(10)는 사용자의 손목에 착용되는 스마트 워치 또는 스마트 밴드일 수 있다. 본 명세서에서, 웨어러블 장치(10)는 사용자의 모션을 센싱하는 모션 센서(예컨대, 가속도 센서 또는 임의의 유형의 모션 센서)를 포함할 수 있다. In this specification, the wearable device 10 refers to an electronic device worn on a part of the user's body. For example, the wearable device 10 may be a smart watch or a smart band worn on the wearer's wrist. In this specification, the wearable device 10 may include a motion sensor (e.g., an acceleration sensor or any type of motion sensor) that senses the motion of the user.

이하에서는 모션 센서 데이터를 가속도 데이터라고 가정하여 다양한 실시 예들을 설명하지만, 가속도 데이터가 아닌 다른 모션센서 데이터를 이용하여 본 명세서의 실시 예들을 설명할 수 있음은 당업자에게 자명하다.
It will be apparent to those skilled in the art that various embodiments are described hereinbelow assuming that motion sensor data is acceleration data, but embodiments of the present disclosure can be described using motion sensor data other than acceleration data.

도 2는 일 실시 예에 따른, 사용자 활동 추정 장치의 구성도이다. 또한, 도 3은 일 실시 예에 따른, 사용자 활동 추정 장치를 이용하여 사용자 활동을 추정하는 과정의 데이터 흐름도이다. 2 is a configuration diagram of a user activity estimation apparatus according to an embodiment. 3 is a data flow diagram of a process of estimating user activity using a user activity estimation apparatus according to an embodiment.

도 2를 참조하면, 추정 장치(100)는 모션센서 데이터 획득부(“획득부”)(110), 분해 모션센서 데이터 생성부(“생성부”)(120), 모션 특징 추출부(“추출부”)(130), 모션 특징 분류부(“분류부”)(140) 및 사용자 활동 추정부(“추정부”)(150)를 포함할 수 있다. 또한, 추정 장치(100)는 사용자 활동 검증부(“검증부”)(160) 및 입력부(170)를 더 포함할 수 있다. 여기서, 검증부(160) 및 입력부(170)는 옵셔널한 구성일 수 있다. Referring to FIG. 2, the estimation apparatus 100 includes a motion sensor data acquisition unit 110, an decomposition motion sensor data generation unit 120, a motion feature extraction unit Quot;) 130, a motion feature classifier (" classifier ") 140, and a user activity estimator (" The estimating apparatus 100 may further include a user activity verifying unit (" verifying unit ") 160 and an input unit 170. [ Here, the verification unit 160 and the input unit 170 may have an optional configuration.

획득부(110)는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득할 수 있다. 도 3의 310에 도시된 것처럼, 일 실시예에서, 획득부(110)는 웨어러블 장치의 모션 센서로부터 10분 동안의 모션센서 데이터를 획득할 수 있다. 일 실시예에서, 추정 장치(100)가 모바일 장치에 배치된 경우, 획득부(110)는 웨어러블 장치와의 유/무선 통신을 통해 모션센서 데이터에 대한 데이터를 수신함으로써 모션센서 데이터를 획득할 수 있다. The acquiring unit 110 may acquire motion sensor data for a preset period of time from the motion sensor of the wearable device. As shown in 310 of FIG. 3, in one embodiment, the acquiring unit 110 may acquire motion sensor data for 10 minutes from the motion sensor of the wearable device. In one embodiment, when the estimating apparatus 100 is disposed in a mobile device, the acquiring unit 110 can acquire motion sensor data by receiving data on motion sensor data through wired / wireless communication with the wearable apparatus have.

생성부(120)는 획득된 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성할 수 있다. 도 3의 320에 도시된 것처럼, 일 실시예에서, 생성부(120)는 획득된 10분 동안의 모션센서 데이터를 제1 시간 간격(예컨대, 1분 간격)으로 분해함으로써, n개(예컨대, 10개)의 분해 모션센서 데이터를 생성할 수 있다. 사용자가 특정 활동을 수행할 때 일정한 기간 동안 일관되게 그 활동을 수행하는 것이 아니기 때문에, 이러한 모션센서 데이터를 분해함으로써 총 n개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식은 전체 모션센서 데이터 1개를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다. The generating unit 120 may generate a plurality of decomposed motion sensor data by decomposing the acquired motion sensor data into one or more time intervals. As shown in 320 of FIG. 3, in one embodiment, generator 120 decomposes motion sensor data for the acquired 10 minutes into a first time interval (e.g., every minute) 10) decomposition motion sensor data can be generated. Since the user does not consistently perform the activity for a certain period of time when performing a specific activity, a method of estimating user activity using the total of n pieces of disaggregated motion sensor data by decomposing the motion sensor data includes It is possible to improve the accuracy of the user activity estimation compared with the method of estimating the user activity using one.

다른 실시예에서, 생성부(120)는 획득된 10분 동안의 모션센서 데이터를 제2 시간 간격(예컨대, 5분 간격)으로 더 분해함으로써, m개(예컨대, 2개)의 분해 모션센서 데이터를 더 생성할 수 있다. 이 경우, 제2 시간 간격은 제1 시간 간격과 상이한 시간 간격일 수 있다. 예를 들면, 제2 시간 간격은 제1 시간 간격 보다 긴 시간 간격일 수 있다. 이러한 모션센서 데이터를 둘 이상의 시간 간격으로 분해함으로써 총 n+m개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식은 모션센서 데이터를 하나의 시간 간격으로 분해함으로써 총 n개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다. In another embodiment, the generator 120 may further decompose the acquired motion sensor data for 10 minutes into a second time interval (e.g., every 5 minutes) to generate m (e.g., two) Lt; / RTI > In this case, the second time interval may be a time interval different from the first time interval. For example, the second time interval may be a time interval longer than the first time interval. The method of estimating the user activity using the total of n + m pieces of decomposition motion sensor data by decomposing the motion sensor data into two or more time intervals divides the motion sensor data into one time interval, It is possible to increase the accuracy of user activity estimation as compared with a method of estimating user activity by using

추출부(130)는 생성된 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출할 수 있다. 도 3의 330에 도시된 것처럼, 일 실시예에서, 추출부(130)는 n개(예컨대, 10개)의 분해 모션센서 데이터의 각각에 대한 n개(예컨대, 10개)의 모션 특징(예컨대, 제1 모션 특징 내지 제10 모션 특징)을 추출할 수 있다. 다른 실시예에서, 추출부(130)는 생성된 n+m개(예컨대, 12개)의 분해 모션센서 데이터의 각각에 대한 n+m개의 모션 특징을 추출할 수 있다. 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. The extraction unit 130 may extract motion characteristics for each of the generated decomposition motion sensor data. As shown in Figure 3, 330, in one embodiment, the extractor 130 may include n (e.g., 10) motion features (e.g., 10) for each of the n , First motion feature to tenth motion feature) can be extracted. In another embodiment, the extractor 130 may extract n + m motion features for each of the generated n + m (e.g., twelve) decomposition motion sensor data. In this case, each motion feature may include one or more features (feature values).

아래 표 1은 가속도 센서 데이터로부터 추출된 하나의 모션 특징에 포함될 수 있는 예시적인 특징(특징 값)들을 나타내는 표이다. Table 1 below is a table showing exemplary features (feature values) that can be included in one motion feature extracted from the acceleration sensor data.

특징 번호Feature number 특징Characteristic 특징 설명Feature Description 1One v(a)k v (a) k 단위 시간 당 가속도 놈의 분산(Variance of Acc. Norm / unit time)Variance of acceleration per unit time (Norm / unit time) 22 m(a)k m (a) k 단위 시간 당 가속도 놈의 평균(Mean of Acc. Norm / unit time)Mean of acceleration per unit time (Norm / unit time) 33 v(a_x)k v (a_x) k 단위 시간 당 x축 방향의 가속도의 분산(Variance of acc. in x-axis / unit time)Variance of acceleration in x-axis direction per unit time (Variance of acc. In x-axis / unit time) 44 v(a_y)k v (a_y) k 단위 시간 당 y축 방향의 가속도의 분산(Variance of acc. in y-axis / unit time)Variance of acceleration in y-axis direction per unit time (Variance of acc. In y-axis / unit time) 55 v(a_z)k v (a_z) k 단위 시간 당 z축 방향의 가속도의 분산(Variance of acc. in z-axis / unit time)Variance of acceleration in the z-axis direction per unit time (Variance of acc. In z-axis / unit time) 66 m(a_x)k m (a_x) k 단위 시간 당 x축 방향의 가속도의 평균(Mean of acc. in x-axis / unit time)The average of the acceleration in the x-axis direction per unit time (Mean of acc. In x-axis / unit time) 77 m(a_y)k m (a_y) k 단위 시간 당 y축 방향의 가속도의 평균(Mean of acc. in y-axis / unit time)The mean of the acceleration in the y-axis direction per unit time (Mean of acc. In y-axis / unit time) 88 m(a_z)k m (a_z) k 단위 시간 당 z축 방향의 가속도의 평균(Mean of acc. in z-axis / unit time)The mean of the acceleration in the z-axis direction per unit time (Mean of acc. In z-axis / unit time) 99 n(s)k n (s) k 스텝 모션의 수(Number of step motion)Number of step motion 1010 n(sw)k n (sw) k 스윙 모션의 수(Number of swing motion)Number of swing motion

또한, 위 표에 개시되어 있지 않지만, 각 특징 값들의 차와 비율들을 특징 값으로 더 포함할 수 있다. 예를 들면, 분산 차(예컨대, 특징 3과 특징 4의 분산 차인 v(a_x)k- v(a_y)k등)를 특징 값으로 더 포함할 수 있고, 평균 차(예컨대, 특징 6과 특징 7의 평균 차인 m(a_x)k - m(a_y)k 등)를 특징 값으로 더 포함할 수 있고, 모션 비율(예컨대, 특징 9와 특징 10의 모션 비율인 m_rk = (n(s)k - n(sw)k)/n(sw)k )을 특징 값으로 더 포함할 수 있다. 즉, 위 표에 개시된 특징 값들은 예시적인 특징 값들로, 본 명세서의 실시 예들은 이러한 예시에 의해 제한되지 않고, 다양한 종류의 특징 값을 더 포함하거나 위에 개시된 일부 특징 값을 생략할 수 있다. In addition, although not shown in the table above, the feature values may further include differences and ratios of respective feature values. (E.g., v (a_x) k -v (a_y) k , which is a variance difference between the features 3 and 4) of a difference between the average m (a_x) k - m (a_y) k, etc.) may further include a characteristic value, the motion proportion (e.g., characterized by a ratio of 9 and a motion feature 10 m_r k k = n (s) k - n (sw) k ) / n (sw) k . That is, the feature values disclosed in the above table are exemplary feature values, and the embodiments of the present disclosure are not limited to these examples, and may further include various kinds of feature values or omit some feature values disclosed above.

분류부(140)는 추출된 모션 특징들의 각각을 미리 결정된 분류 알고리즘에 기초하여 분류하고, 분류 결과에 기초하여 모션 특징들의 각각에 대응하는 사용자 활동을 결정할 수 있다. 도 3의 340에 도시된 것처럼, 일 실시예에서, 분류부(140)는 추출된 n개(예컨대, 10개)의 모션 특징들을 각각 분류하여 대응하는 n개(예컨대, 10개)의 사용자 활동(예컨대, 제1 사용자 활동 내지 제10 사용자 활동)을 결정할 수 있다. 다른 실시예에서, 분류부(140)는 추출된 n+m개의 모션 특징들을 각각 분류하여 대응하는 n+m개의 사용자 활동을 결정할 수 있다. The classifier 140 may classify each of the extracted motion features based on a predetermined classification algorithm and determine a user activity corresponding to each of the motion features based on the classification result. As shown in 340 of FIG. 3, in one embodiment, the classifier 140 classifies each of the extracted n (e.g., 10) motion features into n corresponding (e.g., 10) (E. G., A first user activity to a tenth user activity). In another embodiment, the classifier 140 may classify each of the extracted n + m motion features to determine corresponding n + m user activities.

또한, 분류부(140)는 모션 특징들의 각각의 특징 값이 스레시홀드 값 이상인지 여부를 더 판단할 수 있다. 이때, 분류부(140)는 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여만 대응하는 사용자 활동을 결정하고, 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여는 사용자 활동을 결정하지 않을 수 있다. 이를 통해, 사용자가 특정 활동 도중에 잠깐씩 쉬는 경우, 해당 구간(예컨대, 도3의 320의 3번째 구간)에 대한 모션 특징(예컨대, 제3 모션 특징)을 제거하고 유용한 구간에 대한 모션 특징만을 이용하여 사용자 활동을 추정함으로써 추정의 정확도를 높일 수 있다.In addition, the classifier 140 may further determine whether each feature value of the motion characteristics is greater than or equal to a threshold value. At this time, the classifier 140 determines user activity corresponding only to the motion features whose feature values are equal to or greater than the threshold value, and does not determine user activity for the motion features whose feature values are equal to or greater than the threshold value have. Accordingly, if the user breaks briefly during a specific activity, the motion feature (e.g., the third motion feature) for the corresponding section (e.g., the third section 320 of FIG. 3) is removed and only the motion feature for the useful section is used So that the accuracy of the estimation can be increased.

추정부(150)는 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정할 수 있다. 도 3의 350에 도시된 것처럼, 추정부(150)는 결정된 n개(예컨대, 10개)의 사용자 활동 중 하나의 사용자 활동을 최종 사용자 활동으로서 추정할 수 있다. The estimator 150 may estimate the end user activity based on the determined user activities. As shown in 350 of FIG. 3, the estimator 150 may estimate one user activity of the determined n (e.g., 10) user activities as end user activity.

일 실시예에서, 추정부(150)는 결정된 사용자 활동들 중 가장 많은 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. 예를 들면, 결정된 사용자 활동들 중 가장 많은 수(예컨대, 10개 중 8개)를 갖는 사용자 활동이 자전거 타기인 경우, 추정부(150)는 자전거 타기를 최종 사용자 활동으로서 결정할 수 있다.In one embodiment, the estimator 150 can identify the user activity with the highest number of determined user activities and determine the identified user activity as the end user activity. For example, if the user activity with the largest number of determined user activities (e.g., eight out of ten) is a bike ride, the estimator 150 may determine the bike ride as an end user activity.

다른 실시예에서, 추정부(150)는 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 더 판단할 수 있다. 이때, 추정부(150)는 식별된 사용자 활동의 수가 스레시홀드 이상인 경우에만, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. 예를 들면, 결정된 사용자 활동들 중 가장 많은 수(예컨대, 10개 중 4개)를 갖는 사용자 활동이 자전거 타기로 식별되었으나, 해당 사용자 활동의 수가 스레시홀드(예컨대, 7개) 보다 작은 경우, 추정부(150)는 최종 사용자 활동의 추정을 보류하거나, 또는 최종 사용자 활동의 추정과 함께 추정된 사용자 활동에 대한 인식률(예컨대, 40(=4/10*100) %)을 사용자에게 제공할 수 있다. 이를 통해, 장치는 특정 사용자 활동을 최종 사용자 활동으로 추정하기 애매한 경우에 추정을 보류하거나, 또는 추정과 함께 인식률 정보를 제공함으로써 사용자가 추정의 정확도를 파악할 수 있게 해준다.In another embodiment, the estimator 150 may further determine whether the number of identified user activities is greater than or equal to a threshold. At this time, the estimator 150 can determine the identified user activity as the end user activity only when the number of identified user activities is equal to or greater than the threshold. For example, if a user activity with the largest number of determined user activities (e.g., 4 out of 10) is identified as a bike ride but the number of user activities is less than a threshold (e.g., 7) The estimator 150 may either suspend the estimation of the end user activity or provide the user with a recognition rate (e.g., 40 (= 4/10 * 100)%) for the estimated user activity along with an estimate of the end user activity have. This allows the user to grasp the accuracy of the estimate by either suspending the estimate in case of ambiguity in estimating a particular user activity as end user activity, or by providing recognition rate information along with the estimate.

또한, 추정부(150)는 추출된 모션 특징에 기초하여 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 결정할 수 있다. 여기서, 강도는 해당 활동의 강도 값으로서, 예를 들어, 해당 활동 시 소모되는 칼로리 값일 수 있다. 또한, 모션 횟수는 해당 활동에 대응하는 모션 행동의 횟수로서, 예를 들어, 걸음 수, 스윙 횟수, 줄넘기 횟수 등일 수 있다. 이를 통해, 장치는 추정된 사용자 활동의 종류만을 제공하는 것이 아니라, 추정된 사용자 활동의 강도 및 모션 횟수에 대한 정보를 함께 사용자에게 제공함으로써 보다 다양한 정보를 사용자에게 제공할 수 있다.In addition, the estimator 150 can further determine the intensity and the number of motions of the estimated end user activity based on the extracted motion characteristics. Here, the intensity may be a strength value of the activity, for example, a calorie value consumed in the activity. The number of motions may be the number of motion actions corresponding to the activity, for example, the number of steps, the number of swings, the number of times of rope skipping, and the like. In this way, the apparatus can provide the user with more information by not only providing the kind of the estimated user activity but also the information about the intensity of the estimated user activity and the number of motions together to the user.

검증부(160)는 미리 결정된 검증 알고리즘을 이용하여 추정된 최종 사용자 활동을 검증할 수 있다. 일 실시예에서, 검증부(160)는, 분할부로 하여금 최종 사용자 활동을 추정하기 위한 제1 시간 간격(예컨대, 1분 간격)과 상이한(예컨대, 더 짧은) 제2 시간 간격(예컨대, 30초 간격)으로 모션 센서 데이터를 더 분할하게 하고, 이에 기초하여 상술한 방식과 동일한 방식으로 최종 사용자 활동을 더 추정함으로써, 이미 추정된 사용자 활동을 검증할 수 있다. 다른 실시예에서, 검증부(160)는, 획득부(110)로 하여금 최종 사용자 활동을 추정하기 위한 제1 모션 센서(예컨대, 가속도 센서)와 상이한 제2 모션 센서(예컨대, 자이로 센서)로부터 제2 모션센서 데이터를 획득하게 하고, 획득된 제2 모션센서 데이터에 기초하여 이미 추정된 최종 사용자 활동을 검증할 수 있다. 이러한 검증방식을 이용하여 이미 추정된 사용자 활동을 다시 한번 더 검증함으로써 사용자 활동 추정의 정확도를 높일 수 있다.The verification unit 160 can verify the estimated end user activity using a predetermined verification algorithm. In one embodiment, the verifier 160 may cause the divider to generate a second time interval (e.g., 30 minutes) that is different (e.g., shorter) from the first time interval Second interval), and further estimating end user activity in the same manner as described above based thereon, to verify already estimated user activity. In another embodiment, the verification unit 160 may cause the acquisition unit 110 to acquire a motion vector from a second motion sensor (e.g., a gyro sensor) different from a first motion sensor (e.g., an acceleration sensor) 2 motion sensor data and verify the estimated end user activity based on the acquired second motion sensor data. By using this verification method, the estimated user activity can be verified again to improve the accuracy of the user activity estimation.

입력부(170)는 사용자로부터 수행 중인 사용자 활동에 대한 정보를 입력 받을 수 있다. 이 경우, 추정부(150)는 입력된 사용자 활동에 대한 정보 및 결정된 사용자 활동들에 대한 정보 기초하여, 최종 사용자 활동을 추정할 수 있다. 이를 통해, 사용자로부터 직접 입력된 사용자 활동에 대한 정보를 더 이용하여 사용자 활동을 추정함으로써 추정의 정확도를 높일 수 있다.The input unit 170 may receive information on user activities being performed by the user. In this case, the estimating unit 150 may estimate the end user activity based on information on the inputted user activity and information on the determined user activities. Accordingly, the accuracy of the estimation can be improved by estimating the user activity by further using the information on the user activity directly input from the user.

도 2는 본 명세서의 일 실시예에 따른 구성도로서, 분리하여 표시한 구성들은 장치의 구성들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 장치의 구성들은 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다.
FIG. 2 is a configuration diagram according to one embodiment of the present invention, and the configurations shown separately are logically distinguishable from those of the apparatus. Accordingly, the configurations of the above-described apparatus can be mounted as one chip or as a plurality of chips according to the design of the apparatus.

도 4는 추출된 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 예시적인 방법을 나타낸다. 추정 장치(100)는 분류부를 이용하여 미리 설정된 분류 알고리즘에 따라 제1 모션 특징을 분류하여 이에 대응하는 사용자 활동을 결정한다. 이후, 추정 장치(100)는 동일한 분류 알고리즘을 이용하여 제2 모션 특징을 분류하여 이에 대응하는 사용자 활동을 결정한다. 이러한 방식으로, 추정 장치(100)는 모든 모션 특징들에 대응하는 사용자 활동들을 결정할 수 있다. 4 illustrates an exemplary method of classifying each of the extracted motion features and determining user activity corresponding to each of the motion features based on the classification results. The estimating apparatus 100 classifies the first motion feature according to a predetermined classification algorithm using the classifier and determines a corresponding user activity. Thereafter, the estimating apparatus 100 classifies the second motion feature using the same classification algorithm and determines the corresponding user activity. In this way, the estimation apparatus 100 can determine user activities corresponding to all motion characteristics.

이하에서는, 도 4a 내지 4c를 참조하여, 하나의 모션 특징을 분류하여 대응하는 사용자 활동을 결정하는 과정에 대하여 상세히 설명하도록 한다. 상술한 바와 같이 모션 특징은 적어도 하나의 특징 값(특징)을 포함할 수 있다. 일 실시예에서, 추정 장치(100)는 미리 설정된 분류 기준에 따라 모션 특징에 포함된 특징 값들의 우선 순위를 정하고, 정해진 우선 순위에 따라 각 특징 값들과 각 특징 값들에 대한 스레시홀드 값들을 비교하는 방식으로, 모션 특징을 분류하여 대응하는 사용자 활동을 결정할 수 있다. 이에 대하여는 각 도면을 참조하여 이하에서 상세히 설명하도록 한다.Hereinafter, with reference to FIGS. 4A to 4C, a process of sorting one motion feature to determine a corresponding user activity will be described in detail. As described above, the motion feature may include at least one feature value (feature). In one embodiment, the estimating apparatus 100 prioritizes the feature values included in the motion feature according to a predetermined classification criterion, compares the feature values with the threshold values for each feature value according to a predetermined priority order , It is possible to classify the motion feature and determine the corresponding user activity. This will be described in detail below with reference to the respective drawings.

우선, 도 4a를 참조하면, 추정 장치(100)는 미리 결정된 분류 알고리즘에 따라 제1 특징(예컨대, v(a)k)이 제1 스레시홀드(ε1) 미만인지 여부를 판단(410)한다. 제1 특징이 제1 스레시홀드 미만인 경우, 추정 장치(100)는 제1-1 특징(예컨대, m(a_z)k)이 제1-1 스레시홀드(δ1) 미만인지 여부를 더 판단(420)한다. 제1-1 특징이 제1-1 스레시홀드 미만인 경우, 추정 장치(100)는 걷기(walking)를 상기 사용자 활동으로서 결정한다. 제1-1 특징이 제1-1 스레시홀드 이상인 경우, 추정 장치(100)는 제1-2 특징(예컨대, v(a_x)k- v(a_y)k )이 제1-2 스레시홀드(ζ1) 미만인지 여부를 더 판단(430)한다. 제1-2 특징이 제1-2 스레시홀드 미만인 경우, 추정 장치(100)는 정지(standing)를 상기 사용자 활동으로서 결정한다. 제1-2 특징이 제1-2 스레시홀드 이상인 경우, 자전거 타기(biking)을 상기 사용자 활동으로서 결정한다. First, referring to FIG. 4A, the estimation apparatus 100 determines (410) whether a first characteristic (e.g., v (a) k ) is less than a first threshold value? 1 according to a predetermined classification algorithm . When the first characteristic is less than the first threshold, the estimating apparatus 100 further judges whether the 1-1 feature (for example, m (a_z) k ) is less than the 1-1th threshold value delta 1 420). When the 1-1 feature is less than the 1-th threshold, the estimating device 100 determines walking as the user activity. If the 1-1 feature is equal to or greater than the 1- th threshold, the estimating apparatus 100 determines that the 1-2 feature (for example, v (a_x) k -v (a_y) k ) (step 430). When the first-second characteristic is less than the first-second threshold, the estimating device 100 determines the standing as the user activity. If the 1-2 feature is equal to or greater than the 1-2 th threshold, biking is determined as the user activity.

또한, 도 4b를 참조하면, 제1 특징(예컨대, v(a)k)이 제1 스레시홀드(ε1) 이상인 경우, 추정 장치(100)는 제1 특징(예컨대, v(a)k)이 제2 스레시홀드(ε2)인 미만인지 여부를 더 판단(440)한다. 제1 특징이 제2 스레시홀드(ε2)인 미만인 경우, 추정 장치(100)는 제2-1 특징(예컨대, g(b)k )이 제2-1 스레시홀드(G) 미만인지 여부를 더 판단(450)한다. 제2-1 특징이 제2-1 스레시홀드 이상인 경우, 추정 장치(100)는 등산하기(claiming)를 상기 사용자 활동으로서 결정한다. 제2-1 특징이 제2-1 스레시홀드 미만인 경우, 추정 장치(100)는 제 2-2 특징(예컨대, m(a_x)k - m(a_y)k)이 제 2-2 스레시홀드(ρ1) 미만인지 여부를 더 판단(460)한다. 제 2-2 특징이 제 2-2 스레시홀드 미만인 경우, 추정 장치(100)는 걷기를 상기 사용자 활동으로서 결정한다. 제 2-2 특징이 제 2-2 스레시홀드 이상인 경우, 추정 장치(100)는 자전거 타기를 상기 사용자 활동으로서 결정한다. Also, Referring to Figure 4b, a first characteristic (e.g., v (a) k) is first not less than a threshold (ε1), estimator 100, a first characteristic (e.g., v (a) k) is (440) whether the second threshold value? 2 is less than the second threshold value? 2. When the first characteristic is less than the second threshold? 2, the estimating apparatus 100 determines whether the second-1 characteristic (e.g., g (b) k ) is less than the second-first threshold G (450). When the 2-1 characteristic is equal to or greater than the 2-1 threshold, the estimating device 100 determines claiming as the user activity. When the second-1 characteristic is less than the second-first threshold, the estimating apparatus 100 determines that the second-2 characteristic (e.g., m (a_x) k -m (a_y) k ) (460) whether or not it is less than the threshold value (rho 1). When the feature 2-2 is less than the threshold 2-2, the estimating apparatus 100 determines walking as the user activity. When the second-2 feature is equal to or greater than the second-second threshold, the estimating apparatus 100 determines the cycling as the user activity.

또한, 도 4c를 참조하면, 제 1 특징(예컨대, v(a)k)이 제2 스레시홀드(ε2) 이상인 경우, 추정 장치(100)는 제3-1 특징(예컨대, m_rk)이 제3-1 스레시홀드(T_R) 미만인지 여부를 더 판단(470)한다. 제3-1 특징이 제3-1 스레시홀드 미만인 경우, 추정 장치(100)는 탁구 치기(table tennis)를 상기 사용자 활동으로서 결정한다. 제3-1 특징이 제3-1 스레시홀드 이상인 경우, 추정 장치(100)는 제3-2 특징(예컨대, v(a_x)k- v(a_y)k)이 제3-2 스레시홀드(ε3) 미만인지 여부를 더 판단(480)한다. 제3-2 특징이 제3-2 스레시홀드 미만인 경우, 추정 장치(100)는 줄넘기(jumping lope)를 상기 사용자 활동으로서 결정한다. 제3-2 특징이 제3-2 스레시홀드 이상인 경우, 추정 장치(100)는 달리기(running)를 상기 사용자 활동으로서 결정한다. 4C, when the first characteristic (e.g., v (a) k ) is equal to or greater than the second threshold? 2, the estimating apparatus 100 determines that the 3-1 characteristic (e.g., m_r k ) It is further judged (470) whether or not it is less than the 3-1th threshold (T_R). When the 3-1 characteristic is less than the 3-1 threshold, the estimating apparatus 100 determines a table tennis as the user activity. If the 3-1th characteristic is equal to or greater than the 3-1th threshold, the estimating apparatus 100 determines that the 3-2th characteristic (for example, v (a_x) k -v (a_y) k ) (480) whether it is less than the threshold value (? 3). When the feature 3-2 is less than the threshold 3-2, the estimating apparatus 100 determines a jumping lobe as the user activity. When the third-second characteristic is equal to or greater than the third-second threshold, the estimating apparatus 100 determines running as the user activity.

또한, 추정 장치(100)는 상술한 방법을 각 모션 특징들 모두에 적용하여 각 모션 특징에 대한 사용자 활동을 결정할 수 있다. 또한, 추정 장치(100)는 결정된 사용자 활동에 기초하여 최종 사용자 활동을 추정할 수 있다. 예를 들면, 모션 특징의 각각에 대한 사용자 활동들 중 등산 하기가 가장 많은 수의 사용자 활동인 경우, 추정 장치(100)는 등산 하기를 최종 사용자 활동으로 추정할 수 있다. In addition, the estimating device 100 can apply the above-described method to all of the motion characteristics to determine user activity for each motion feature. In addition, the estimating device 100 can estimate the end user activity based on the determined user activity. For example, if climbing among the user activities for each of the motion features is the largest number of user activities, the estimating apparatus 100 may estimate climbing as end user activity.

또한, 추정 장치(100)는 미리 결정된 검증 알고리즘을 이용하여 추정된 최종 사용자 활동을 검증할 수 있다. 예를 들면, 추정 장치(100)는 GPS 센서를 이용하여 GPS 센서 데이터를 더 획득하고, 획득된 GPS 센서에 기초하여 사용자의 위치를 산출하고, 사용자의 위치가 산인지 여부를 판단하여 최종 사용자 활동을 검증할 수 있다.
In addition, the estimation apparatus 100 can verify the estimated end user activity using a predetermined verification algorithm. For example, the estimating apparatus 100 may further acquire GPS sensor data using a GPS sensor, calculate the position of the user based on the obtained GPS sensor, determine whether the user's position is acid, Can be verified.

도 5는 일 실시예에 따른, 본 장치를 이용한 사용자 활동 추정의 실험 결과를 나타내는 도면이다. 보다 상세하게, 도 5a는 피실험자가 6개의 활동(정지, 걷기, 달리기, 자전거 타기, 줄넘기, 탁구 치기)를 순차적으로 수행한 경우에 웨어러블 장치로부터 획득된 모션센서 데이터를 이용하여 상술한 방법에 따라 최종 사용자 활동을 추정한 실험 결과를 나타내는 도면이고, 도 5b는 피실험자가 4개의 활동(걷기, 뛰기, 자전거 타기, 줄넘기)를 순차적으로 수행한 경우에 웨어러블 장치로부터 획득된 모션센서 데이터를 이용하여 상술한 방법에 따라 사용자 활동을 추정한 실험 결과를 나타내는 도면이다. 이때, 도 5a의 피실험자와 도 5b의 피실험자는 다른 피실험자이다. 5 is a diagram illustrating experimental results of user activity estimation using the apparatus, according to an embodiment. More specifically, FIG. 5A shows a case where the subject performs the six activities (stop, walk, run, bike ride, jump rope, and table tennis) in sequence and uses the motion sensor data acquired from the wearable device in accordance with the above- FIG. 5B is a view showing an experiment result of estimating end user activity, and FIG. 5B is a view showing an experiment result of using the motion sensor data obtained from the wearable device in the case where the subject performs four activities (walking, running, cycling, rope skipping) FIG. 5 is a diagram showing an experimental result of estimating user activity according to one method. FIG. At this time, the subject of FIG. 5A and the subject of FIG. 5B are different subjects.

도 5a 및 5b를 참조하면, 1분 단위의 각 모션 특징으로부터 추정된 사용자 활동들 중 일부는 피실험자의 움직임의 단기적인 변화(예컨대, 자전거 타다가 잠시 멈추기)로 인하여 다른 사용자 활동으로 인식되는 경우가 생겼으나, 10분 동안의 각 모션 특징들을 조합함으로써 추정된 최종 사용자 활동은, 동일한 피실험자인지 여부 또는 피실험자가 수행한 활동의 종류에 관계없이 정확하게 추정됨을 알 수 있다.
Referring to FIGS. 5A and 5B, some of the user activities estimated from each motion feature in units of one minute may be recognized as other user activities due to short-term changes in the subject's motion (e.g., bicycle ride pause) However, it can be seen that the estimated end-user activity by combining each motion feature for 10 minutes is accurately estimated regardless of whether it is the same subject or the type of activity performed by the subject.

도 6은 일 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 본 순서도에서는 도 1 내지 도 5의 설명과 중복되는 부분에 대한 설명은 생략하도록 한다. 6 is a flowchart of a method of estimating user activity, according to one embodiment. In the flowchart, the description of the parts overlapping with the description of FIG. 1 to FIG. 5 will be omitted.

도 6을 참조하면, 추정 장치(100)는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득할 수 있다(S10). 일 실시예에서, 추정 장치(100)가 모바일 장치에 배치된 경우, 획득부는 웨어러블 장치와의 유/무선 통신을 통해 모션센서 데이터에 대한 데이터를 수신함으로써 모션센서 데이터를 획득할 수 있다.Referring to FIG. 6, the estimation apparatus 100 may acquire motion sensor data for a predetermined period from the motion sensor of the wearable device (S10). In one embodiment, when the estimating apparatus 100 is disposed in a mobile device, the acquiring unit can acquire motion sensor data by receiving data on the motion sensor data through wired / wireless communication with the wearable apparatus.

추정 장치(100)는 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성할 수 있다(S20). 일 실시예에서, 생성부는 획득된 모션센서 데이터를 제1 시간 간격으로 분해함으로써, n개의 분해 모션센서 데이터를 생성할 수 있다. 다른 실시예에서, 생성부는 획득된 모션센서 데이터를 제2 시간 간격으로 더 분해함으로써, m개의 분해 모션센서 데이터를 더 생성할 수 있다.The estimating apparatus 100 can generate a plurality of decomposed motion sensor data by decomposing the motion sensor data into one or more time intervals (S20). In one embodiment, the generator may generate n decomposed motion sensor data by decomposing the acquired motion sensor data into a first time interval. In another embodiment, the generator may further generate m decomposed motion sensor data by further decomposing the obtained motion sensor data into a second time interval.

추정 장치(100)는 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출할 수 있다(S30). 일 실시예에서, 추출부는 n개의 분해 모션센서 데이터의 각각에 대한 n개의 모션 특징을 추출할 수 있다. 다른 실시예에서, 추출부는 생성된 n+m개의 분해 모션센서 데이터의 각각에 대한 n+m개의 모션 특징을 추출할 수 있다. 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. 이에 대하여는 표 1에 설명된 바 자세한 설명은 생략한다. The estimation apparatus 100 may extract motion characteristics for each of the plurality of decomposition motion sensor data (S30). In one embodiment, the extractor may extract n motion features for each of the n decomposition motion sensor data. In another embodiment, the extractor may extract n + m motion features for each of the generated n + m decomposition motion sensor data. In this case, each motion feature may include one or more features (feature values). In this case, each motion feature may include one or more features (feature values). The detailed description as described in Table 1 is omitted.

추정 장치(100)는 미리 결정된 분류 알고리즘에 기초하여 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정할 수 있다(S40). 일 실시예에서, 분류부는 추출된 n개의 모션 특징들을 각각 분류하여 대응하는 n개의 사용자 활동을 결정할 수 있다. 다른 실시예에서, 분류부는 추출된 n+m개의 모션 특징들을 각각 분류하여 대응하는 n+m개의 사용자 활동을 결정할 수 있다. 이에 대하여는 도 4a 내지 4c에 설명된 바 자세한 설명은 생략한다.Estimation apparatus 100 may classify each of the motion features based on a predetermined classification algorithm and determine a user activity corresponding to each of the motion features based on the classification result (S40). In one embodiment, the classifier may classify each of the extracted n motion features separately to determine a corresponding n user activities. In another embodiment, the classifier may classify each of the extracted n + m motion features to determine corresponding n + m user activities. 4A to 4C, detailed description will be omitted.

또한, 추정 장치(100)는 모션 특징들의 각각의 특징 값이 스레시홀드 값 이상인지 여부를 더 판단할 수 있다. 이때, 분류부는 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여만 대응하는 사용자 활동을 결정하고, 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여는 사용자 활동을 결정하지 않을 수 있다. In addition, the estimating device 100 may further determine whether each feature value of the motion features is equal to or greater than a threshold value. At this time, the classifier may determine user activity corresponding only to motion features whose feature value is equal to or greater than the threshold value, and may not determine user activity for motion features whose feature value is equal to or greater than the threshold value.

추정 장치(100)는 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정할 수 있다(S50). 일 실시예에서, 추정부는 결정된 사용자 활동들 중 가장 많은 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. 다른 실시예에서, 추정부는 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 더 판단할 수 있다. 이때, 추정부는 식별된 사용자 활동의 수가 스레시홀드 이상인 경우에만, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. Estimation device 100 may estimate the end user activity based on the determined user activities (S50). In one embodiment, the estimator may identify the user activity with the highest number of determined user activities and may determine the identified user activity as the end user activity. In another embodiment, the estimator may further determine whether the number of identified user activities is greater than or equal to a threshold. At this time, the estimator may determine the identified user activity as an end user activity only if the number of identified user activities is equal to or greater than the threshold.

또한, 추정 장치(100)는 추출된 모션 특징에 기초하여 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 결정할 수 있다. 여기서, 강도는 해당 활동의 강도 값으로서, 예를 들어, 해당 활동 시 소모되는 칼로리 값일 수 있다. 또한, 모션 횟수는 해당 활동에 대응하는 모션 행동의 횟수로서, 예를 들어, 걸음 수, 스윙 횟수, 줄넘기 횟수 등일 수 있다.In addition, the estimating device 100 can further determine the intensity and the number of motions of the estimated end user activity based on the extracted motion characteristics. Here, the intensity may be a strength value of the activity, for example, a calorie value consumed in the activity. The number of motions may be the number of motion actions corresponding to the activity, for example, the number of steps, the number of swings, the number of times of rope skipping, and the like.

또한, 추정 장치(100)는 사용자로부터 수행 중인 사용자 활동에 대한 정보를 입력 받을 수 있다. 이 경우, 추정 장치(100)는 입력된 사용자 활동에 대한 정보 및 결정된 사용자 활동들에 대한 정보에 기초하여, 최종 사용자 활동을 추정할 수 있다.
In addition, the estimation apparatus 100 may receive information on the user activity being performed by the user. In this case, the estimation apparatus 100 can estimate the end user activity based on the information on the inputted user activity and the information on the determined user activities.

도 7은 다른 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 본 순서도에서는 도 1 내지 도 6의 설명과 중복되는 부분에 대한 설명은 생략하도록 한다. 또한, S10 내지 S50에 대한 설명은 도 6의 설명과 동일하므로, 이하에서는 S70에 대하여만 설명하도록 한다. 7 is a flowchart of a method of estimating a user activity according to another embodiment. In the flowchart, the description of the parts that are the same as those in FIGS. 1 to 6 will be omitted. Since the description of S10 to S50 is the same as that of Fig. 6, only S70 will be described below.

도 7을 참조하면, 추정 장치(100)는 미리 결정된 검증 알고리즘을 이용하여 최종 사용자 활동을 검증할 수 있다(S70). 일 실시예에서, 추정 장치(100)는, 최종 사용자 활동을 추정하기 위한 제1 시간 간격과 상이한 제2 시간 간격으로 모션 센서 데이터를 더 분할하고, 이에 기초하여 상술한 방식과 동일한 방식으로 최종 사용자 활동을 더 추정함으로써, 이미 추정된 사용자 활동을 검증할 수 있다. 다른 실시예에서, 추정 장치(100)는 최종 사용자 활동을 추정하기 위한 제1 모션 센서와 상이한 제2 모션 센서로부터 제2 모션센서 데이터를 획득하고, 획득된 제2 모션센서 데이터에 기초하여 이미 추정된 최종 사용자 활동을 검증할 수 있다.
Referring to FIG. 7, the estimation apparatus 100 may verify the end user activity using a predetermined verification algorithm (S70). In one embodiment, the estimating device 100 further divides the motion sensor data at a second time interval that is different from the first time interval for estimating end user activity and, on the basis thereof, By further estimating the activity, the estimated user activity can be verified. In another embodiment, the estimating device 100 may obtain second motion sensor data from a second motion sensor, which is different from the first motion sensor for estimating end user activity, and may estimate, based on the obtained second motion sensor data, To verify end-user activity.

이와 같은, 사용자 활동 추정 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Such a user activity estimation method may be implemented in an application or may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions that are recorded on a computer-readable recording medium may be those that are specially designed and constructed for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform processing in accordance with the present invention, and vice versa.

또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.In this specification, both the invention and the method invention are explained, and the description of both inventions can be supplemented as necessary.

100: 사용자 활동 추정 장치 110: 모션센서 데이터 획득부
120: 분해 모션센서 데이터 생성부 130: 모션 특징 추출부
140: 모션 특징 분류부 150: 사용자 활동 추정부
160: 사용자 활동 검증부 160: 입력부
100: User activity estimation apparatus 110: Motion sensor data acquisition unit
120: decomposition motion sensor data generation unit 130: motion feature extraction unit
140: motion feature classifying unit 150: user activity estimating unit
160: user activity verification unit 160: input unit

Claims (23)

웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 모션센서 데이터 획득부;
상기 모션센서 데이터를 제1 시간 간격으로 분해하여 n개의 분해 모션센서 데이터를 생성하고, 상기 모션센서 데이터를 상기 제1 시간 간격과 상이한 제2 시간 간격으로 분해하여 m개의 분해 모션센서 데이터를 생성하는 분해 모션센서 데이터 생성부;
상기 n개의 분해 모션센서 데이터 및 상기 m개의 분해 모션센서 데이터의 각각에 대응하는 모션 특징을 추출하는 모션 특징 추출부;
미리 결정된 분류 알고리즘에 기초하여 추출된 모션 특징들의 각각을 분류하여 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 모션 특징 분류부; 및
결정된 m+n개의 사용자 활동들 중 최대의 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 이상인 경우, 상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하는 사용자 활동 추정부를 포함하는, 사용자 활동 추정 장치.
A motion sensor data acquisition unit for acquiring motion sensor data for a predetermined period from the motion sensor of the wearable device;
Generating decomposed motion sensor data by decomposing the motion sensor data into a first time interval and decomposing the motion sensor data into a second time interval different from the first time interval to generate m decomposed motion sensor data An decomposition motion sensor data generation unit;
A motion feature extraction unit for extracting a motion feature corresponding to each of the n pieces of decomposition motion sensor data and the pieces of decomposition motion sensor data of m;
A motion feature classifier for classifying each of the extracted motion features based on a predetermined classification algorithm to determine a user activity corresponding to each of the extracted motion features; And
Identifying a user activity having a maximum number of m + n user activities determined and estimating the identified user activity as end user activity when the number of identified user activities is equal to or greater than a predetermined threshold; Wherein the user activity estimating device comprises:
제 1 항에 있어서,
상기 사용자 활동 추정부는,
상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 미만인 경우,
상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하지 않거나, 또는
상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하면서 상기 추정된 최종 사용자 활동에 대한 인식률을 사용자에게 제공하는, 사용자 활동 추정 장치.
The method according to claim 1,
Wherein the user activity estimator comprises:
If the number of identified user activities is less than a predetermined threshold,
Does not estimate the identified user activity as an end user activity, or
And provides the user with a recognition rate for the estimated end user activity while estimating the identified user activity as end user activity.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 추출된 모션 특징들의 각각은 복수의 특징 값들을 포함하고,
상기 모션 특징 분류부는,
상기 추출된 모션 특징들의 각각에 대하여, 미리 정해진 특징 값들 사이의 우선 순위에 따라 각 특징 값들과 상기 각 특징 값들에 대응하는 스레시홀드 값들을 순차적으로 비교함으로써, 상기 추출된 모션 특징들의 각각을 분류하여 대응하는 사용자 활동을 결정하는 것을 특징으로 하는, 사용자 활동 추정 장치.
The method according to claim 1,
Wherein each of the extracted motion features includes a plurality of feature values,
The motion-
Sequentially comparing each of the feature values and the threshold values corresponding to the respective feature values according to a priority among predetermined feature values for each of the extracted motion features to classify each of the extracted motion features To determine a corresponding user activity.
제 1 항에 있어서,
상기 사용자 활동 추정부는,
상기 추출된 모션 특징들에 기초하여 상기 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 추정하는, 사용자 활동 추정 장치.
The method according to claim 1,
Wherein the user activity estimator comprises:
And further estimates the intensity and the number of motions of the estimated end user activity based on the extracted motion characteristics.
제 1 항에 있어서,
사용자로부터, 상기 사용자가 현재 수행 중인 사용자 활동에 대한 정보를 입력 받는 입력부를 더 포함하고,
상기 사용자 활동 추정부는,
상기 사용자에 의해 입력된 사용자 활동에 대한 정보 및 상기 모션 특징 분류부에 의해 결정된 사용자 활동들에 대한 정보 둘 모두에 기초하여, 상기 최종 사용자 활동을 추정하는, 사용자 활동 추정 장치.
The method according to claim 1,
Further comprising an input unit for receiving, from a user, information on a user activity currently performed by the user,
Wherein the user activity estimator comprises:
And estimates the end user activity based on both information on user activity input by the user and information on user activities determined by the motion feature classification unit.
제 1 항에 있어서,
미리 결정된 검증 알고리즘을 이용하여 상기 최종 사용자 활동을 검증하는 사용자 활동 검증부를 더 포함하는, 사용자 활동 추정 장치.
The method according to claim 1,
Further comprising: a user activity verifier for verifying the end user activity using a predetermined verification algorithm.
제 10 항에 있어서,
상기 사용자 활동 검증부는,
상기 모션 센서와 상이한 제2 모션 센서로부터 획득된 제2 모션센서 데이터에 기초하여 상기 최종 사용자 활동을 검증하는, 사용자 활동 추정 장치.
11. The method of claim 10,
The user activity verification unit may include:
And verifies the end user activity based on second motion sensor data obtained from a second motion sensor that is different from the motion sensor.
삭제delete 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 단계;
상기 모션센서 데이터를 제1 시간 간격으로 분해하여 n개의 분해 모션센서 데이터를 생성하고, 상기 모션센서 데이터를 상기 제1 시간 간격과 상이한 제2 시간 간격으로 분해하여 m개의 분해 모션센서 데이터를 생성하는 단계;
상기 n개의 분해 모션센서 데이터 및 상기 m개의 분해 모션센서 데이터의 각각에 대응하는 모션 특징을 추출하는 단계;
미리 결정된 분류 알고리즘에 기초하여 추출된 모션 특징들의 각각을 분류하여 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계; 및
결정된 m+n개의 사용자 활동 중 최대의 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 판단하는 단계; 및
상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 이상인 경우, 상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하는, 최종 사용자 활동 추정 단계를 포함하는, 사용자 활동 추정 방법.
Acquiring motion sensor data for a predetermined period from the motion sensor of the wearable device;
Generating decomposed motion sensor data by decomposing the motion sensor data into a first time interval and decomposing the motion sensor data into a second time interval different from the first time interval to generate m decomposed motion sensor data step;
Extracting motion characteristics corresponding to each of the n pieces of decomposition motion sensor data and each of the m pieces of decomposition motion sensor data;
Classifying each of the extracted motion features based on a predetermined classification algorithm to determine a user activity corresponding to each of the extracted motion features; And
Identifying user activity having a maximum number of m + n user activities determined and determining whether the number of identified user activities is equal to or greater than a threshold; And
And estimating the identified user activity as end user activity if the number of identified user activities is equal to or greater than a predetermined threshold.
제 13 항에 있어서,
상기 최종 사용자 활동 추정 단계는,
상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 미만인 경우,
상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하지 않거나, 또는
상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하고, 상기 추정된 최종 사용자 활동에 대한 인식률을 사용자에게 제공하는 단계를 더 포함하는, 사용자 활동 추정 방법.
14. The method of claim 13,
Wherein the end user activity estimating step comprises:
If the number of identified user activities is less than a predetermined threshold,
Does not estimate the identified user activity as an end user activity, or
Estimating the identified user activity as an end user activity, and providing a user with a recognition rate for the estimated end user activity.
삭제delete 삭제delete 삭제delete 제 13 항에 있어서,
상기 추출된 모션 특징들의 각각은 복수의 특징 값들을 포함하고,
상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계는,
상기 추출된 모션 특징들의 각각에 대하여, 미리 정해진 특징 값들 사이의 우선 순위에 따라 각 특징 값들과 상기 각 특징 값들에 대응하는 스레시홀드 값들을 순차적으로 비교함으로써, 상기 추출된 모션 특징들의 각각을 분류하여 대응하는 사용자 활동을 결정하는 것을 특징으로 하는, 사용자 활동 추정 방법.
14. The method of claim 13,
Wherein each of the extracted motion features includes a plurality of feature values,
Wherein determining the user activity corresponding to each of the extracted motion features comprises:
Sequentially comparing each of the feature values and the threshold values corresponding to the respective feature values according to a priority among predetermined feature values for each of the extracted motion features to classify each of the extracted motion features To determine a corresponding user activity.
제 13 항에 있어서,
상기 최종 사용자 활동 추정 단계는,
상기 추출된 모션 특징들에 기초하여 상기 추정된 최종 사용자 활동의 강도 및 모션 횟수를 결정하는 단계를 더 포함하는, 사용자 활동 추정 방법.
14. The method of claim 13,
Wherein the end user activity estimating step comprises:
Further comprising determining an intensity and a number of motion of the estimated end user activity based on the extracted motion characteristics.
제 13 항에 있어서,
사용자로부터, 상기 사용자가 현재 수행 중인 사용자 활동에 대한 정보를 입력 받는 단계를 더 포함하고,
상기 최종 사용자 활동 추정 단계는,
상기 사용자에 의해 입력된 사용자 활동에 대한 정보 및 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계에 의해 결정된 사용자 활동들에 대한 정보 둘 모두에 기초하여, 상기 최종 사용자 활동을 추정하는, 사용자 활동 추정 방법.
14. The method of claim 13,
Further comprising receiving, from a user, information on a user activity currently performed by the user,
Wherein the end user activity estimating step comprises:
Estimating the end user activity based on both information on user activity entered by the user and information on user activities determined by determining user activity corresponding to each of the extracted motion characteristics , User activity estimation method.
제 13 항에 있어서,
상기 최종 사용자 활동을 추정하는 단계 이후에,
미리 결정된 검증 알고리즘을 이용하여 상기 최종 사용자 활동을 검증하는 단계를 더 포함하는, 사용자 활동 추정 방법.
14. The method of claim 13,
After the step of estimating the end user activity,
Further comprising verifying the end user activity using a predetermined verification algorithm.
제 21 항에 있어서,
상기 최종 사용자 활동을 검증하는 단계는,
상기 모션 센서와 상이한 제2 모션 센서로부터 획득된 제2 모션센서 데이터에 기초하여 상기 최종 사용자 활동을 검증하는, 사용자 활동 추정 방법.
22. The method of claim 21,
Wherein verifying the end user activity comprises:
And verifies the end user activity based on second motion sensor data obtained from a second motion sensor that is different from the motion sensor.
삭제delete
KR1020150015045A 2015-01-30 2015-01-30 Device and method for estimating user activity KR101644417B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity
PCT/KR2016/000294 WO2016122141A1 (en) 2015-01-30 2016-01-12 Device and method for estimating user activities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity

Publications (1)

Publication Number Publication Date
KR101644417B1 true KR101644417B1 (en) 2016-08-03

Family

ID=56543700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity

Country Status (2)

Country Link
KR (1) KR101644417B1 (en)
WO (1) WO2016122141A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109119172B (en) * 2018-07-12 2020-06-05 中原工学院 Human behavior detection method based on bee colony algorithm

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293575B1 (en) 2012-11-27 2013-08-12 주식회사 휘트닷라이프 Apparatus of measuring surpluscalories using time of activity information
US20140288877A1 (en) * 2013-03-15 2014-09-25 Aliphcom Intermediate motion signal extraction to determine activity
KR101461464B1 (en) * 2014-06-18 2014-11-18 김경태 Smart band and biometric authentication method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008503268A (en) * 2004-06-18 2008-02-07 ヴィーヴォメトリックス インコーポレイテッド System and method for real-time physiological monitoring
US9011292B2 (en) * 2010-11-01 2015-04-21 Nike, Inc. Wearable device assembly having athletic functionality
KR101817587B1 (en) * 2012-01-04 2018-01-11 나이키 이노베이트 씨.브이. Athletic watch

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293575B1 (en) 2012-11-27 2013-08-12 주식회사 휘트닷라이프 Apparatus of measuring surpluscalories using time of activity information
US20140288877A1 (en) * 2013-03-15 2014-09-25 Aliphcom Intermediate motion signal extraction to determine activity
KR101461464B1 (en) * 2014-06-18 2014-11-18 김경태 Smart band and biometric authentication method thereof

Also Published As

Publication number Publication date
WO2016122141A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
US9948735B2 (en) User activity tracking system and device
Poleg et al. Temporal segmentation of egocentric videos
Klein et al. Pedestrian dead reckoning with smartphone mode recognition
US10803762B2 (en) Body-motion assessment device, dance assessment device, karaoke device, and game device
JP6567658B2 (en) Device and method for classifying user activity and / or counting user steps
EP2930690B1 (en) Apparatus and method for analyzing a trajectory
US20140142885A1 (en) Method and Apparatus for Determining Walking Direction for a Pedestrian Dead Reckoning Process
WO2014089238A1 (en) Gait analysis system and method
Jensen et al. Classification of kinematic swimming data with emphasis on resource consumption
Janko et al. A new frontier for activity recognition: The Sussex-Huawei locomotion challenge
CN109308437B (en) Motion recognition error correction method, electronic device, and storage medium
Sefen et al. Human activity recognition-using sensor data of smartphones and smartwatches
KR101418333B1 (en) Apparatus and method for recognizing user activity
Hoang et al. A lightweight gait authentication on mobile phone regardless of installation error
CN107273857B (en) Motion action recognition method and device and electronic equipment
CN110811578A (en) Step counting device and step counting method thereof, controller and readable storage medium
US20210396779A1 (en) User posture transition detection and classification
CN106153040B (en) Information processing unit and direction of travel estimation method
Depari et al. Lightweight machine learning-based approach for supervision of fitness workout
KR101584458B1 (en) Apparatus and method for real-time recognition of activity and posture based on combined sensor data
US20160116498A1 (en) Method and device for motion count detection
Salvi et al. An optimised algorithm for accurate steps counting from smart-phone accelerometry
Feigl et al. Supervised learning for yaw orientation estimation
KR101644417B1 (en) Device and method for estimating user activity
CN110180158B (en) Running state identification method and system and terminal equipment

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 4