KR101644417B1 - Device and method for estimating user activity - Google Patents

Device and method for estimating user activity Download PDF

Info

Publication number
KR101644417B1
KR101644417B1 KR1020150015045A KR20150015045A KR101644417B1 KR 101644417 B1 KR101644417 B1 KR 101644417B1 KR 1020150015045 A KR1020150015045 A KR 1020150015045A KR 20150015045 A KR20150015045 A KR 20150015045A KR 101644417 B1 KR101644417 B1 KR 101644417B1
Authority
KR
South Korea
Prior art keywords
user activity
user
motion
sensor data
motion sensor
Prior art date
Application number
KR1020150015045A
Other languages
Korean (ko)
Inventor
이택진
김재헌
김철기
서민아
이석
김선호
우덕하
신범주
전영민
이관희
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020150015045A priority Critical patent/KR101644417B1/en
Application granted granted Critical
Publication of KR101644417B1 publication Critical patent/KR101644417B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L29/00Arrangements, apparatus, circuits or systems, not covered by a single one of groups H04L1/00 - H04L27/00 contains provisionally no documents
    • H04L29/02Communication control; Communication processing contains provisionally no documents
    • H04L29/06Communication control; Communication processing contains provisionally no documents characterised by a protocol
    • H04L29/08Transmission control procedure, e.g. data link level control procedure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing packet switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing packet switching networks
    • H04L43/08Monitoring based on specific metrics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network-specific arrangements or communication protocols supporting networked applications
    • H04L67/22Tracking the activity of the user

Abstract

본 명세서의 일 실시예에 따른 사용자 활동 추정 방법은 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 단계와, 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써 복수의 분해 모션센서 데이터를 생성하는 단계와, 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출하는 단계와, 미리 결정된 분류 알고리즘에 기초하여 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 상기 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 단계와, 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정하는 단계를 포함할 수 있다. Estimating user activity method in accordance with one embodiment of this disclosure is the method of obtaining the motion sensor data during the predetermined period from the motion sensor of the wearable device, by decomposing the motion sensor data into one or more time intervals plural decomposition motion sensor data on the basis of the production method comprising, a step and a predetermined classification algorithm to extract the motion features for each of the plurality of decomposition motion sensor data by classifying each of the motion characteristic, and based on the classification result of each of the motion features comprising the steps of: determining a corresponding user activity, based on the determined user activity may include the step of estimating the end-user activity.

Description

사용자 활동을 추정하는 장치 및 방법{DEVICE AND METHOD FOR ESTIMATING USER ACTIVITY} Apparatus and method for estimating a user activity {DEVICE AND METHOD FOR ESTIMATING USER ACTIVITY}

본 명세서는 사용자 활동을 추정하는 장치 및 방법에 관한 것으로, 보다 상세하게는 웨어러블 장치로부터 획득된 모션 센서 데이터에 대한 특징을 추출하고 분류함으로써 사용자 활동을 추정하는 장치 및 방법에 관한 것이다. Herein is an apparatus and method for estimating a user activity by relates to an apparatus and method for estimating a user activity, more particularly, to extracting a feature of the motion sensor data obtained from a wearable device and classification.

최근 소형화 기술의 발전에 따라, 신체에 착용 가능한 다양한 형태의 웨어러블 장치가 나오고 있다. With the development of recent miniaturization, it is worn out to the body various types of wearable devices as possible. 또한, 이러한 웨어러블 장치로부터 획득한 사용자의 움직임에 대한 센싱 데이터에 기초하여 사용자가 소모한 칼로리, 이동 거리 등에 대한 정보를 사용자에게 제공하는 활동 트래커(activity tracker)들도 다양하게 나오고 있다. Further, also active tracker (activity tracker) to provide information to a user on the basis of the sensed data for the user obtained from this wearable device moves like a user and calorie consumption, the moving distance is coming out variously.

그런데, 종래의 활동 트래커들은 사용자가 직접 자신이 수행 중인 활동을 입력한 경우에만 사용자의 활동에 정보(소모 칼로리, 운동량, 이동 거리 등)들을 제공한다. However, conventional activity trackers are users provide direct information (calories, exercise, distance, etc.) to the user input activity only if the activity is being carried himself. 이 경우, 사용자는 각 활동을 수행할 때마다 해당 활동이 어떤 활동인지 장치에 매번 수동적으로 입력해야 하는 불편함을 갖는다. In this case, the user has the inconvenience that this activity should be manually entered every time the device what kind of action whenever you perform each activity.

등록특허공보 제10-1293575호 Registration Patent No. 10-1293575 No.

이에, 본 명세서는, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 사용자의 활동을 자동으로 추정하고, 추정된 사용자의 활동에 대한 정보를 제공하는 사용자 추정 장치 및 방법을 제공하고자 한다. Thus, herein, by using the motion sensor data obtained from a wearable device and automatically it estimates the user's action, to provide a user estimation apparatus and method for providing information on the estimation of the user activity.

본 명세서의 일 실시예에 따른 사용자 활동 추정 장치는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 모션센서 데이터 획득부; Estimating user activity in accordance with one embodiment of the herein device is a motion sensor data acquisition section for acquiring the motion sensor data during the predetermined period from the motion sensor of the wearable device; 상기 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성하는 분해 모션센서 데이터 생성부; By decomposing the motion sensor data into one or more time intervals, degradation motion sensor data generator configured to generate a plurality of decomposition motion sensor data; 상기 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출하는 모션 특징 추출부; Motion feature extraction unit for extracting a motion feature for each of the plurality of decomposition motion sensor data; 미리 결정된 분류 알고리즘에 기초하여 상기 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 상기 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 모션 특징 분류부; Previously determined on the basis of the classification algorithm classifies the motion features respectively, the motion classification characteristic unit for determining user activity corresponding to each of the motion characteristics on the basis of the classification result; 및 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정하는 사용자 활동 추정부를 포함할 수 있다. And estimating a user activity for estimating the end-user activity on the basis of the determined user activity may include a.

본 명세서의 일 실시예에 따른 사용자 활동 추정 방법은 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 단계; Estimating user activity method in accordance with one embodiment of the present disclosure includes the steps of obtaining a motion sensor data during the predetermined period from the motion sensor of the wearable device; 상기 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성하는 단계; Comprising: a motion sensor by decomposing the data into one or more time intervals, generate a plurality of decomposition motion sensor data; 상기 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출하는 단계; Extracting a motion feature for each of the plurality of decomposition motion sensor data; 미리 결정된 분류 알고리즘에 기초하여 상기 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 상기 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 단계; In advance based upon the determined classification algorithm classifies the motion features respectively, based on the classification result determining a user action corresponding to each of the motion feature; 및 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정하는 단계를 포함할 수 있다. And it may include the step of estimating the end-user activity on the basis of the determined user activity.

본 명세서에 따르면, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 사용자의 활동을 자동으로 추정함으로써 보다 편리한 활동 트래킹에 대한 사용자 경험을 사용자에게 제공할 수 있다. According to this specification, it is possible to provide a user experience with a more convenient activity tracking to the user by automatically estimate the user's activities by using the motion sensor data obtained from a wearable device.

또한, 획득된 모션 센서 데이터를 분해하고, 분해된 모션센서 데이터를 이용하여 사용자 활동을 추정함으로써 전체 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다. Further, decomposing the motion sensor data acquisition, and can increase the accuracy of estimation by estimating the user activity using the decomposition motion sensor data using the full motion sensor data and compare the way of estimating the user activity user activity.

또한, 획득된 모션센서 데이터를 둘 이상의 시간 간격으로 분해하고, 두 종류의 분해된 모션센서 데이터를 이용하여 사용자 활동을 추정함으로써, 사용자 활동 추정의 정확도를 더 높일 수 있다. Furthermore, by decomposing the motion sensor data obtained by at least two time intervals, and it estimates a user activity using the two kinds of decomposition motion sensor data, and may further increase the accuracy of user activity estimation.

또한, 별도의 검증 방법을 이용하여 이미 추정된 사용자 활동을 다시 한번 더 검증함으로써 사용자 활동 추정의 정확도를 높일 수 있다. In addition, it is possible to increase the accuracy of your activity estimated by using another verification method once again validate the already estimated user activity.

또한, 웨어러블 장치로부터 획득된 모션 센서 데이터를 이용하여 추정된 사용자 활동에 대한 정보와 사용자로부터 직접 입력된 사용자 활동에 대한 정보를 함께 이용할 수도 있어, 사용자 활동을 추정함으로써 사용자 활동 추정의 정확도를 높일 수 있다. Moreover, you may use the information for the direct input of user activity from the information and the user for the user activity estimated by the motion sensor data obtained from a wearable device with, by estimating user activity can increase the accuracy of user activity estimation have.

도 1은 일 실시 예에 따른, 사용자 활동 추정 장치의 개념도이다. 1 is a conceptual view of the user activity estimator, according to one embodiment.
도 2은 일 실시 예에 따른, 사용자 활동 추정 장치의 구성도이다. Figure 2 is a block diagram of user activity estimator, according to one embodiment.
도 3은 일 실시 예에 따른, 사용자 활동 추정 장치를 이용하여 사용자 활동을 추정하는 과정의 데이터 흐름도이다. 3 is a data flow diagram of a process for estimating a user activity using the user-activity estimation device, according to one embodiment.
도 4는 추출된 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 예시적인 방법을 나타낸다. 4 is a classification for each of the extracted motion feature and, on the basis of the classification result shows an exemplary method of determining a user action corresponding to each of the motion features.
도 5는 일 실시예에 따른, 본 장치를 이용한 사용자 활동 추정의 실험 결과를 나타내는 도면이다. 5 is a diagram showing an experimental result of the estimated user activity with the device, according to one embodiment.
도 6은 일 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 6 is a flowchart of user activity estimation method, according to one embodiment.
도 7은 다른 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 7 is a flowchart of user activity estimation method, according to another embodiment.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다. Reference to the information described in the figures accompanying the drawings and the accompanying detailed description of examples, but the scope to the claims, is not intended to be restricted or limited by the embodiments.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. As used herein, however, select a generic term, taking into account the functions that are currently widely used, and can be changed according to the technicians intention or custom appearance of new technologies or to engage in the art. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. Furthermore, the particular case will be randomly selected by the applicant, and also the term, the meaning described in the context of this specification, if applicable. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다. Therefore, the terms used herein, the characters put out, should be interpreted on the basis of practical significance and content across the present disclosure is that the term is not the name of a simple term having.

도 1은 일 실시 예에 따른, 사용자 활동 추정 장치와 웨어러블 장치를 나타내는 개략도이다. 1 is a schematic diagram showing a user activity estimation device and a wearable device, in accordance with one embodiment.

본 명세서에서, 사용자 활동 추정 장치(100)(이하 “추정 장치(100)”라고도 함)는 사용자의 모션을 센싱한 센서 데이터를 이용하여 사용자의 모션에 대응하는 사용자 활동을 추정하는 장치를 말한다. In this specification, the user activity estimation device 100 (hereinafter referred to as "estimator 100" also known as a) using a sensor data that is sensing the user's motion refers to a device for estimating a user action corresponding to the user's motion. 예를 들면, 사용자 활동 추정 장치(100)는 웨어러블 장치(10)에 장착된 모션 센서로부터 사용자의 모션을 센싱한 센싱 데이터를 획득하고, 이를 이용하여 사용자의 모션에 대응하는 사용자 활동을 추정하는 전자 장치를 말한다. For example, the user activity estimation device 100 can acquire the sensed data by sensing the user's motion from the motion sensors attached to the wearable device 10, and by using this electron estimating a user action corresponding to the user's motion It refers to a device.

일 실시예에서, 사용자 활동 추정 장치(100)는 웨어러블 장치(10), 모바일 장치(20)(예컨대, 스마트 폰) 또는 임의의 다른 장치(예컨대, 서버) 내에 배치될 수 있다. In one embodiment, user activity estimation device 100 can be disposed in a wearable device 10, the mobile device 20 (e.g., smart phone) or any other device (e.g., a server). 사용자 활동 추정 장치(100)가 모바일 장치(20)에 배치된 경우, 사용자 활동 추정 장치(100)는 모바일 장치(20)를 통해 웨어러블 장치(10)와 유선/무선 통신을 수행할 수 있다. If user activity estimation device 100 is disposed on the mobile device 20, a user activity estimation device 100 can perform a wearable device 10 and a wired / wireless communication from a mobile device (20). 이를 통해, 사용자 활동 추정 장치(100)는 웨어러블 장치(10)로부터 모션 센서 데이터를 획득할 수 있다. Through this, the user activity estimation device 100 may obtain the motion sensor data from a wearable device (10).

본 명세서에서, 웨어러블 장치(10)는 사용자의 신체 일부에 착용되는 전자 장치를 말한다. In this specification, the wearable device 10 refers to an electronic device that is worn on the user's body part. 예를 들면, 웨어러블 장치(10)는 사용자의 손목에 착용되는 스마트 워치 또는 스마트 밴드일 수 있다. For example, the wearable device 10 may be a smart watch, or a smart band to be worn on the user's wrist. 본 명세서에서, 웨어러블 장치(10)는 사용자의 모션을 센싱하는 모션 센서(예컨대, 가속도 센서 또는 임의의 유형의 모션 센서)를 포함할 수 있다. In this specification, the wearable device 10 may comprise a motion sensor (e.g., accelerometer, or any type of motion sensor) for sensing the user's motion.

이하에서는 모션 센서 데이터를 가속도 데이터라고 가정하여 다양한 실시 예들을 설명하지만, 가속도 데이터가 아닌 다른 모션센서 데이터를 이용하여 본 명세서의 실시 예들을 설명할 수 있음은 당업자에게 자명하다. In the following description the various embodiments on the assumption that the motion sensor data, acceleration data, the acceleration data is not available to illustrate embodiments of the disclosure, using a different motion sensor data, it is obvious to those skilled in the art.

도 2는 일 실시 예에 따른, 사용자 활동 추정 장치의 구성도이다. 2 is a block diagram of user activity estimator, according to one embodiment. 또한, 도 3은 일 실시 예에 따른, 사용자 활동 추정 장치를 이용하여 사용자 활동을 추정하는 과정의 데이터 흐름도이다. In addition, Figure 3 is a data flow diagram of a process for estimating a user activity using the user-activity estimation device, according to one embodiment.

도 2를 참조하면, 추정 장치(100)는 모션센서 데이터 획득부(“획득부”)(110), 분해 모션센서 데이터 생성부(“생성부”)(120), 모션 특징 추출부(“추출부”)(130), 모션 특징 분류부(“분류부”)(140) 및 사용자 활동 추정부(“추정부”)(150)를 포함할 수 있다. 2, the estimator 100 obtains motion sensor data unit ( "acquisition unit") 110, a decomposition motion sensor data generator ( "generator") 120, a motion feature extraction unit ( "extract unit ") 130, a motion characteristic classifying unit (" may include a classification unit ") 140 and a user activity estimation unit (" estimation ") 150. 또한, 추정 장치(100)는 사용자 활동 검증부(“검증부”)(160) 및 입력부(170)를 더 포함할 수 있다. Further, the estimation unit 100 may further include user-activity verification unit ( "verification unit") 160 and the input unit 170. 여기서, 검증부(160) 및 입력부(170)는 옵셔널한 구성일 수 있다. Here, the verification unit 160 and input unit 170 may be an optional configuration.

획득부(110)는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득할 수 있다. Obtaining section 110 may obtain the motion sensor data during the predetermined period from the motion sensor of the wearable device. 도 3의 310에 도시된 것처럼, 일 실시예에서, 획득부(110)는 웨어러블 장치의 모션 센서로부터 10분 동안의 모션센서 데이터를 획득할 수 있다. As shown in 310 of Figure 3, in one embodiment, the obtaining unit 110 may obtain the motion sensor data of 10 minutes from the motion sensor of the wearable device. 일 실시예에서, 추정 장치(100)가 모바일 장치에 배치된 경우, 획득부(110)는 웨어러블 장치와의 유/무선 통신을 통해 모션센서 데이터에 대한 데이터를 수신함으로써 모션센서 데이터를 획득할 수 있다. In one embodiment, estimator 100 is when placed in the mobile device, obtaining unit 110 may obtain the motion sensor data by receiving the data for the motion sensor data over a wire / wireless communication with the wearable device have.

생성부(120)는 획득된 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성할 수 있다. Generator 120 by decomposing the acquired motion sensor data into one or more time intervals, it is possible to generate a plurality of decomposition motion sensor data. 도 3의 320에 도시된 것처럼, 일 실시예에서, 생성부(120)는 획득된 10분 동안의 모션센서 데이터를 제1 시간 간격(예컨대, 1분 간격)으로 분해함으로써, n개(예컨대, 10개)의 분해 모션센서 데이터를 생성할 수 있다. As shown in 320 of Figure 3, in one embodiment, the generator 120 by decomposing the motion sensor data for the obtained 10 minutes, and the first time interval (e.g., every minute), n pieces (for example, of 10) may generate decomposition motion sensor data. 사용자가 특정 활동을 수행할 때 일정한 기간 동안 일관되게 그 활동을 수행하는 것이 아니기 때문에, 이러한 모션센서 데이터를 분해함으로써 총 n개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식은 전체 모션센서 데이터 1개를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다. Because the user is not to perform consistently the activity for a certain period of time to perform certain activities, such motion sensor data using a total of n number of decomposition motion sensor data by decomposing a method for estimating a user activity is full motion sensor data by using one method to estimate and compare your activity can increase the accuracy of the estimated user activity.

다른 실시예에서, 생성부(120)는 획득된 10분 동안의 모션센서 데이터를 제2 시간 간격(예컨대, 5분 간격)으로 더 분해함으로써, m개(예컨대, 2개)의 분해 모션센서 데이터를 더 생성할 수 있다. In another embodiment, the decomposition motion sensor data from the generator 120 by further decomposing the motion sensor data for the obtained 10 minutes, and the second time interval (e.g., 5 min), m pieces (e.g., two) the more you can create. 이 경우, 제2 시간 간격은 제1 시간 간격과 상이한 시간 간격일 수 있다. In this case, the second time interval may be in different time intervals and the first time interval. 예를 들면, 제2 시간 간격은 제1 시간 간격 보다 긴 시간 간격일 수 있다. For example, the second time interval may be a longer time interval than the first time interval. 이러한 모션센서 데이터를 둘 이상의 시간 간격으로 분해함으로써 총 n+m개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식은 모션센서 데이터를 하나의 시간 간격으로 분해함으로써 총 n개의 분해 모션센서 데이터를 이용하여 사용자 활동을 추정하는 방식과 비교하여 사용자 활동 추정의 정확도를 높일 수 있다. By decomposing such a motion sensor data into two or more time intervals way of estimating the user activity using a total n + m of decomposing motion sensor data has a total of n number of decomposition motion sensor data by decomposing the motion sensor data in one time interval compared with the method for estimating a user activity can be used to increase the accuracy of the estimated user activity.

추출부(130)는 생성된 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출할 수 있다. Extraction unit 130 may extract the motion features for each of the generated decomposition motion sensor data. 도 3의 330에 도시된 것처럼, 일 실시예에서, 추출부(130)는 n개(예컨대, 10개)의 분해 모션센서 데이터의 각각에 대한 n개(예컨대, 10개)의 모션 특징(예컨대, 제1 모션 특징 내지 제10 모션 특징)을 추출할 수 있다. As it is shown in 330 of Figure 3, in one embodiment, the extraction unit 130, the motion characteristics of the n number of (e.g., ten) for each decomposition motion sensor data of n (e.g., 10) (e. G. first it is possible to extract the motion features to claim 10 characterized in motion). 다른 실시예에서, 추출부(130)는 생성된 n+m개(예컨대, 12개)의 분해 모션센서 데이터의 각각에 대한 n+m개의 모션 특징을 추출할 수 있다. In another embodiment, the extraction unit 130 may extract the motion features: n + m for each of the decomposed motion sensor data of the generated n + m more (e.g., 12). 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. In this case, each of the motion characteristics may include one or more features (feature value).

아래 표 1은 가속도 센서 데이터로부터 추출된 하나의 모션 특징에 포함될 수 있는 예시적인 특징(특징 값)들을 나타내는 표이다. Table 1 below is a table illustrating the one example of the behavior that may be included in the motion feature (feature value) extracted from the acceleration sensor data.

특징 번호 Features Number 특징 Characteristic 특징 설명 Features Description
1 One v(a) k v (a) k 단위 시간 당 가속도 놈의 분산(Variance of Acc. Norm / unit time) Variance of he acceleration per unit time (Variance of Acc. Norm / unit time)
2 2 m(a) k m (a) k 단위 시간 당 가속도 놈의 평균(Mean of Acc. Norm / unit time) Average (Mean of Acc. Norm / unit time) of the acceleration per unit time he
3 3 v(a_x) k v (a_x) k 단위 시간 당 x축 방향의 가속도의 분산(Variance of acc. in x-axis / unit time) Distributed unit of acceleration in the x-axis direction per time (Variance of acc. In x-axis / unit time)
4 4 v(a_y) k v (a_y) k 단위 시간 당 y축 방향의 가속도의 분산(Variance of acc. in y-axis / unit time) Distribution of the y-axis direction acceleration per unit time (Variance of acc. In y-axis / unit time)
5 5 v(a_z) k v (a_z) k 단위 시간 당 z축 방향의 가속도의 분산(Variance of acc. in z-axis / unit time) Distribution of z-axis direction acceleration per unit time (Variance of acc. In z-axis / unit time)
6 6 m(a_x) k m (a_x) k 단위 시간 당 x축 방향의 가속도의 평균(Mean of acc. in x-axis / unit time) The average of the x-axis direction acceleration per unit time (Mean of acc. In x-axis / unit time)
7 7 m(a_y) k m (a_y) k 단위 시간 당 y축 방향의 가속도의 평균(Mean of acc. in y-axis / unit time) The average of the y-axis direction acceleration per unit time (Mean of acc. In y-axis / unit time)
8 8 m(a_z) k m (a_z) k 단위 시간 당 z축 방향의 가속도의 평균(Mean of acc. in z-axis / unit time) Units of the average of the z-axis direction acceleration per time (Mean of acc. In z-axis / unit time)
9 9 n(s) k n (s) k 스텝 모션의 수(Number of step motion) The number of the step motion (Number of step motion)
10 10 n(sw) k n (sw) k 스윙 모션의 수(Number of swing motion) The number of swing motion (Number of swing motion)

또한, 위 표에 개시되어 있지 않지만, 각 특징 값들의 차와 비율들을 특징 값으로 더 포함할 수 있다. Further, although not described in the table above, it may further include a car and the ratio of the respective characteristic value as a characteristic value. 예를 들면, 분산 차(예컨대, 특징 3과 특징 4의 분산 차인 v(a_x) k - v(a_y) k 등)를 특징 값으로 더 포함할 수 있고, 평균 차(예컨대, 특징 6과 특징 7의 평균 차인 m(a_x) k - m(a_y) k 등)를 특징 값으로 더 포함할 수 있고, 모션 비율(예컨대, 특징 9와 특징 10의 모션 비율인 m_r k For example, the distribution difference (a difference between the dispersion of example, the features 3 and characterized in 4 v (a_x) k - v (a_y) k, etc.) may further include the feature values, and the average difference (e.g., features 6 and features 7 of a difference between the average m (a_x) k - m (a_y) k, etc.) may further include a characteristic value, the motion proportion (e.g., characterized by a ratio of 9 and a motion feature 10 m_r k = (n(s) k - n(sw) k )/n(sw) k )을 특징 값으로 더 포함할 수 있다. = (N (s) k - n (sw) k) a / n (sw) k) may further comprise a feature value. 즉, 위 표에 개시된 특징 값들은 예시적인 특징 값들로, 본 명세서의 실시 예들은 이러한 예시에 의해 제한되지 않고, 다양한 종류의 특징 값을 더 포함하거나 위에 개시된 일부 특징 값을 생략할 수 있다. That is, the feature value in the table above are disclosed as exemplary feature values, and embodiments of the present disclosure may omit some of the feature values ​​including but not limited by this example, the more a range of values, or characteristics described above.

분류부(140)는 추출된 모션 특징들의 각각을 미리 결정된 분류 알고리즘에 기초하여 분류하고, 분류 결과에 기초하여 모션 특징들의 각각에 대응하는 사용자 활동을 결정할 수 있다. Classification unit 140 may be classified on the basis of each of the extracted motion characteristic with a predetermined sorting algorithm, and based on the result of classification to determine user activity corresponding to each of the motion features. 도 3의 340에 도시된 것처럼, 일 실시예에서, 분류부(140)는 추출된 n개(예컨대, 10개)의 모션 특징들을 각각 분류하여 대응하는 n개(예컨대, 10개)의 사용자 활동(예컨대, 제1 사용자 활동 내지 제10 사용자 활동)을 결정할 수 있다. As shown in 340 of Figure 3, in one embodiment, the classification unit 140 to extract the n number of user activity of n (e.g., 10) corresponding to each category of motion characteristic of (e.g., ten) can be determined (e.g., the first user action to tenth user activity). 다른 실시예에서, 분류부(140)는 추출된 n+m개의 모션 특징들을 각각 분류하여 대응하는 n+m개의 사용자 활동을 결정할 수 있다. In another embodiment, the classification unit 140 may determine the n + m of user action corresponding to each classification of the extracted n + m of the motion features.

또한, 분류부(140)는 모션 특징들의 각각의 특징 값이 스레시홀드 값 이상인지 여부를 더 판단할 수 있다. Further, the classification section 140 may further determine whether or not each of the feature values ​​is a threshold value or more of the motion features. 이때, 분류부(140)는 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여만 대응하는 사용자 활동을 결정하고, 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여는 사용자 활동을 결정하지 않을 수 있다. At this time, the classification section 140 is the characteristic value is the threshold value or larger, and determines the user activity that only corresponds with respect to the motion characteristic, characteristic value can not determine the user activity with respect to the motion characteristics than a threshold value have. 이를 통해, 사용자가 특정 활동 도중에 잠깐씩 쉬는 경우, 해당 구간(예컨대, 도3의 320의 3번째 구간)에 대한 모션 특징(예컨대, 제3 모션 특징)을 제거하고 유용한 구간에 대한 모션 특징만을 이용하여 사용자 활동을 추정함으로써 추정의 정확도를 높일 수 있다. Thereby, users using only the motion characteristics for the case off briefly during certain activities, removing the motion features (e.g., a third motion characteristics) for the period (e. G., The third section 320 of FIG. 3) and a useful region and by estimating a user activity it can increase the accuracy of the estimates.

추정부(150)는 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정할 수 있다. Estimation unit 150 may estimate the end-user activity on the basis of the determined user activity. 도 3의 350에 도시된 것처럼, 추정부(150)는 결정된 n개(예컨대, 10개)의 사용자 활동 중 하나의 사용자 활동을 최종 사용자 활동으로서 추정할 수 있다. As shown in 350 of Figure 3, the estimator 150 may estimate the activities of one user of the user activities determined n number (e.g., 10) as end-user activity.

일 실시예에서, 추정부(150)는 결정된 사용자 활동들 중 가장 많은 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. In one embodiment, the estimation unit 150 may identify and determine the identified user activity, user activity, user activity as the final having determined the greatest number of the user activity. 예를 들면, 결정된 사용자 활동들 중 가장 많은 수(예컨대, 10개 중 8개)를 갖는 사용자 활동이 자전거 타기인 경우, 추정부(150)는 자전거 타기를 최종 사용자 활동으로서 결정할 수 있다. Can be determined, for example, as determined user activity in the largest number when the user activity has a (for example, 8 out of 10) cycling, estimation unit 150 includes the end-user activity cycling of.

다른 실시예에서, 추정부(150)는 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 더 판단할 수 있다. In another embodiment, the estimation unit 150 may further determines whether or not the number of the identified user activity above the threshold. 이때, 추정부(150)는 식별된 사용자 활동의 수가 스레시홀드 이상인 경우에만, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. In this case, the estimation unit 150 is a, the identified user activity only when the number of the identified user activity threshold or greater can be determined as an end-user activity. 예를 들면, 결정된 사용자 활동들 중 가장 많은 수(예컨대, 10개 중 4개)를 갖는 사용자 활동이 자전거 타기로 식별되었으나, 해당 사용자 활동의 수가 스레시홀드(예컨대, 7개) 보다 작은 경우, 추정부(150)는 최종 사용자 활동의 추정을 보류하거나, 또는 최종 사용자 활동의 추정과 함께 추정된 사용자 활동에 대한 인식률(예컨대, 40(=4/10*100) %)을 사용자에게 제공할 수 있다. For example, if less than the predetermined user of the activity can be greatest, but the user activity with a (for example, 4 out of 10) identified by the cycling, when the number of threads of the user activity hold (for example, seven), estimation unit 150 holds an estimate of the end-user activity, or the end user recognition rate for the user action estimated with the estimation of the activity (for example, 40 (= 4/10 * 100)%) to provide to the user have. 이를 통해, 장치는 특정 사용자 활동을 최종 사용자 활동으로 추정하기 애매한 경우에 추정을 보류하거나, 또는 추정과 함께 인식률 정보를 제공함으로써 사용자가 추정의 정확도를 파악할 수 있게 해준다. Through this, the device is held together by providing recognition information to estimate the ambiguous cases to estimate the specific user activities in end-user activity, or to estimate allows the user to determine the accuracy of the estimates.

또한, 추정부(150)는 추출된 모션 특징에 기초하여 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 결정할 수 있다. Further, the estimation unit 150 has the strength and frequency of the motion estimation based on the extracted motion feature end-user activity can be further determined. 여기서, 강도는 해당 활동의 강도 값으로서, 예를 들어, 해당 활동 시 소모되는 칼로리 값일 수 있다. Here, the strength is a strength value of the activity, for example, it may be a value of calories consumed during the activity. 또한, 모션 횟수는 해당 활동에 대응하는 모션 행동의 횟수로서, 예를 들어, 걸음 수, 스윙 횟수, 줄넘기 횟수 등일 수 있다. In addition, the number of motion may be a motion as a number of actions corresponding to the activity, for example, steps, swing count, skipping count. 이를 통해, 장치는 추정된 사용자 활동의 종류만을 제공하는 것이 아니라, 추정된 사용자 활동의 강도 및 모션 횟수에 대한 정보를 함께 사용자에게 제공함으로써 보다 다양한 정보를 사용자에게 제공할 수 있다. Through this, the device can provide a wider variety of information to the user by providing the user, not only provide the type of the estimated user activity, information on the strength and frequency of the motion estimation with the user activity.

검증부(160)는 미리 결정된 검증 알고리즘을 이용하여 추정된 최종 사용자 활동을 검증할 수 있다. Verification unit 160 may verify the end-user activity estimated using a predetermined validation algorithm. 일 실시예에서, 검증부(160)는, 분할부로 하여금 최종 사용자 활동을 추정하기 위한 제1 시간 간격(예컨대, 1분 간격)과 상이한(예컨대, 더 짧은) 제2 시간 간격(예컨대, 30초 간격)으로 모션 센서 데이터를 더 분할하게 하고, 이에 기초하여 상술한 방식과 동일한 방식으로 최종 사용자 활동을 더 추정함으로써, 이미 추정된 사용자 활동을 검증할 수 있다. In one embodiment, the verification unit 160, division causes the first time interval for estimating the end-user activities (e. G., Every minute) and different (e.g., shorter) second time interval (e.g., 30 by-second interval) and a more dividing the motion sensor data, further estimating the end-user activity in a similar manner as the above-described manner on the basis of this, it is possible to validate the user already estimated activity. 다른 실시예에서, 검증부(160)는, 획득부(110)로 하여금 최종 사용자 활동을 추정하기 위한 제1 모션 센서(예컨대, 가속도 센서)와 상이한 제2 모션 센서(예컨대, 자이로 센서)로부터 제2 모션센서 데이터를 획득하게 하고, 획득된 제2 모션센서 데이터에 기초하여 이미 추정된 최종 사용자 활동을 검증할 수 있다. From In another embodiment, the verification unit 160, an acquiring unit allows the unit 110 a first motion sensor (e.g., acceleration sensor) and a second, different motion sensor (e.g., gyro sensor) for estimating the end-user activity, the 2 to obtain the motion sensor data and, based on the obtained second motion sensor data, it is possible to verify the end-user action has already been estimated. 이러한 검증방식을 이용하여 이미 추정된 사용자 활동을 다시 한번 더 검증함으로써 사용자 활동 추정의 정확도를 높일 수 있다. Using this proven method by once again validate the user activity has been estimated to increase the accuracy of user activity estimation.

입력부(170)는 사용자로부터 수행 중인 사용자 활동에 대한 정보를 입력 받을 수 있다. Input unit 170 may receive input information on user activity being performed by the user. 이 경우, 추정부(150)는 입력된 사용자 활동에 대한 정보 및 결정된 사용자 활동들에 대한 정보 기초하여, 최종 사용자 활동을 추정할 수 있다. In this case, the estimation unit 150 on the basis of information on the information and the determined user activity on a user input action, it is possible to estimate the end-user activity. 이를 통해, 사용자로부터 직접 입력된 사용자 활동에 대한 정보를 더 이용하여 사용자 활동을 추정함으로써 추정의 정확도를 높일 수 있다. Thereby, by further using information on direct input of user activity from a user by estimating a user activity it can be enhanced the accuracy of the estimate.

도 2는 본 명세서의 일 실시예에 따른 구성도로서, 분리하여 표시한 구성들은 장치의 구성들을 논리적으로 구별하여 도시한 것이다. 2 is configured to display it, isolated as a block diagram in accordance with one embodiment of the present disclosure are it illustrates by logically distinct from the construction of the apparatus. 따라서 상술한 장치의 구성들은 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. Therefore, the configuration of the above-described devices may be mounted in a single chip or a plurality of chips according to a design of the device.

도 4는 추출된 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정하는 예시적인 방법을 나타낸다. 4 is a classification for each of the extracted motion feature and, on the basis of the classification result shows an exemplary method of determining a user action corresponding to each of the motion features. 추정 장치(100)는 분류부를 이용하여 미리 설정된 분류 알고리즘에 따라 제1 모션 특징을 분류하여 이에 대응하는 사용자 활동을 결정한다. Estimator 100 classifies the first motion characteristics according to the classification algorithm predetermined using classification unit determines a user action corresponding to this. 이후, 추정 장치(100)는 동일한 분류 알고리즘을 이용하여 제2 모션 특징을 분류하여 이에 대응하는 사용자 활동을 결정한다. Then, the estimation unit 100 classifies the second motion characteristics by using the same classification algorithm determines the corresponding user activity. 이러한 방식으로, 추정 장치(100)는 모든 모션 특징들에 대응하는 사용자 활동들을 결정할 수 있다. In this way, the estimator 100 may determine a user action corresponding to all motion features.

이하에서는, 도 4a 내지 4c를 참조하여, 하나의 모션 특징을 분류하여 대응하는 사용자 활동을 결정하는 과정에 대하여 상세히 설명하도록 한다. Hereinafter, with reference to Figures 4a to 4c to be so it will be described in detail the process of determining a user action corresponding to classify the one of the motion features. 상술한 바와 같이 모션 특징은 적어도 하나의 특징 값(특징)을 포함할 수 있다. Motion features as discussed above may include at least one of the feature values ​​(features). 일 실시예에서, 추정 장치(100)는 미리 설정된 분류 기준에 따라 모션 특징에 포함된 특징 값들의 우선 순위를 정하고, 정해진 우선 순위에 따라 각 특징 값들과 각 특징 값들에 대한 스레시홀드 값들을 비교하는 방식으로, 모션 특징을 분류하여 대응하는 사용자 활동을 결정할 수 있다. In one embodiment, estimator 100 is prioritizing of the feature value included in the motion feature in accordance with a predetermined classification criterion, comparing the threshold value for each feature values ​​and the respective characteristic values ​​according to a predetermined priority in a way that can be determined corresponding to the user action by classifying the motion features. 이에 대하여는 각 도면을 참조하여 이하에서 상세히 설명하도록 한다. With reference to the drawings with respect to this will be described in more detail below.

우선, 도 4a를 참조하면, 추정 장치(100)는 미리 결정된 분류 알고리즘에 따라 제1 특징(예컨대, v(a) k )이 제1 스레시홀드(ε1) 미만인지 여부를 판단(410)한다. Referring first to Figure 4a, estimator 100 is the first feature (e.g., v (a), k), the first threshold is determined (410) whether or not less than (ε1) in accordance with a predetermined classification algorithm . 제1 특징이 제1 스레시홀드 미만인 경우, 추정 장치(100)는 제1-1 특징(예컨대, m(a_z) k )이 제1-1 스레시홀드(δ1) 미만인지 여부를 더 판단(420)한다. When the first characteristic is less than the hold time of the first thread, the estimation unit 100 further determines whether or not the first-first features (e.g., m (a_z) k) is less than the first-first threshold (δ1) ( 420) will be. 제1-1 특징이 제1-1 스레시홀드 미만인 경우, 추정 장치(100)는 걷기(walking)를 상기 사용자 활동으로서 결정한다. If the first-first feature is less than the first-first threshold, the estimation unit 100 determines a walking (walking), as the user activity. 제1-1 특징이 제1-1 스레시홀드 이상인 경우, 추정 장치(100)는 제1-2 특징(예컨대, v(a_x) k - v(a_y) k )이 제1-2 스레시홀드(ζ1) 미만인지 여부를 더 판단(430)한다. If the first-first characteristics than the first-first threshold, the estimation unit 100 has the first-second features (e.g., v (a_x) k - v (a_y), k) holding the thread when the first-second whether under (ζ1) it is further judged (430). 제1-2 특징이 제1-2 스레시홀드 미만인 경우, 추정 장치(100)는 정지(standing)를 상기 사용자 활동으로서 결정한다. If the claim 1-2 characterized in the first-second threshold is less than, estimator 100 determines a stop (standing) as the user activity. 제1-2 특징이 제1-2 스레시홀드 이상인 경우, 자전거 타기(biking)을 상기 사용자 활동으로서 결정한다. If the first-second feature is not less than the first-second threshold, cycling (biking) determines, as the user activity.

또한, 도 4b를 참조하면, 제1 특징(예컨대, v(a) k )이 제1 스레시홀드(ε1) 이상인 경우, 추정 장치(100)는 제1 특징(예컨대, v(a) k )이 제2 스레시홀드(ε2)인 미만인지 여부를 더 판단(440)한다. Also, Referring to Figure 4b, a first characteristic (e.g., v (a) k) is first not less than a threshold (ε1), estimator 100, a first characteristic (e.g., v (a) k) is the second is whether less than a threshold (ε2) further determines (440). 제1 특징이 제2 스레시홀드(ε2)인 미만인 경우, 추정 장치(100)는 제2-1 특징(예컨대, g(b) k )이 제2-1 스레시홀드(G) 미만인지 여부를 더 판단(450)한다. Whether the first feature is less than a second is less than the threshold (ε2), estimator 100 includes a second-first features (e. G., G (b), k) the second-first threshold (G) a further determination 450. 제2-1 특징이 제2-1 스레시홀드 이상인 경우, 추정 장치(100)는 등산하기(claiming)를 상기 사용자 활동으로서 결정한다. If the second-first characteristics than the second-first threshold, the estimation unit 100 determines, as the user activity to climb (claiming). 제2-1 특징이 제2-1 스레시홀드 미만인 경우, 추정 장치(100)는 제 2-2 특징(예컨대, m(a_x) k - m(a_y) k )이 제 2-2 스레시홀드(ρ1) 미만인지 여부를 더 판단(460)한다. If the second-first feature is less than the second-first threshold, the estimation unit 100 has the second-second features (e.g., m (a_x) k - m (a_y) k) hold the thread during the 2-2 whether under (ρ1) further determines (460). 제 2-2 특징이 제 2-2 스레시홀드 미만인 경우, 추정 장치(100)는 걷기를 상기 사용자 활동으로서 결정한다. If the claim 2-2 characterized in the second-second threshold is less than, and determines, as the user activity estimation device 100 is walking. 제 2-2 특징이 제 2-2 스레시홀드 이상인 경우, 추정 장치(100)는 자전거 타기를 상기 사용자 활동으로서 결정한다. 2-2, if the feature of claim 2-2 or more threshold, the estimation unit 100 determines, as the user activity cycling.

또한, 도 4c를 참조하면, 제 1 특징(예컨대, v(a) k )이 제2 스레시홀드(ε2) 이상인 경우, 추정 장치(100)는 제3-1 특징(예컨대, m_r k )이 제3-1 스레시홀드(T_R) 미만인지 여부를 더 판단(470)한다. Also, Referring to Figure 4c, a first characteristic (e.g., v (a), k), estimator 100 3-1 characterized (e.g., m_r k) is not less than the second threshold (ε2) is the further determines (470) whether the 3-1 under the threshold (T_R). 제3-1 특징이 제3-1 스레시홀드 미만인 경우, 추정 장치(100)는 탁구 치기(table tennis)를 상기 사용자 활동으로서 결정한다. The claim 3-1 characterized in the case 3-1 is less than the threshold, the estimation unit 100 has hit table tennis (table tennis), and determines, as the user activity. 제3-1 특징이 제3-1 스레시홀드 이상인 경우, 추정 장치(100)는 제3-2 특징(예컨대, v(a_x) k - v(a_y) k )이 제3-2 스레시홀드(ε3) 미만인지 여부를 더 판단(480)한다. If the claim 3-1 characterized in more than 3-1 the threshold, the estimation unit 100 has 3-2 characterized (e.g., v (a_x) k - v (a_y) k) hold the thread during 3-2 whether under (ε3) further determines (480). 제3-2 특징이 제3-2 스레시홀드 미만인 경우, 추정 장치(100)는 줄넘기(jumping lope)를 상기 사용자 활동으로서 결정한다. If the claim 3-2 characterized in claim 3-2 is less than the threshold, the estimator 100 is jumping rope (jumping lope) determines, as the user activity. 제3-2 특징이 제3-2 스레시홀드 이상인 경우, 추정 장치(100)는 달리기(running)를 상기 사용자 활동으로서 결정한다. 3-2, if the feature of claim 3-2 or more threshold, the estimation unit 100 determines a running (running), as the user activity.

또한, 추정 장치(100)는 상술한 방법을 각 모션 특징들 모두에 적용하여 각 모션 특징에 대한 사용자 활동을 결정할 수 있다. Further, the estimator 100 may determine a user activity for each motion characterized by applying the method described above to all of the respective motion feature. 또한, 추정 장치(100)는 결정된 사용자 활동에 기초하여 최종 사용자 활동을 추정할 수 있다. Further, the estimator 100 may estimate the end-user activity based on the determined user activity. 예를 들면, 모션 특징의 각각에 대한 사용자 활동들 중 등산 하기가 가장 많은 수의 사용자 활동인 경우, 추정 장치(100)는 등산 하기를 최종 사용자 활동으로 추정할 수 있다. For example, if the user activity is to climbing of the user activity for each of the motion features the largest number, estimator 100 may estimate the end-user action to climb.

또한, 추정 장치(100)는 미리 결정된 검증 알고리즘을 이용하여 추정된 최종 사용자 활동을 검증할 수 있다. Further, the estimator 100 may be able to verify the end-user activity estimated using a predetermined validation algorithm. 예를 들면, 추정 장치(100)는 GPS 센서를 이용하여 GPS 센서 데이터를 더 획득하고, 획득된 GPS 센서에 기초하여 사용자의 위치를 산출하고, 사용자의 위치가 산인지 여부를 판단하여 최종 사용자 활동을 검증할 수 있다. For example, estimator 100 may use the GPS sensor further acquire the GPS sensor data, and based on the obtained GPS sensor calculates the location of the user determines whether or not the user's location the acid end-user activity the can be verified.

도 5는 일 실시예에 따른, 본 장치를 이용한 사용자 활동 추정의 실험 결과를 나타내는 도면이다. 5 is a diagram showing an experimental result of the estimated user activity with the device, according to one embodiment. 보다 상세하게, 도 5a는 피실험자가 6개의 활동(정지, 걷기, 달리기, 자전거 타기, 줄넘기, 탁구 치기)를 순차적으로 수행한 경우에 웨어러블 장치로부터 획득된 모션센서 데이터를 이용하여 상술한 방법에 따라 최종 사용자 활동을 추정한 실험 결과를 나타내는 도면이고, 도 5b는 피실험자가 4개의 활동(걷기, 뛰기, 자전거 타기, 줄넘기)를 순차적으로 수행한 경우에 웨어러블 장치로부터 획득된 모션센서 데이터를 이용하여 상술한 방법에 따라 사용자 활동을 추정한 실험 결과를 나타내는 도면이다. More specifically, the Figure 5a according to a method which subjects the six activities mentioned above by using the motion sensor data acquisition (Stop, walking, running, cycling, rope jumping, stroke table tennis) from a wearable device when the performed sequentially a diagram showing experimental results estimating the end-user activity, Figure 5b subjects four activities (walking, running, cycling, rope jumping), the above-mentioned by using a motion sensor data obtained from a wearable device when the performed sequentially a diagram showing an experimental result of the estimated user activity according to the method. 이때, 도 5a의 피실험자와 도 5b의 피실험자는 다른 피실험자이다. At this time, the subjects of the subjects of Figure 5a and Figure 5b is a different subject.

도 5a 및 5b를 참조하면, 1분 단위의 각 모션 특징으로부터 추정된 사용자 활동들 중 일부는 피실험자의 움직임의 단기적인 변화(예컨대, 자전거 타다가 잠시 멈추기)로 인하여 다른 사용자 활동으로 인식되는 경우가 생겼으나, 10분 동안의 각 모션 특징들을 조합함으로써 추정된 최종 사용자 활동은, 동일한 피실험자인지 여부 또는 피실험자가 수행한 활동의 종류에 관계없이 정확하게 추정됨을 알 수 있다. Referring to Figure 5a and 5b, some of the user activity estimates from each of the motion features of one minute has got a case that due to the (stop is for example, a bike ride while) the short-term changes in the subject motion recognition with other user activity but, the estimated by combining the respective motion characteristics of the end-user activity for 10 minutes, it can be seen that accurately estimated regardless of the type of the same subject or activity and whether a subject is performed.

도 6은 일 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 6 is a flowchart of user activity estimation method, according to one embodiment. 본 순서도에서는 도 1 내지 도 5의 설명과 중복되는 부분에 대한 설명은 생략하도록 한다. In this flow chart explanatory for the description of overlapping portions is from 1 to 5 will be omitted.

도 6을 참조하면, 추정 장치(100)는 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득할 수 있다(S10). 6, the estimator 100 may obtain the motion sensor data during the predetermined period from the motion sensor of the wearable device (S10). 일 실시예에서, 추정 장치(100)가 모바일 장치에 배치된 경우, 획득부는 웨어러블 장치와의 유/무선 통신을 통해 모션센서 데이터에 대한 데이터를 수신함으로써 모션센서 데이터를 획득할 수 있다. In one embodiment, it is possible to obtain a motion sensor data by receiving the data for the motion sensor data acquisition unit via a wire / wireless communication with the wearable device if estimator 100 is disposed on the mobile device.

추정 장치(100)는 모션센서 데이터를 하나 이상의 시간 간격으로 분해함으로써, 복수의 분해 모션센서 데이터를 생성할 수 있다(S20). Estimator 100 includes a motion sensor by decomposing the data into one or more time intervals, it is possible to generate a plurality of decomposition motion sensor data (S20). 일 실시예에서, 생성부는 획득된 모션센서 데이터를 제1 시간 간격으로 분해함으로써, n개의 분해 모션센서 데이터를 생성할 수 있다. In one embodiment, by generating unit decomposes the motion sensor data acquired in a first time interval, it is possible to generate the n number of decomposition motion sensor data. 다른 실시예에서, 생성부는 획득된 모션센서 데이터를 제2 시간 간격으로 더 분해함으로써, m개의 분해 모션센서 데이터를 더 생성할 수 있다. By another embodiment, the generating unit further decomposing the motion sensor data obtained with the second time interval, the method may further generates m decomposition motion sensor data.

추정 장치(100)는 복수의 분해 모션센서 데이터의 각각에 대한 모션 특징을 추출할 수 있다(S30). Estimator 100 may extract the motion features for each of the plurality of decomposition motion sensor data (S30). 일 실시예에서, 추출부는 n개의 분해 모션센서 데이터의 각각에 대한 n개의 모션 특징을 추출할 수 있다. In one embodiment, the extraction unit may extract the n number of motion characteristic for each of the n number of decomposition motion sensor data. 다른 실시예에서, 추출부는 생성된 n+m개의 분해 모션센서 데이터의 각각에 대한 n+m개의 모션 특징을 추출할 수 있다. In another embodiment, the extraction unit may extract the motion features: n + m for each of the generated n + m of decomposing motion sensor data. 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. In this case, each of the motion characteristics may include one or more features (feature value). 이 경우, 각 모션 특징은 하나 이상의 특징(특징 값)을 포함할 수 있다. In this case, each of the motion characteristics may include one or more features (feature value). 이에 대하여는 표 1에 설명된 바 자세한 설명은 생략한다. For this the bar details described in Table 1 will be omitted.

추정 장치(100)는 미리 결정된 분류 알고리즘에 기초하여 모션 특징들 각각을 분류하고, 분류 결과에 기초하여 모션 특징들 각각에 대응하는 사용자 활동을 결정할 수 있다(S40). Estimator 100 may be pre-determined based on the classification algorithm classifies each of the motion characteristic, and based on the result of classification to determine user activity corresponding to each of the motion features (S40). 일 실시예에서, 분류부는 추출된 n개의 모션 특징들을 각각 분류하여 대응하는 n개의 사용자 활동을 결정할 수 있다. In one embodiment, the classification unit may determine the activity of n user corresponding to each classification of the extracted n of motion features. 다른 실시예에서, 분류부는 추출된 n+m개의 모션 특징들을 각각 분류하여 대응하는 n+m개의 사용자 활동을 결정할 수 있다. In another embodiment, the classification unit may classify each of the extracted n + m of motion characteristics determine the corresponding n + m of user activity. 이에 대하여는 도 4a 내지 4c에 설명된 바 자세한 설명은 생략한다. For this the bar details described in Figures 4a to 4c will be omitted.

또한, 추정 장치(100)는 모션 특징들의 각각의 특징 값이 스레시홀드 값 이상인지 여부를 더 판단할 수 있다. Further, the estimation unit 100 may further determine whether or not each of the feature values ​​is a threshold value or more of the motion features. 이때, 분류부는 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여만 대응하는 사용자 활동을 결정하고, 특징 값이 스레시홀드 값 이상인 모션 특징들에 대하여는 사용자 활동을 결정하지 않을 수 있다. At this time, the classification unit may not determine a user action with respect to the motion feature or more feature values ​​are thresholds in the determination of the user activity only with respect to the corresponding threshold value or more motion characteristics, and the characteristic value is the threshold value.

추정 장치(100)는 결정된 사용자 활동들에 기초하여 최종 사용자 활동을 추정할 수 있다(S50). Estimator 100 may estimate the end-user activity on the basis of the determined user activity (S50). 일 실시예에서, 추정부는 결정된 사용자 활동들 중 가장 많은 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. In one embodiment, the estimation unit may determine the determined user activity with most having an identification number of the user activity, and the activities of the identified user as the end-user activity. 다른 실시예에서, 추정부는 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 더 판단할 수 있다. In other embodiments, may further determine whether or not the estimation unit number of the identified user activity above the threshold. 이때, 추정부는 식별된 사용자 활동의 수가 스레시홀드 이상인 경우에만, 식별된 사용자 활동을 최종 사용자 활동으로서 결정할 수 있다. In this case, the estimation unit, the identified user activity only when the number of the identified user activity threshold or greater can be determined as an end-user activity.

또한, 추정 장치(100)는 추출된 모션 특징에 기초하여 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 결정할 수 있다. Further, the estimator 100 is the intensity and frequency of the motion estimation based on the extracted motion feature end-user activity can be further determined. 여기서, 강도는 해당 활동의 강도 값으로서, 예를 들어, 해당 활동 시 소모되는 칼로리 값일 수 있다. Here, the strength is a strength value of the activity, for example, it may be a value of calories consumed during the activity. 또한, 모션 횟수는 해당 활동에 대응하는 모션 행동의 횟수로서, 예를 들어, 걸음 수, 스윙 횟수, 줄넘기 횟수 등일 수 있다. In addition, the number of motion may be a motion as a number of actions corresponding to the activity, for example, steps, swing count, skipping count.

또한, 추정 장치(100)는 사용자로부터 수행 중인 사용자 활동에 대한 정보를 입력 받을 수 있다. In addition, the estimation device 100 may receive input information on user activity being performed by the user. 이 경우, 추정 장치(100)는 입력된 사용자 활동에 대한 정보 및 결정된 사용자 활동들에 대한 정보에 기초하여, 최종 사용자 활동을 추정할 수 있다. In this case, the estimator 100 is based on the information on the information and the determined user activity on a user input action, it is possible to estimate the end-user activity.

도 7은 다른 실시예에 따른, 사용자 활동 추정 방법의 순서도이다. 7 is a flowchart of user activity estimation method, according to another embodiment. 본 순서도에서는 도 1 내지 도 6의 설명과 중복되는 부분에 대한 설명은 생략하도록 한다. The flowchart in FIG description of the overlapping portions and is of 1 to 6 will be omitted. 또한, S10 내지 S50에 대한 설명은 도 6의 설명과 동일하므로, 이하에서는 S70에 대하여만 설명하도록 한다. In addition, since the description of S10 to S50 is the same as that of Figure 6 illustration, the following description shall be described only with respect to S70.

도 7을 참조하면, 추정 장치(100)는 미리 결정된 검증 알고리즘을 이용하여 최종 사용자 활동을 검증할 수 있다(S70). 7, the estimator 100 may be able to verify the end-user activity using a predetermined validation algorithm (S70). 일 실시예에서, 추정 장치(100)는, 최종 사용자 활동을 추정하기 위한 제1 시간 간격과 상이한 제2 시간 간격으로 모션 센서 데이터를 더 분할하고, 이에 기초하여 상술한 방식과 동일한 방식으로 최종 사용자 활동을 더 추정함으로써, 이미 추정된 사용자 활동을 검증할 수 있다. In one embodiment, estimator 100 is further divided the motion sensor data in a first time interval and a second, different time interval for estimating the end-user activity, and the end-user in a similar manner as the above-described manner based thereon by further estimating the activity it can be verified that have already been estimated user activity. 다른 실시예에서, 추정 장치(100)는 최종 사용자 활동을 추정하기 위한 제1 모션 센서와 상이한 제2 모션 센서로부터 제2 모션센서 데이터를 획득하고, 획득된 제2 모션센서 데이터에 기초하여 이미 추정된 최종 사용자 활동을 검증할 수 있다. In another embodiment, estimator 100 is already estimated to obtain a second motion sensor data from a second motion sensor of the first motion sensor is different for estimating the end-user activity, based on the obtained second motion sensor data that can be verified end-user activity.

이와 같은, 사용자 활동 추정 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. Such user activity estimation method may be implemented, or implemented in the form of program instructions that may be performed through various computer components recorded in a computer-readable recording medium to the application. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. A computer-readable recording media may also include, alone or in combination with the program instructions, data files, data structures, and the like. 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. Program instructions recorded on a computer-readable recording medium may be one well-known and available to those skilled in the computer software field geoniwa things specially designed and constructed for the purposes of the present invention.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of the computer readable recording medium, such as hard disks, floppy disks, and magnetic tape media, CD-ROM, such as an optical recording medium, flop tikeol disk (floptical disk) such as DVD magneto-optical medium (magneto-optical storing program instructions, such as media), and ROM, RAM, flash memory, hardware devices that are specially configured to, perform. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. Examples of program instructions include, the use of such as both machine code, such as produced by a compiler, interpreter to contain higher level code that may be executed by a computer. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Hardware devices may be configured to act as one or more software modules in order to perform the process according to the invention, and vice versa.

또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다. In been shown and described with respect to preferred embodiments above, the present disclosure one of ordinary skill in the belonging to the art herein without this shall not be construed as limited to the embodiments of the above-mentioned specific, departing from the subject matter of claims in claims art various modifications and embodiments are possible as well as by a person, this modified embodiment would should not be understood individually from the technical spirit or prospect of the present disclosure.

또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다. In addition, it is in this specification to describe all these things invention and the invention method, as needed, in the amount described invention can be applied to complementary.

100: 사용자 활동 추정 장치 110: 모션센서 데이터 획득부 100: user activity estimator 110: the motion sensor data acquisition section
120: 분해 모션센서 데이터 생성부 130: 모션 특징 추출부 120: generator decomposition motion sensor data 130: motion feature extraction unit
140: 모션 특징 분류부 150: 사용자 활동 추정부 140: motion characteristic classifying unit 150: user activity estimation
160: 사용자 활동 검증부 160: 입력부 160: user activity verification unit 160: input unit

Claims (23)

  1. 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 모션센서 데이터 획득부; Obtaining a motion sensor data during the predetermined period from the motion sensor of the wearable device motion sensor data acquisition section;
    상기 모션센서 데이터를 제1 시간 간격으로 분해하여 n개의 분해 모션센서 데이터를 생성하고, 상기 모션센서 데이터를 상기 제1 시간 간격과 상이한 제2 시간 간격으로 분해하여 m개의 분해 모션센서 데이터를 생성하는 분해 모션센서 데이터 생성부; By decomposing the motion sensor data in a first time interval n of decomposition and generate a motion sensor data, to decompose the motion sensor data in the first time interval and a second, different time interval to generate m number of decomposition motion sensor data decomposition motion sensor data generator;
    상기 n개의 분해 모션센서 데이터 및 상기 m개의 분해 모션센서 데이터의 각각에 대응하는 모션 특징을 추출하는 모션 특징 추출부; Motion feature extraction unit for extracting a motion feature corresponding to each of the n decomposition motion sensor data and the m decomposition motion sensor data;
    미리 결정된 분류 알고리즘에 기초하여 추출된 모션 특징들의 각각을 분류하여 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 모션 특징 분류부; Previously it classifies each of the motion feature extraction based on the determined motion classification algorithm unit characterized classification for determining a user action corresponding to each of the extracted motion feature; And
    결정된 m+n개의 사용자 활동들 중 최대의 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 이상인 경우, 상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하는 사용자 활동 추정부를 포함하는, 사용자 활동 추정 장치. Determined m + n of identifying user activities up to the user activity with a number of, and the number of the identified user activity preset threshold or more when, for the identified user activity unit estimates user activity for estimating an end-user activity user activity estimation device, including.
  2. 제 1 항에 있어서, According to claim 1,
    상기 사용자 활동 추정부는, The user activity estimation unit,
    상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 미만인 경우, If the number of the identified user activity is less than the hold when preset thresholds,
    상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하지 않거나, 또는 Does not assume that the identified user activity as an end-user activity, or
    상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하면서 상기 추정된 최종 사용자 활동에 대한 인식률을 사용자에게 제공하는, 사용자 활동 추정 장치. Wherein the identified user activity while estimating a end-user action to provide a recognition of the end user the estimated activities for the user, estimates a user activity device.
  3. 삭제 delete
  4. 삭제 delete
  5. 삭제 delete
  6. 삭제 delete
  7. 제 1 항에 있어서, According to claim 1,
    상기 추출된 모션 특징들의 각각은 복수의 특징 값들을 포함하고, Each of the extracted motion feature comprises a plurality of feature values,
    상기 모션 특징 분류부는, The motion feature classification unit,
    상기 추출된 모션 특징들의 각각에 대하여, 미리 정해진 특징 값들 사이의 우선 순위에 따라 각 특징 값들과 상기 각 특징 값들에 대응하는 스레시홀드 값들을 순차적으로 비교함으로써, 상기 추출된 모션 특징들의 각각을 분류하여 대응하는 사용자 활동을 결정하는 것을 특징으로 하는, 사용자 활동 추정 장치. For each of the extracted motion feature, by comparing the threshold value corresponding to the respective feature values ​​with the respective feature values ​​in order of preference between predetermined feature values ​​sequentially, classifying each of the extracted motion feature and characterized in that corresponding to the determined user activity, user activity estimation device.
  8. 제 1 항에 있어서, According to claim 1,
    상기 사용자 활동 추정부는, The user activity estimation unit,
    상기 추출된 모션 특징들에 기초하여 상기 추정된 최종 사용자 활동의 강도 및 모션 횟수를 더 추정하는, 사용자 활동 추정 장치. The extracted motion feature of further estimation of user activity estimator, that the intensity and frequency of the motion estimation based on the end-user activity.
  9. 제 1 항에 있어서, According to claim 1,
    사용자로부터, 상기 사용자가 현재 수행 중인 사용자 활동에 대한 정보를 입력 받는 입력부를 더 포함하고, From the user, and the user further includes an input for receiving information about user activities currently being carried out,
    상기 사용자 활동 추정부는, The user activity estimation unit,
    상기 사용자에 의해 입력된 사용자 활동에 대한 정보 및 상기 모션 특징 분류부에 의해 결정된 사용자 활동들에 대한 정보 둘 모두에 기초하여, 상기 최종 사용자 활동을 추정하는, 사용자 활동 추정 장치. Information and the information both on the basis of all, an apparatus, a user activity estimation for estimating the end-user activity for the user activity is determined by the motion feature classifying unit for a user action input by the user.
  10. 제 1 항에 있어서, According to claim 1,
    미리 결정된 검증 알고리즘을 이용하여 상기 최종 사용자 활동을 검증하는 사용자 활동 검증부를 더 포함하는, 사용자 활동 추정 장치. Using a predetermined validation algorithm further comprises a user activity verification to verify that the end-user activity, user activity estimator.
  11. 제 10 항에 있어서, 11. The method of claim 10,
    상기 사용자 활동 검증부는, The user activity verification unit,
    상기 모션 센서와 상이한 제2 모션 센서로부터 획득된 제2 모션센서 데이터에 기초하여 상기 최종 사용자 활동을 검증하는, 사용자 활동 추정 장치. The motion sensor and the second motion different from the first to the user activity estimation device, for verifying the end-user activity based on the sensor data obtained from the motion sensor.
  12. 삭제 delete
  13. 웨어러블 장치의 모션 센서로부터 미리 설정된 기간 동안의 모션센서 데이터를 획득하는 단계; Obtaining a motion sensor data during the time period previously set from a motion sensor on the wearable device;
    상기 모션센서 데이터를 제1 시간 간격으로 분해하여 n개의 분해 모션센서 데이터를 생성하고, 상기 모션센서 데이터를 상기 제1 시간 간격과 상이한 제2 시간 간격으로 분해하여 m개의 분해 모션센서 데이터를 생성하는 단계; By decomposing the motion sensor data in a first time interval n of decomposition and generate a motion sensor data, to decompose the motion sensor data in the first time interval and a second, different time interval to generate m number of decomposition motion sensor data step;
    상기 n개의 분해 모션센서 데이터 및 상기 m개의 분해 모션센서 데이터의 각각에 대응하는 모션 특징을 추출하는 단계; Extracting a motion feature corresponding to each of the n decomposition motion sensor data and the m decomposition motion sensor data;
    미리 결정된 분류 알고리즘에 기초하여 추출된 모션 특징들의 각각을 분류하여 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계; By classifying each of the motion feature extraction based on a predetermined classification algorithm determining a user action corresponding to each of the extracted motion feature; And
    결정된 m+n개의 사용자 활동 중 최대의 수를 갖는 사용자 활동을 식별하고, 식별된 사용자 활동의 수가 스레시홀드 이상인지 여부를 판단하는 단계; It determined identifying a user action having the maximum number of m + n of user activity, and determines whether or not the number of the threshold or more of the identified user activity; And
    상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 이상인 경우, 상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하는, 최종 사용자 활동 추정 단계를 포함하는, 사용자 활동 추정 방법. The case where the number of the identified user activity preset threshold or more, the activity of the identified user to estimate a end-user activity, including the estimated phase end-user activity, user activity estimation method.
  14. 제 13 항에 있어서, 14. The method of claim 13,
    상기 최종 사용자 활동 추정 단계는, Estimating step is the end-user activity,
    상기 식별된 사용자 활동의 수가 미리 설정된 스레시홀드 미만인 경우, If the number of the identified user activity is less than the hold when preset thresholds,
    상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하지 않거나, 또는 Does not assume that the identified user activity as an end-user activity, or
    상기 식별된 사용자 활동을 최종 사용자 활동으로서 추정하고, 상기 추정된 최종 사용자 활동에 대한 인식률을 사용자에게 제공하는 단계를 더 포함하는, 사용자 활동 추정 방법. The estimated activity of the identified user as the end-user activity, further comprising the step of providing the recognition rate for the end-user action to the user to estimate the estimated user activity method.
  15. 삭제 delete
  16. 삭제 delete
  17. 삭제 delete
  18. 제 13 항에 있어서, 14. The method of claim 13,
    상기 추출된 모션 특징들의 각각은 복수의 특징 값들을 포함하고, Each of the extracted motion feature comprises a plurality of feature values,
    상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계는, Determining a user action corresponding to each of the extracted motion feature is
    상기 추출된 모션 특징들의 각각에 대하여, 미리 정해진 특징 값들 사이의 우선 순위에 따라 각 특징 값들과 상기 각 특징 값들에 대응하는 스레시홀드 값들을 순차적으로 비교함으로써, 상기 추출된 모션 특징들의 각각을 분류하여 대응하는 사용자 활동을 결정하는 것을 특징으로 하는, 사용자 활동 추정 방법. For each of the extracted motion feature, by comparing the threshold value corresponding to the respective feature values ​​with the respective feature values ​​in order of preference between predetermined feature values ​​sequentially, classifying each of the extracted motion feature and characterized in that corresponding to the determined user activity, user activity estimation method.
  19. 제 13 항에 있어서, 14. The method of claim 13,
    상기 최종 사용자 활동 추정 단계는, Estimating step is the end-user activity,
    상기 추출된 모션 특징들에 기초하여 상기 추정된 최종 사용자 활동의 강도 및 모션 횟수를 결정하는 단계를 더 포함하는, 사용자 활동 추정 방법. The cost on the basis of the motion feature extraction further comprises the step of determining the intensity and motion of the estimated number of end-user activity, user activity estimation method.
  20. 제 13 항에 있어서, 14. The method of claim 13,
    사용자로부터, 상기 사용자가 현재 수행 중인 사용자 활동에 대한 정보를 입력 받는 단계를 더 포함하고, From the user, and the user further comprises the step of receiving information about user activities currently being carried out,
    상기 최종 사용자 활동 추정 단계는, Estimating step is the end-user activity,
    상기 사용자에 의해 입력된 사용자 활동에 대한 정보 및 상기 추출된 모션 특징들의 각각에 대응하는 사용자 활동을 결정하는 단계에 의해 결정된 사용자 활동들에 대한 정보 둘 모두에 기초하여, 상기 최종 사용자 활동을 추정하는, 사용자 활동 추정 방법. On the basis of all information both for the user activity information and determined by determining a user action corresponding to each of the extracted motion feature for the user action input by the user, for estimating the end-user activity how estimation of user activity.
  21. 제 13 항에 있어서, 14. The method of claim 13,
    상기 최종 사용자 활동을 추정하는 단계 이후에, After the step of estimating the end-user activity,
    미리 결정된 검증 알고리즘을 이용하여 상기 최종 사용자 활동을 검증하는 단계를 더 포함하는, 사용자 활동 추정 방법. Using a predetermined validation algorithm further comprises the step of verifying the end-user activity, user activity estimation method.
  22. 제 21 항에 있어서, 22. The method of claim 21,
    상기 최종 사용자 활동을 검증하는 단계는, Verifying the end-user activity,
    상기 모션 센서와 상이한 제2 모션 센서로부터 획득된 제2 모션센서 데이터에 기초하여 상기 최종 사용자 활동을 검증하는, 사용자 활동 추정 방법. The motion sensors and a second, different method estimates the second to verify the end-user activity based on the motion sensor data, user activity obtained from the motion sensor.
  23. 삭제 delete
KR1020150015045A 2015-01-30 2015-01-30 Device and method for estimating user activity KR101644417B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity
PCT/KR2016/000294 WO2016122141A1 (en) 2015-01-30 2016-01-12 Device and method for estimating user activities

Publications (1)

Publication Number Publication Date
KR101644417B1 true KR101644417B1 (en) 2016-08-03

Family

ID=56543700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150015045A KR101644417B1 (en) 2015-01-30 2015-01-30 Device and method for estimating user activity

Country Status (2)

Country Link
KR (1) KR101644417B1 (en)
WO (1) WO2016122141A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293575B1 (en) 2012-11-27 2013-08-12 주식회사 휘트닷라이프 Apparatus of measuring surpluscalories using time of activity information
US20140288877A1 (en) * 2013-03-15 2014-09-25 Aliphcom Intermediate motion signal extraction to determine activity
KR101461464B1 (en) * 2014-06-18 2014-11-18 김경태 Smart band and biometric authentication method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2417905A1 (en) * 2004-06-18 2012-02-15 Adidas AG Systems and methods for real-time physiological monitoring
CA2800123C (en) * 2012-01-04 2016-07-05 Nike International Ltd. Athletic watch
US9011292B2 (en) * 2010-11-01 2015-04-21 Nike, Inc. Wearable device assembly having athletic functionality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293575B1 (en) 2012-11-27 2013-08-12 주식회사 휘트닷라이프 Apparatus of measuring surpluscalories using time of activity information
US20140288877A1 (en) * 2013-03-15 2014-09-25 Aliphcom Intermediate motion signal extraction to determine activity
KR101461464B1 (en) * 2014-06-18 2014-11-18 김경태 Smart band and biometric authentication method thereof

Also Published As

Publication number Publication date
WO2016122141A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
Kwapisz et al. Cell phone-based biometric identification
Sun et al. Activity recognition on an accelerometer embedded mobile phone with varying positions and orientations
Kose et al. Online human activity recognition on smart phones
US20130194066A1 (en) Motion profile templates and movement languages for wearable devices
Pratama et al. Smartphone-based pedestrian dead reckoning as an indoor positioning system
Martín et al. Activity logging using lightweight classification techniques in mobile devices
JP4904861B2 (en) Body movement detecting apparatus, body-movement detecting method and body motion detecting program
US9839809B2 (en) Method, apparatus, and computer program product for determining play events and outputting events based on real-time data for proximity, movement of objects, and audio data
US9504408B2 (en) Use of gyroscopes in personal fitness tracking devices and bicycling activities
US9568492B2 (en) Fitness monitoring device with altimeter and gesture recognition
US9044149B2 (en) Heart rate data collection
US9597014B2 (en) GPS accuracy refinement using external sensors
US9665873B2 (en) Automated physical activity classification
US9456787B2 (en) Wearable heart rate monitor
US9014790B2 (en) Heart rate data collection
US9641239B2 (en) Adaptive data transfer using bluetooth
US20140358473A1 (en) Dynamic sampling
CN104135911B (en) A multi-axis activity classification activity monitoring device
WO2015006364A3 (en) Method and system for sleep management
WO2002003076A3 (en) Systems and methods for assessing and modifying an individual's physiological condition
EP3153093B1 (en) Method and apparatus for generating assessments using physical activity and biometric parameters
KR101669649B1 (en) Activity points
CA2588275A1 (en) Multiscale variable domain decomposition method and system for iris identification
Henpraserttae et al. Accurate activity recognition using a mobile phone regardless of device orientation and location
JP2016539673A (en) Calculation of pace and energy consumption from the athletic movement attribute

Legal Events

Date Code Title Description
GRNT Written decision to grant