KR101733746B1 - User context based motion counting method, sensor device and wearable device performing the same - Google Patents
User context based motion counting method, sensor device and wearable device performing the same Download PDFInfo
- Publication number
- KR101733746B1 KR101733746B1 KR1020150148565A KR20150148565A KR101733746B1 KR 101733746 B1 KR101733746 B1 KR 101733746B1 KR 1020150148565 A KR1020150148565 A KR 1020150148565A KR 20150148565 A KR20150148565 A KR 20150148565A KR 101733746 B1 KR101733746 B1 KR 101733746B1
- Authority
- KR
- South Korea
- Prior art keywords
- user context
- sensor data
- determining
- motion
- motion counting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001914 filtration Methods 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
사용자 컨텍스트 기반 움직임 카운팅 방법, 이를 수행하는 센서 장치 및 웨어러블 장치가 제공된다. 상기 사용자 컨텍스트 기반 움직임 카운팅 방법은 센서 데이터로부터 적어도 하나의 특징(feature)을 추출하는 단계, 상기 추출된 특징을 기초로 사용자 컨텍스트(context)를 식별하는 단계, 상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘을 결정하는 단계, 및 상기 결정된 움직임 카운팅 알고리즘을 이용하여, 상기 센서 데이터를 기초로 사용자의 움직임을 카운팅하는 단계를 포함한다.A user context based motion counting method, a sensor device for performing the motion counting method, and a wearable device are provided. Wherein the user context based motion counting method comprises: extracting at least one feature from sensor data; identifying a user context based on the extracted feature; determining a motion count based on the identified user context; Determining an algorithm based on the sensor data and using the determined motion counting algorithm to count a user's movement based on the sensor data.
Description
본 발명은 사용자의 움직임을 카운팅하는 방법에 관한 것으로, 보다 상세하게는 사용자 컨텍스트 기반 움직임 카운팅 방법, 이를 수행하는 센서 장치 및 웨어러블 장치에 관한 것이다.The present invention relates to a method of counting a user's movement, and more particularly, to a user context-based motion counting method, a sensor device and a wearable device performing the motion counting method.
웨어러블 장치는 사용자의 신체에 착용될 수 있는 형태로 제공되는 컴퓨터 시스템을 나타낸다. 웨어러블 장치는 각종 센서를 이용하여 사용자의 움직임을 측정하고, 측정 결과를 사용자에게 제공할 수 있다. 웨어러블 장치는 사용자의 운동 동작을 매뉴얼하게 입력받고, 입력받은 운동 동작이 반복되는 횟수를 카운팅할 수 있다. 그리고, 웨어러블 장치는 사용자의 움직임을 특정 주기로 모니터링하여, 칼로리 소모량, 활동 시간 등의 부가적인 정보도 제공할 수 있다.A wearable device represents a computer system that is provided in a form that can be worn on the wearer's body. The wearable device can measure the movement of the user by using various sensors and provide the measurement result to the user. The wearable device can manually input a user's motion operation and count the number of times the input motion motion is repeated. The wearable device monitors the movement of the user at a specific period of time and can provide additional information such as the amount of calories consumed and the activity time.
본 발명의 기술적 과제는, 보다 정확하게 사용자의 움직임을 카운팅할 수 있는 사용자 컨텍스트 기반 움직임 카운팅 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a user context-based motion counting method that can more accurately count user's movements.
본 발명의 다른 기술적 과제는, 보다 직관적이고 편리하게 사용자의 움직임을 카운팅할 수 있는 사용자 컨텍스트 기반 움직임 카운팅 방법을 제공하는 것이다.It is another object of the present invention to provide a user context-based motion counting method that can count user's movements more intuitively and conveniently.
본 발명의 또 다른 기술적 과제는, 상기 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 장치 및 웨어러블 장치를 제공하는 것이다.Another object of the present invention is to provide a sensor device and a wearable device for performing the user context based motion counting method.
본 발명의 기술적 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한 본 발명의 일 면에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법은, 센서 데이터로부터 적어도 하나의 특징(feature)을 추출하는 단계, 상기 추출된 특징을 기초로 사용자 컨텍스트(context)를 식별하는 단계, 상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘을 결정하는 단계, 및 상기 결정된 움직임 카운팅 알고리즘을 이용하여, 상기 센서 데이터를 기초로 사용자의 움직임을 카운팅하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of counting motion based on a user context, the method comprising: extracting at least one feature from sensor data; determining a user context based on the extracted feature; Determining a motion counting algorithm based on the identified user context, and counting a user's movement based on the sensor data using the determined motion counting algorithm.
본 발명의 일부 실시예에서, 상기 추출된 특징은, 상기 센서 데이터의 적어도 하나의 통계 값을 포함할 수 있다.In some embodiments of the present invention, the extracted feature may comprise at least one statistical value of the sensor data.
본 발명의 일부 실시예에서, 상기 사용자 컨텍스트를 식별하는 단계는, KNN(K-Nearest Neighborhood) 알고리즘을 이용하여 상기 추출된 특징을 기초로 사용자 컨텍스트를 식별할 수 있다.In some embodiments of the present invention, identifying the user context may identify the user context based on the extracted feature using a K-Nearest Neighborhood (KNN) algorithm.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관(autocorrelation) 파라미터를 결정하되, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터를 결정하고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터를 결정할 수 있다.In some embodiments of the present invention, the step of determining the motion counting algorithm comprises determining an autocorrelation parameter of a motion counting algorithm based on the identified user context, Parameters, and determine a second autocorrelation parameter for a second user context.
또한, 상기 자기상관 파라미터는, 상기 센서 데이터 내에 포함되는 피크(peak)의 반복 주기에 상응할 수 있다.Also, the autocorrelation parameter may correspond to a repetition period of a peak included in the sensor data.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘을 결정할 수 있다.In some embodiments of the present invention, the step of determining the motion counting algorithm comprises determining a first motion counting algorithm for a first user context based on the identified user context, and determining a second motion counting algorithm for a second user context, The counting algorithm can be determined.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘은, 상기 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함하고, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 상기 필터링 설정을 결정하되, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정을 결정할 수 있다.In some embodiments of the present invention, the motion counting algorithm comprises filtering for sensor data in a predetermined frequency range of the sensor data, and wherein the step of determining the motion counting algorithm comprises, based on the identified user context Determine the filtering setting, determine a first filtering setting for the first user context, and determine a second filtering setting for the second user context.
본 발명의 일부 실시예에서, 상기 방법은, 가속도 센서 또는 자이로 센서로부터 상기 센서 데이터를 획득하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method may further comprise obtaining the sensor data from an acceleration sensor or a gyro sensor.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 면에 따른 센서 장치는, 상술한 사용자 컨텍스트 기반 움직임 카운팅 방법 중 어느 하나를 수행할 수 있다.According to another aspect of the present invention, there is provided a sensor device capable of performing any one of the above-described user context based motion counting methods.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 웨어러블 장치는, 상술한 사용자 컨텍스트 기반 움직임 카운팅 방법 중 어느 하나를 수행할 수 있다.According to another aspect of the present invention, there is provided a wearable apparatus capable of performing any one of the above-described user context-based motion counting methods.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명의 사용자 컨텍스트 기반 움직임 카운팅 방법에 의하면, 사용자 컨텍스트가 식별되고, 식별된 사용자 컨텍스트별로 보다 적합한 움직임 카운팅 알고리즘이 결정되므로, 보다 정확하게 사용자의 움직임을 카운팅할 수 있다.According to the user context based motion counting method of the present invention, a user context is identified and a more suitable motion counting algorithm is determined for each identified user context, so that the motion of the user can be counted more accurately.
또한, 사용자 컨텍스트 식별을 위하여, 별도로 사용자의 직접적인 입력 또는 선택이 요구되지 않으므로, 보다 직관적이며 사용자 편의성이 제고될 수 있다.In addition, since direct input or selection of the user is not required separately for user context identification, it is more intuitive and user-friendly.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 개략적으로 도시하는 흐름도이다.
도 2는 KNN 알고리즘을 이용하여 사용자 컨텍스트를 식별하는 것을 개략적으로 도시하는 도면이다.
도 3은 사용자 컨텍스트를 기초로 자기상관 파라미터를 결정하는 것을 개략적으로 도시하는 도면이다.
도 4는 사용자 컨텍스트를 기초로 센서 데이터에 대한 필터링 설정을 결정하는 것을 개략적으로 도시하는 도면이다.
도 5는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.
도 6은 도 5의 웨어러블 장치가 사용자의 신체에 착용된 상태를 개략적으로 도시하는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.
도 8은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.
도 9는 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.FIG. 1 is a flowchart schematically illustrating a user context-based motion counting method according to an embodiment of the present invention.
2 is a diagram schematically illustrating identification of a user context using a KNN algorithm.
3 is a diagram schematically illustrating determination of autocorrelation parameters based on a user context.
4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context.
5 is a block diagram schematically illustrating a wearable device for performing a user context-based motion counting method according to an embodiment of the present invention.
FIG. 6 is a view schematically showing a state in which the wearable device of FIG. 5 is worn by the wearer's body.
7 is a block diagram schematically illustrating a wearable device for performing a user context-based motion counting method according to another embodiment of the present invention.
FIG. 8 is a block diagram schematically illustrating a sensor hub for performing a user context-based motion counting method according to an embodiment of the present invention.
9 is a block diagram schematically illustrating a sensor hub for performing a user context-based motion counting method according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. However, it is to be understood that the present invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. It is to be understood by those of ordinary skill in the art that the present invention is not limited to the above embodiments, but may be modified in various ways. Like reference numerals refer to like elements throughout the specification.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it is needless to say that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, element or section from another element, element or section. Therefore, it goes without saying that the first element, the first element or the first section mentioned below may be the second element, the second element or the second section within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.
도 1은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 개략적으로 도시하는 흐름도이다.FIG. 1 is a flowchart schematically illustrating a user context-based motion counting method according to an embodiment of the present invention.
도 1을 참조하면, 단계 S10에서, 가속도 센서, 자이로 센서 또는 이들이 결합된 적어도 하나의 센서로부터 센서 데이터가 획득된다. 센서 데이터는 3축 방향(예를 들어, X축, Y축, Z축)의 가속도 데이터 또는 3축 방향(예를 들어, 피치(Pitch)축, 요(Yaw)축, 롤(Roll)축)의 각속도 데이터를 포함할 수 있으나, 이에 제한되는 것은 아니다. 실시예에 따라, 센서 데이터에 대한 소정의 샘플링(Sampling) 또는 양자화(Quantization) 등의 처리가 제공될 수 있다.Referring to FIG. 1, in step S10, sensor data is obtained from an acceleration sensor, a gyro sensor, or at least one sensor to which they are coupled. The sensor data may include acceleration data in three axial directions (e.g., X, Y, and Z axes) or acceleration data in three axial directions (e.g., a pitch axis, a yaw axis, But is not limited to, angular velocity data. Depending on the embodiment, processing such as predetermined sampling or quantization of the sensor data may be provided.
이어서, 단계 S20에서, 센서 데이터로부터 적어도 하나의 특징이 추출된다. 특징은 센서 데이터가 다른 센서 데이터와 구별되는 측면 또는 성분을 나타낸다. 특징은 센서 데이터의 전체적인 부분을 표현하거나, 센서 데이터의 일부를 표현할 수 있다. 예를 들어, 특징은 센서 데이터의 적어도 하나의 통계 값을 포함할 수 있다. 예를 들어, 통계 값은 (샘플링된) 소정의 개수의 센서 데이터의 최대 값, 최소 값, 중간 값, 평균 값, IQR(Interquartile Range) 값, RMS(Root Mean Square) 값 등을 포함할 수 있으나, 이에 제한되는 것은 아니다. 특징은 센서 데이터에 대한 임의의 처리에 의해서 추출될 수도 있다.Then, in step S20, at least one feature is extracted from the sensor data. The feature indicates the aspect or component in which the sensor data is differentiated from the other sensor data. The feature can represent the whole part of the sensor data or represent part of the sensor data. For example, the feature may include at least one statistical value of the sensor data. For example, the statistical value may include a maximum value, a minimum value, an intermediate value, an average value, an IQR (Interquartile Range) value, a root mean square (RMS) value, and the like of a predetermined number of sampled sensor data , But is not limited thereto. The feature may be extracted by arbitrary processing on the sensor data.
이어서, 단계 S30에서, 추출된 특징을 기초로 사용자 컨텍스트가 식별된다. 사용자 컨텍스트는 사용자의 상황(Situation) 또는 이를 정의하는 정보를 나타낸다. 사용자 컨텍스트는 사용자의 움직임을 특정할 수 있는 동작의 종류와 관련될 수 있다. 예를 들어, 사용자 컨텍스트는 푸쉬 업(Push Up), 바이셉스 컬(Biceps Curls), 로잉(Rowing) 등의 각종 운동 동작으로 구분될 수 있으나, 이에 제한되는 것은 아니다.Then, in step S30, the user context is identified based on the extracted features. The user context represents a user's situation or information defining the situation. The user context may be related to the type of action that can specify the user's movement. For example, the user context may be classified into various types of exercise operations such as push-up, biceps curls, and rowing, but is not limited thereto.
예를 들어, KNN 알고리즘을 이용하여 사용자 컨텍스트가 식별될 수 있다. 도 2는 KNN 알고리즘을 이용하여 사용자 컨텍스트를 식별하는 것을 개략적으로 도시하는 도면이다. 도 2를 참조하면, 복수 개의 특징이 KNN 알고리즘을 이용하여 처리된다. KNN 알고리즘에 의하여, 복수 개의 특징은 기 분류된 또는 학습된 특징들과 비교되고, 동일 또는 유사한 경향을 갖는 집단으로 분류될 수 있다. 분류 결과를 종합하여, 특정한 사용자 컨텍스트가 도출될 수 있다. k 값 그리고 이웃하는 특징들 사이의 거리 등에 관한 설정은 실시예에 따라 다양하게 조절될 수 있다. 명확하게 도시하지 않았으나, 일부 특징에 대한 높은 중요도와 거리 등에 관한 웨이트(weight)가 적용될 수도 있다. KNN 알고리즘에 관한 자세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략하기로 한다.For example, the user context can be identified using the KNN algorithm. 2 is a diagram schematically illustrating identification of a user context using a KNN algorithm. Referring to FIG. 2, a plurality of features are processed using the KNN algorithm. By the KNN algorithm, a plurality of features can be compared with pre-classified or learned features and classified into groups having the same or similar tendencies. By combining the classification results, a specific user context can be derived. the k value, and the distance between neighboring features, and the like can be variously adjusted according to the embodiment. Although not explicitly shown, a weight relating to high importance and distance to some features may be applied. The detailed description of the KNN algorithm is omitted because it may obscure the gist of the present invention.
한편, 사용자 컨텍스트의 식별을 위하여, 예시되지 않은 임의의 머신 러닝 알고리즘이 이용될 수도 있다.On the other hand, for the identification of the user context, any unillustrated machine learning algorithm may be used.
이어서, 단계 S40에서, 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘이 결정된다. 이 때, 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관 파라미터가 함께 결정될 수 있다. 자기상관 파라미터는 사용자 컨텍스트에 따라 서로 다르게 결정될 수 있다. 즉, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터가 결정되고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터가 결정될 수 있다. 자기상관 파라미터는 움직임 카운팅 알고리즘 내에서 노이즈 또는 카운팅 오류를 제거하기 위하여 이용될 수 있다.Then, in step S40, a motion counting algorithm is determined based on the identified user context. At this time, the autocorrelation parameters of the motion counting algorithm may be determined together based on the identified user context. The autocorrelation parameters can be determined differently depending on the user context. That is, a first autocorrelation parameter may be determined for a first user context, and a second autocorrelation parameter may be determined for a second user context. The autocorrelation parameter may be used to remove noise or counting errors within the motion counting algorithm.
예를 들어, 자기상관 파라미터는 센서 데이터 내에 포함되는 피크의 반복 주기에 상응할 수 있다. 피크는 후술하는 바와 같이 사용자의 움직임을 카운팅하기 위한 인자 또는 요소가 될 수 있다. 도 3은 사용자 컨텍스트를 기초로 자기상관 파라미터를 결정하는 것을 개략적으로 도시하는 도면이다. 도 3을 참조하면, 소정의 시간 범위의 센서 데이터에 복수 개의 피크(p0~p2)가 포함될 수 있다. 피크는 그 진폭과 이전의 피크와의 시간 간격을 기초로 선별될 수 있다. 한편, 피크의 반복 패턴은 사용자 컨텍스트(사용자의 동작)에 따라 다를 수 있다. 예를 들어, 사용자가 푸쉬 업 동작을 수행하는 경우, 피크의 반복 주기, 즉 이전의 피크와 현재의 피크 사이의 시간 간격이 100 msec라고 하면, 푸쉬 업 동작에서 나타나는 일반적인 피크의 반복 패턴을 고려할 때, 현재의 피크는 노이즈 또는 오류 등에 기한 것으로 추정되어 카운팅을 위하여 이용되지 않게 된다. 도 3에 도시된 예시에서, 피크의 반복 주기에 관한 기준 시간 간격이 tr1인 경우, p0 다음으로 p1이 카운팅을 위한 피크로 선별될 수 있으나, 기준 시간 간격이 tr2인 경우, p0 다음으로 p1은 무시되고 p2가 카운팅을 위한 피크로 선별될 수 있을 것이다.For example, the autocorrelation parameter may correspond to a repetition period of the peaks included in the sensor data. The peak may be an argument or an element for counting the user's movement as described below. 3 is a diagram schematically illustrating determination of autocorrelation parameters based on a user context. Referring to FIG. 3, a plurality of peaks p0 to p2 may be included in sensor data in a predetermined time range. The peak can be selected based on the time interval between the amplitude and the previous peak. On the other hand, the repetitive pattern of peaks may be different depending on the user context (user's action). For example, when the user performs the push-up operation, when the repetition period of the peaks, that is, the time interval between the previous peak and the current peak is 100 msec, considering the repetition pattern of the general peak appearing in the push- , The current peak is presumed to be due to noise or error, and is not used for counting. In the example shown in FIG. 3, if the reference time interval with respect to the repetition period of the peak is tr1, then p1 can be selected as the peak for counting after p0, but if the reference time interval is tr2, And p2 may be selected as the peak for counting.
적어도 일부의 움직임 카운팅 알고리즘은, 노이즈 또는 카운팅 오류를 제거하기 위하여, 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함할 수 있다. 그리고, 움직임 카운팅 알고리즘이 결정될 때, 식별된 사용자 컨텍스트를 기초로 필터링 설정이 함께 결정될 수 있다. 필터링 설정은 사용자 컨텍스트에 따라 서로 다르게 결정될 수 있다. 즉, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정이 결정되고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정이 결정될 수 있다. At least some motion counting algorithms may include filtering for sensor data in a predetermined frequency range of sensor data to remove noise or counting errors. And, when the motion counting algorithm is determined, the filtering setting may be determined together based on the identified user context. The filtering settings can be determined differently depending on the user context. That is, a first filtering setting may be determined for a first user context, and a second filtering setting may be determined for a second user context.
도 4는 사용자 컨텍스트를 기초로 센서 데이터에 대한 필터링 설정을 결정하는 것을 개략적으로 도시하는 도면이다. 도 4를 참조하면, 소정의 통과 대역을 정의하는 복수의 필터링 설정이 도시된다. 도 4에 도시된 예시에서 제1 필터링 설정에 따라 fl1과 fh1 이 차단 주파수로 설정되는 경우와, 제2 필터링 설정에 따라 fl2와 fh2가 차단 주파수로 설정되는 경우의 통과 대역이 서로 다름이 확인될 수 있다. 도 4에서는 대역 통과 필터를 예시로 도시하였으나, 이에 제한되는 것은 아니고, 고역 통과 필터, 저역 통과 필터에 대해서도 실질적으로 동일한 방식으로 필터링 설정이 제공될 수 있다.4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context. Referring to FIG. 4, a plurality of filtering settings are shown that define a predetermined passband. In the example shown in Fig. 4, it is confirmed that fl1 and fh1 are set to the cut-off frequency according to the first filtering setting, and pass-bands when fl2 and fh2 are set to the cut-off frequency according to the second filtering setting . Although a band-pass filter is shown as an example in FIG. 4, the present invention is not limited to this, and a filtering setting may be provided in substantially the same manner for a high-pass filter and a low-pass filter.
한편, (다른 동작들과 전혀 다른 방법으로 움직이는 소정의 동작의 경우) 식별된 사용자 컨텍스트를 기초로 별개의 움직임 카운팅 알고리즘이 결정될 수 있다. 이 경우, 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘이 결정되고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘이 결정될 수 있다.On the other hand, a separate motion counting algorithm may be determined based on the identified user context (in the case of certain operations that move in a completely different way than other operations). In this case, a first motion counting algorithm may be determined for a first user context, and a second motion counting algorithm may be determined for a second user context.
이어서, 단계 S50에서, 결정된 움직임 카운팅 알고리즘을 이용하여, 센서 데이터를 기초로 사용자의 움직임이 카운팅된다. 예를 들어, 3축의 센서 데이터 중 변화가 가장 큰 축의 센서 데이터가 선택되고, 선택된 축의 센서 데이터 내의 피크가 카운팅될 수 있다. 움직임을 카운팅하는 방법은 구체적인 실시예에 따라 다양하게 변형될 수 있다.Subsequently, in step S50, the motion of the user is counted based on the sensor data, using the determined motion counting algorithm. For example, the sensor data of the axis having the largest change among the sensor data of the three axes is selected, and the peaks in the sensor data of the selected axis can be counted. The method of counting movements can be variously modified according to specific embodiments.
도 5는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.5 is a block diagram schematically illustrating a wearable device for performing a user context-based motion counting method according to an embodiment of the present invention.
도 5를 참조하면, 웨어러블 장치(100)는 가속도 센서(110), 자이로 센서(120), 저장부(130), 입력부(140), 출력부(150), 제어부(160), 전원 공급부(170)를 포함한다.5, the
가속도 센서(110)는 3축 방향(예를 들어, X축, Y축, Z축)의 가속도를 검출한다. 도 5에는 하나의 가속도 센서만을 도시하였으나, 이에 제한되는 것은 아니고, 각각 하나의 축 방향의 가속도를 검출할 수 있는 복수 개의 가속도 센서가 제공될 수도 있다. 가속도 센서(110)는 제어부(160)에 3축 방향의 가속도 데이터를 전송할 수 있다.The acceleration sensor 110 detects acceleration in three axial directions (e.g., X-axis, Y-axis, and Z-axis). Although only one acceleration sensor is shown in FIG. 5, the present invention is not limited thereto, and a plurality of acceleration sensors capable of detecting acceleration in one axial direction may be provided. The acceleration sensor 110 may transmit the acceleration data in the three axial directions to the controller 160.
자이로 센서(120)는 3축 방향(예를 들어, 피치(Pitch)축, 요(Yaw)축, 롤(Roll)축)의 각속도를 검출한다. 도 5에는 하나의 자이로 센서만을 도시하였으나, 이에 제한되는 것은 아니고, 각각 하나의 축 방향의 각속도를 검출할 수 있는 복수 개의 자이로 센서가 제공될 수도 있다. 자이로 센서(120)는 제어부(160)에 3축 방향의 각속도 데이터를 전송할 수 있다.The gyro sensor 120 detects the angular velocity in three axial directions (for example, a pitch axis, a yaw axis, and a roll axis). Although only one gyro sensor is shown in Fig. 5, the present invention is not limited thereto, and a plurality of gyro sensors each capable of detecting an angular velocity in the axial direction may be provided. The gyro sensor 120 can transmit angular velocity data in three axial directions to the controller 160. [
저장부(130)는 각종 데이터 및 명령을 저장한다. 저장부(130)는 웨어러블 장치(100)의 동작을 위한 시스템 소프트웨어와 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 저장할 수도 있다. 저장부(130)는 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable-Programmable ROM), EEPROM(Electrically EPROM), 플래시 메모리, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.The storage unit 130 stores various data and commands. The storage unit 130 may store various software modules including system software for operation of the
입력부(140)는 사용자로부터 각종 정보를 입력받는다. 입력부(140)는 키, 버튼, 스위치, 휠, 터치 패드 등의 각종 입력 수단을 포함할 수 있다.The input unit 140 receives various information from the user. The input unit 140 may include various input means such as a key, a button, a switch, a wheel, and a touch pad.
출력부(150)는 사용자에게 각종 정보를 통보한다. 출력부(150)는 텍스트, 영상 또는 음성의 형태로 정보를 출력할 수 있다. 이를 위하여, 출력부(150)는 디스플레이 모듈(151) 및 스피커 모듈(152)을 포함할 수 있다. 디스플레이 모듈(151)은 LCD(Liquid Crystal Display), TFT(Thin Film Transistor) LCD, OLED(Organic Light Emitting Diode), 플렉시블 디스플레이, 3차원 디스플레이, 전자잉크 디스플레이, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태로 제공될 수 있다.The output unit 150 notifies the user of various types of information. The output unit 150 may output information in the form of text, image, or voice. To this end, the output unit 150 may include a display module 151 and a speaker module 152. The display module 151 may be a liquid crystal display (LCD), a thin film transistor (TFT) LCD, an organic light emitting diode (OLED), a flexible display, a three-dimensional display, an electronic ink display, And may be provided in any form.
제어부(160)는 다른 구성요소들을 제어하여 웨어러블 장치(100)의 전반적인 동작을 제어한다. 제어부(160)는 웨어러블 장치(100)의 동작을 위한 시스템 소프트웨어와 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다. 제어부(160)는 고역통과필터(161), 저역통과필터(162), 대역통과필터(163)를 포함하여 센서들(110, 120)로부터 전송된 센서 데이터를 필터링할 수 있다. 제어부(160)는 복수의 필터들(161~163) 중 적어도 하나의 필터를 선택하여 센서 데이터를 필터링할 수 있다. 한편, 고역통과필터(161), 저역통과필터(162), 대역통과필터(163)는 제어부(160)의 외부에 독립된 구성요소로 제공되거나, 각각의 센서(110, 120)의 내부 구성요소로 제공될 수도 있다.The controller 160 controls the overall operation of the
전원 공급부(170)는 가속도 센서(110), 자이로 센서(120), 저장부(130), 입력부(140), 출력부(150), 제어부(160)의 동작에 필요한 전원을 공급한다. 전원 공급부(170)는 내장 배터리를 포함하거나, 외부로부터 공급되는 전원을 상기 구성요소들에 적합한 전원으로 변환할 수 있다.The power supply unit 170 supplies power necessary for the operations of the acceleration sensor 110, the gyro sensor 120, the storage unit 130, the input unit 140, the output unit 150, and the controller 160. The power supply unit 170 may include an internal battery or may convert a power supplied from the outside into a power suitable for the components.
한편, 도 5에 도시된 구성요소들이 필수적인 것은 아니어서, 웨어러블 장치(100)는 그보다 많은 구성요소들을 포함하거나, 그보다 적은 구성요소들을 포함하도록 변형될 수 있다.On the other hand, the components shown in Fig. 5 are not essential, so that the
도 6은 도 5의 웨어러블 장치가 사용자의 신체에 착용된 상태를 개략적으로 도시하는 도면이다.FIG. 6 is a view schematically showing a state in which the wearable device of FIG. 5 is worn by the wearer's body.
도 6을 참조하면, 도 5를 참조하여 설명한 웨어러블 장치(100)가 사용자의 신체에 착용될 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 팔 또는 다리와 같은 사지에 착용되거나, 사용자의 몸통에 착용될 수 있으나, 이에 제한되는 것은 아니고, 기타 부위(머리, 손, 발 등)를 포함하는 사용자의 신체의 적어도 일부에 착용될 수 있다. 또는, 웨어러블 장치(100)는 사용자의 신체에 착용된 임의의 물건(모자, 장갑, 신발 등)의 내부에 제공될 수도 있다.Referring to FIG. 6, the
도 7은 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다. 설명의 편의를 위하여, 도 5를 참조하여 설명한 웨어러블 장치(100)와 동일한 구성요소에 대해서는 중복된 설명을 생략하기로 한다.7 is a block diagram schematically illustrating a wearable device for performing a user context-based motion counting method according to another embodiment of the present invention. For convenience of description, the same components as those of the
도 7을 참조하면, 웨어러블 장치(200)는, 도 5를 참조하여 설명한 웨어러블 장치(100)와 비교하여, 무선 통신부(230), 진동부(260)를 더 포함한다.7, the
무선 통신부(230)는 외부 디바이스(각종 서버 또는 사용자 단말 등)와 무선 통신할 수 있다. 무선 통신부(230)는 이동 통신, 와이브로, 와이파이(WiFi), 블루투스(Bluetooth), 지그비(Zigbee), 초음파, 적외선, RF(Radio Frequency) 등과 같은 무선 통신 방식을 이용하여 외부 디바이스와 무선 통신할 수 있다. 무선 통신부(230)는 외부 디바이스로부터 수신한 데이터 및/또는 정보를 제어부(280)에 전달하고, 제어부(280)로부터 전달된 데이터 및/또는 정보를 외부 디바이스에 전송할 수 있다. 이를 위하여, 무선 통신부(230)는 이동 통신 모듈, 근거리 통신 모듈 등을 포함할 수 있다.The wireless communication unit 230 may wirelessly communicate with an external device (such as various servers or user terminals). The wireless communication unit 230 can wirelessly communicate with an external device using a wireless communication method such as mobile communication, WiBro, WiFi, Bluetooth, Zigbee, ultrasonic, infrared, and RF have. The wireless communication unit 230 may transmit the data and / or information received from the external device to the control unit 280 and may transmit the data and / or information transmitted from the control unit 280 to the external device. For this, the wireless communication unit 230 may include a mobile communication module, a short-range communication module, and the like.
진동부(260)는 사용자에게 각종 정보를 통보하기 위한 진동 알림을 수행할 수 있다.The vibration unit 260 may perform a vibration notification for notifying the user of various information.
웨어러블 장치(200)는 각종 서버 또는 사용자 디바이스(미도시)와 센서 데이터, 사용자 컨텍스트, 움직임 카운팅 알고리즘, 움직임 카운팅 결과 등의 각종 정보를 송수신할 수 있다.The
본 발명의 실시예에 따른 웨어러블 장치는 예시되지 않은 사용자의 신체에 착용 가능한 임의의 컴퓨터 시스템으로 제공될 수도 있다.A wearable device according to an embodiment of the present invention may be provided in any computer system that can be worn on the body of an unillustrated user.
도 8은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.FIG. 8 is a block diagram schematically illustrating a sensor hub for performing a user context-based motion counting method according to an embodiment of the present invention.
도 8을 참조하면, 센서 허브(1000)는 프로세싱 장치(1100), MEMS 장치(1200), ASIC(Application Specific Integrated Circuit) 장치(1300)를 포함할 수 있다. MEMS 장치(1200)는 가속도 센서 또는 자이로 센서일 수 있으나, 이에 제한되는 것은 아니다. ASIC 장치(1300)는 MEMS 장치(1200)의 센싱 신호를 처리할 수 있다. 프로세싱 장치(1100)는, 애플리케이션 프로세서를 대신하여, 센서 데이터 처리를 전문적으로 수행하기 위한 보조 프로세서로 기능할 수 있다. 프로세싱 장치(1100)는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다.Referring to FIG. 8, the
도 9는 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.9 is a block diagram schematically illustrating a sensor hub for performing a user context-based motion counting method according to another embodiment of the present invention.
도 9를 참조하면, 센서 허브(2000)는 복수 개의 MEMS 장치(2200, 2400)와 복수 개의 ASIC 장치(2300, 2500)를 포함할 수 있다. 제1 MEMS 장치(2200)는 가속도 센서이고, 제2 MEMS 장치(2400)는 자이로 센서일 수 있으나, 이에 제한되는 것은 아니다. 복수 개의 ASIC 장치(2300, 2500)는 각각 대응하는 MEMS 장치(2200, 2400)의 센싱 신호를 처리할 수 있다. 프로세싱 장치(2100)는, 애플리케이션 프로세서를 대신하여, 센서 데이터 처리를 전문적으로 수행하기 위한 보조 프로세서로 기능할 수 있다. 프로세싱 장치(2100)는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다. 도시된 바와 다르게, 세 개 이상의 MEMS 장치와 ASIC 장치가 센서 허브(2000) 내에 제공될 수 있다. Referring to FIG. 9, the
본 발명의 실시예와 관련하여 설명된 방법은 프로세서에 의해 수행되는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈은 RAM, ROM, EPROM, EEPROM, 플래시 메모리, 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체에 상주할 수도 있다.The methods described in connection with the embodiments of the present invention may be implemented with software modules executed by a processor. The software modules may reside in RAM, ROM, EPROM, EEPROM, flash memory, hard disk, removable disk, CD-ROM, or any form of computer readable recording medium known in the art .
이상, 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
Claims (10)
상기 추출된 특징을 기초로 사용자 컨텍스트(context)를 식별하는 단계;
상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘을 결정하는 단계; 및
상기 결정된 움직임 카운팅 알고리즘을 이용하여, 상기 센서 데이터를 기초로 사용자의 움직임을 카운팅하는 단계를 포함하고,
상기 움직임 카운팅 알고리즘을 결정하는 단계는,
상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관(autocorrelation) 파라미터를 결정하되, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터를 결정하고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터를 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.Extracting at least one feature from the sensor data;
Identifying a user context based on the extracted features;
Determining a motion counting algorithm based on the identified user context; And
Counting a user's movement based on the sensor data using the determined motion counting algorithm,
Wherein determining the motion counting algorithm comprises:
Determining an autocorrelation parameter of a motion counting algorithm based on the identified user context, determining a first autocorrelation parameter for a first user context, and determining a second autocorrelation parameter for a second user context Wherein the user context-based motion counting method comprises:
상기 추출된 특징은,
상기 센서 데이터의 적어도 하나의 통계 값을 포함하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
The extracted feature may be,
And at least one statistical value of the sensor data.
상기 사용자 컨텍스트를 식별하는 단계는,
KNN(K-Nearest Neighborhood) 알고리즘을 이용하여 상기 추출된 특징을 기초로 사용자 컨텍스트를 식별하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
Wherein identifying the user context comprises:
Wherein the user context is identified based on the extracted feature using a KNN (K-Nearest Neighborhood) algorithm.
상기 자기상관 파라미터는,
상기 센서 데이터 내에 포함되는 피크(peak)의 반복 주기에 상응하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
The autocorrelation parameter may comprise:
Corresponding to a repetition period of a peak included in the sensor data.
상기 움직임 카운팅 알고리즘을 결정하는 단계는,
상기 식별된 사용자 컨텍스트를 기초로 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘을 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
Wherein determining the motion counting algorithm comprises:
Determine a first motion-counting algorithm for a first user context based on the identified user context, and determine a second motion-counting algorithm for a second user context.
상기 움직임 카운팅 알고리즘은,
상기 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함하고,
상기 움직임 카운팅 알고리즘을 결정하는 단계는,
상기 식별된 사용자 컨텍스트를 기초로 상기 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링 설정을 결정하되, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정을 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
The motion counting algorithm includes:
And filtering the sensor data in a predetermined frequency range of the sensor data,
Wherein determining the motion counting algorithm comprises:
Determining a filtering setting for sensor data in a predetermined frequency range of the sensor data based on the identified user context, determining a first filtering setting for a first user context, and determining a second filtering setting for a second user context, And determining a setting based on the user context.
가속도 센서 또는 자이로 센서로부터 상기 센서 데이터를 획득하는 단계를 더 포함하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.The method according to claim 1,
Further comprising the step of obtaining the sensor data from an acceleration sensor or a gyro sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150148565A KR101733746B1 (en) | 2015-10-26 | 2015-10-26 | User context based motion counting method, sensor device and wearable device performing the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150148565A KR101733746B1 (en) | 2015-10-26 | 2015-10-26 | User context based motion counting method, sensor device and wearable device performing the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101733746B1 true KR101733746B1 (en) | 2017-05-08 |
Family
ID=60164277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150148565A Expired - Fee Related KR101733746B1 (en) | 2015-10-26 | 2015-10-26 | User context based motion counting method, sensor device and wearable device performing the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101733746B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190047648A (en) * | 2017-10-27 | 2019-05-08 | 주식회사 뉴클리어스 | Method and wearable device for providing feedback on action |
KR20190047644A (en) * | 2017-10-27 | 2019-05-08 | 주식회사 뉴클리어스 | Method and wearable device for providing feedback on exercise |
-
2015
- 2015-10-26 KR KR1020150148565A patent/KR101733746B1/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190047648A (en) * | 2017-10-27 | 2019-05-08 | 주식회사 뉴클리어스 | Method and wearable device for providing feedback on action |
KR20190047644A (en) * | 2017-10-27 | 2019-05-08 | 주식회사 뉴클리어스 | Method and wearable device for providing feedback on exercise |
KR102089002B1 (en) * | 2017-10-27 | 2020-03-13 | 김현우 | Method and wearable device for providing feedback on action |
KR102108180B1 (en) * | 2017-10-27 | 2020-05-08 | 김현우 | Method and wearable device for providing feedback on exercise |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102330889B1 (en) | Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control | |
US10222868B2 (en) | Wearable device and control method using gestures | |
EP2661663B1 (en) | Method and apparatus for tracking orientation of a user | |
EP2836892B1 (en) | Control of remote device based on gestures | |
JP6640249B2 (en) | Technique for input gesture control of wearable computing device based on fine movement | |
KR102304772B1 (en) | Apparatus and method for assisting physical exercise | |
JP2010015535A (en) | Input device, control system, handheld device, and calibration method | |
KR20150138831A (en) | Portable device for controlling external apparatus via gesture and operating method for same | |
US20160306434A1 (en) | Method for interacting with mobile or wearable device | |
JP2018504682A5 (en) | ||
EP3289435B1 (en) | User interface control using impact gestures | |
WO2014130577A1 (en) | Systems and methods for activity recognition training | |
US10877562B2 (en) | Motion detection system, motion detection method and computer-readable recording medium thereof | |
US20190103108A1 (en) | Input device, electronic device, system comprising the same and control method thereof | |
JP6270557B2 (en) | Information input / output device and information input / output method | |
KR101733746B1 (en) | User context based motion counting method, sensor device and wearable device performing the same | |
CN102024316B (en) | Wireless intelligent sensing method, device and system | |
CN113906371A (en) | Electronic device for providing exercise information according to exercise environment and method for operating the same | |
US20190041287A1 (en) | Tap Detection Device | |
KR101870542B1 (en) | Method and apparatus of recognizing a motion | |
CN105204647A (en) | Information-processing method and electronic equipment | |
CN111132249B (en) | Connection switching method, switching device and wearable device | |
JP2021142337A (en) | Action detection apparatus, electronic apparatus, action analysis method, and program | |
KR20170047848A (en) | Wearable device and method for measuring activity of user | |
WO2017061639A1 (en) | User context based motion counting method, sensor device and wearable device performing same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20151026 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20161021 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170331 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170428 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170428 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210209 |