WO2017061639A1 - User context based motion counting method, sensor device and wearable device performing same - Google Patents

User context based motion counting method, sensor device and wearable device performing same Download PDF

Info

Publication number
WO2017061639A1
WO2017061639A1 PCT/KR2015/010532 KR2015010532W WO2017061639A1 WO 2017061639 A1 WO2017061639 A1 WO 2017061639A1 KR 2015010532 W KR2015010532 W KR 2015010532W WO 2017061639 A1 WO2017061639 A1 WO 2017061639A1
Authority
WO
WIPO (PCT)
Prior art keywords
user context
motion counting
motion
sensor data
user
Prior art date
Application number
PCT/KR2015/010532
Other languages
French (fr)
Korean (ko)
Inventor
보글마이클
권성호
이종성
Original Assignee
주식회사 스탠딩에그
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스탠딩에그 filed Critical 주식회사 스탠딩에그
Priority to PCT/KR2015/010532 priority Critical patent/WO2017061639A1/en
Publication of WO2017061639A1 publication Critical patent/WO2017061639A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor

Definitions

  • the present invention relates to a method of counting a user's motion, and more particularly, to a user context-based motion counting method, a sensor device for performing the same, and a wearable device.
  • a wearable device represents a computer system provided in a form that can be worn on a user's body.
  • the wearable device may measure a user's movement using various sensors and provide a measurement result to the user.
  • the wearable device may manually input the user's exercise motion and count the number of times the received motion motion is repeated.
  • the wearable device may monitor the movement of the user at a specific cycle to provide additional information such as calorie consumption and activity time.
  • An object of the present invention is to provide a user context-based motion counting method that can more accurately count a user's motion.
  • Another technical problem of the present invention is to provide a user context-based motion counting method that can count a user's motion more intuitively and conveniently.
  • Another technical problem of the present invention is to provide a sensor device and a wearable device for performing the user context based motion counting method.
  • a method of counting motion based on a user context extracting at least one feature from sensor data, and generating a user context based on the extracted feature. Identifying, determining a motion counting algorithm based on the identified user context, and counting a user's motion based on the sensor data using the determined motion counting algorithm.
  • the extracted feature may include at least one statistical value of the sensor data.
  • identifying the user context may identify a user context based on the extracted feature using a K-Nearest Neighborhood (KNN) algorithm.
  • KNN K-Nearest Neighborhood
  • determining the motion counting algorithm comprises determining an autocorrelation parameter of the motion counting algorithm based on the identified user context, wherein the first autocorrelation parameter is determined for a first user context.
  • the parameter may be determined, and a second autocorrelation parameter may be determined for the second user context.
  • the autocorrelation parameter may correspond to a repetition period of a peak included in the sensor data.
  • determining the motion counting algorithm comprises: determining a first motion counting algorithm for a first user context based on the identified user context, and a second motion for a second user context The counting algorithm can be determined.
  • the motion counting algorithm includes filtering of sensor data of a predetermined frequency range of the sensor data, and determining the motion counting algorithm is based on the identified user context.
  • the filtering setting may be determined, but the first filtering setting may be determined for the first user context, and the second filtering setting may be determined for the second user context.
  • the method may further comprise acquiring the sensor data from an acceleration sensor or a gyro sensor.
  • the sensor device may perform any one of the above-described user context-based motion counting method.
  • the wearable device for solving the above technical problem may perform any one of the above-described user context based motion counting method.
  • the motion of the user can be counted more accurately.
  • FIG. 1 is a flowchart schematically illustrating a user context based motion counting method according to an embodiment of the present invention.
  • FIG. 2 is a diagram schematically illustrating identifying a user context using the KNN algorithm.
  • FIG. 3 is a diagram schematically illustrating determining autocorrelation parameters based on a user context.
  • FIG. 4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context.
  • FIG. 5 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to an embodiment of the present invention.
  • FIG. 6 is a diagram schematically illustrating a state in which the wearable device of FIG. 5 is worn on a user's body.
  • FIG. 7 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to another embodiment of the present invention.
  • FIG. 8 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to an embodiment of the present invention.
  • FIG. 9 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to another embodiment of the present invention.
  • first, second, etc. are used to describe various elements, components and / or sections, these elements, components and / or sections are of course not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Therefore, the first device, the first component, or the first section mentioned below may be a second device, a second component, or a second section within the technical spirit of the present invention.
  • FIG. 1 is a flowchart schematically illustrating a user context based motion counting method according to an embodiment of the present invention.
  • sensor data is obtained from an acceleration sensor, a gyro sensor, or at least one sensor coupled thereto.
  • Sensor data can be acceleration data in three axis directions (e.g., X axis, Y axis, Z axis) or three axis directions (e.g., Pitch axis, Yaw axis, Roll axis)
  • the angular velocity data may include, but is not limited thereto.
  • a process such as predetermined sampling or quantization of sensor data may be provided.
  • At step S20 at least one feature is extracted from the sensor data.
  • a characteristic represents an aspect or component in which sensor data is distinguished from other sensor data.
  • the feature may represent an entire portion of the sensor data or may represent a portion of the sensor data.
  • the feature may include at least one statistical value of sensor data.
  • the statistical value may include a maximum value, a minimum value, a median value, an average value, an interquartile range (IQR) value, a root mean square (RMS) value, and the like of a predetermined number of (sampled) sensor data.
  • IQR interquartile range
  • RMS root mean square
  • the feature may be extracted by any processing on the sensor data.
  • the user context is identified based on the extracted feature.
  • the user context represents a situation of the user or information defining the same.
  • the user context may be associated with the type of action that may specify the movement of the user. For example, the user context may be classified into various movement operations such as push up, biceps curls, and rowing, but is not limited thereto.
  • the user context may be identified using the KNN algorithm.
  • 2 is a diagram schematically illustrating identifying a user context using the KNN algorithm. 2
  • a plurality of features are processed using the KNN algorithm.
  • the KNN algorithm a plurality of features may be compared to previously classified or learned features and classified into groups having the same or similar trends. By combining the classification results, a specific user context can be derived.
  • Settings regarding the k value and the distance between neighboring features may be variously adjusted according to embodiments. Although not explicitly illustrated, weights of high importance, distance, and the like for some features may be applied.
  • a detailed description of the KNN algorithm will be omitted since it may obscure the subject matter of the present invention.
  • any machine learning algorithm that is not illustrated may be used for identification of the user context.
  • a motion counting algorithm is determined based on the identified user context.
  • autocorrelation parameters of the motion counting algorithm may be determined together based on the identified user context.
  • the autocorrelation parameter may be determined differently according to the user context. That is, the first autocorrelation parameter may be determined for the first user context, and the second autocorrelation parameter may be determined for the second user context.
  • the autocorrelation parameter may be used to remove noise or counting errors within the motion counting algorithm.
  • the autocorrelation parameter may correspond to the repetition period of the peaks included in the sensor data.
  • the peak may be a factor or factor for counting the user's movement as described below.
  • 3 is a diagram schematically illustrating determining autocorrelation parameters based on a user context. Referring to FIG. 3, a plurality of peaks p0 to p2 may be included in the sensor data of a predetermined time range. Peaks can be selected based on their amplitude and the time interval between previous peaks. On the other hand, the repeating pattern of the peak may vary depending on the user context (user's motion).
  • the repetition period of the peak that is, the time interval between the previous peak and the current peak is 100 msec
  • the current peak is presumed to be due to noise or error and is not used for counting.
  • the reference time interval for the repetition period of the peak is tr1
  • p1 may be selected as the peak for counting
  • tr2 if the reference time interval is tr2, p1 next to p0 may be selected. Ignored and p2 may be selected as the peak for counting.
  • At least some motion counting algorithms may include filtering for sensor data in a predetermined frequency range of the sensor data to remove noise or counting errors. And, when the motion counting algorithm is determined, filtering settings may be determined together based on the identified user context. Filtering settings may be determined differently according to the user context. That is, the first filtering setting may be determined for the first user context, and the second filtering setting may be determined for the second user context.
  • FIG. 4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context.
  • a plurality of filtering settings that define a predetermined pass band is shown.
  • the pass bands of fl1 and fh1 are set to cutoff frequencies according to the first filtering setting, and when fl2 and fh2 are set to cutoff frequencies according to the second filtering setting.
  • the band pass filter is illustrated as an example, but is not limited thereto, and the filtering setting may be provided in a substantially same manner for the high pass filter and the low pass filter.
  • a separate motion counting algorithm can be determined based on the identified user context (in the case of a given motion moving in a completely different way than other actions).
  • a first motion counting algorithm may be determined for the first user context
  • a second motion counting algorithm may be determined for the second user context.
  • step S50 the movement of the user is counted based on the sensor data using the determined motion counting algorithm.
  • the sensor data of the axis having the largest change among the sensor data of the three axes may be selected, and the peak in the sensor data of the selected axis may be counted.
  • the method of counting movements may be variously modified according to specific embodiments.
  • FIG. 5 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to an embodiment of the present invention.
  • the wearable device 100 may include an acceleration sensor 110, a gyro sensor 120, a storage unit 130, an input unit 140, an output unit 150, a controller 160, and a power supply unit 170. ).
  • the acceleration sensor 110 detects acceleration in three axis directions (for example, X axis, Y axis, and Z axis). Although only one acceleration sensor is illustrated in FIG. 5, the present invention is not limited thereto, and a plurality of acceleration sensors capable of detecting acceleration in one axial direction may be provided.
  • the acceleration sensor 110 may transmit acceleration data in three axes to the controller 160.
  • the gyro sensor 120 detects angular velocities in three axis directions (for example, a pitch axis, a yaw axis, and a roll axis). Although only one gyro sensor is illustrated in FIG. 5, the present invention is not limited thereto, and a plurality of gyro sensors capable of detecting an angular velocity in one axial direction may be provided.
  • the gyro sensor 120 may transmit angular velocity data in three axes to the controller 160.
  • the storage unit 130 stores various data and commands.
  • the storage unit 130 may store various software modules including system software for operating the wearable device 100 and applications in which a user context-based motion counting method according to an embodiment of the present invention is implemented.
  • the storage unit 130 may be a random access memory (RAM), read only memory (ROM), erasable-programmable ROM (EPROM), electrically EPROM (EEPROM), flash memory, a removable disk, or well known in the art. Any type of computer readable recording medium may be included.
  • the input unit 140 receives various information from the user.
  • the input unit 140 may include various input means such as keys, buttons, switches, wheels, and touch pads.
  • the output unit 150 notifies the user of various kinds of information.
  • the output unit 150 may output information in the form of text, video or audio.
  • the output unit 150 may include a display module 151 and a speaker module 152.
  • the display module 151 may be a liquid crystal display (LCD), a thin film transistor (TFT) LCD, an organic light emitting diode (OLED), a flexible display, a three-dimensional display, an electronic ink display, or a technique well known in the art. It may be provided in any form.
  • the controller 160 controls other components to control the overall operation of the wearable device 100.
  • the controller 160 may perform various software modules including system software for operating the wearable device 100 and applications in which a user context-based motion counting method according to an embodiment of the present invention is implemented.
  • the controller 160 may filter the sensor data transmitted from the sensors 110 and 120, including the high pass filter 161, the low pass filter 162, and the band pass filter 163.
  • the controller 160 may filter the sensor data by selecting at least one filter among the plurality of filters 161 ⁇ 163. Meanwhile, the high pass filter 161, the low pass filter 162, and the band pass filter 163 may be provided as independent components to the outside of the controller 160 or may be internal components of the respective sensors 110 and 120. May be provided.
  • the power supply unit 170 supplies power required for the operation of the acceleration sensor 110, the gyro sensor 120, the storage 130, the input unit 140, the output unit 150, and the controller 160.
  • the power supply unit 170 may include a built-in battery or convert power supplied from the outside into a power suitable for the above components.
  • the wearable device 100 may be modified to include more components or fewer components.
  • FIG. 6 is a diagram schematically illustrating a state in which the wearable device of FIG. 5 is worn on a user's body.
  • the wearable device 100 described with reference to FIG. 5 may be worn on a user's body.
  • the wearable device 100 may be worn on an extremity such as an arm or a leg of the user, or may be worn on the user's torso, but is not limited thereto, and may include other parts (head, hands, feet, etc.) It may be worn on at least part of the user's body.
  • the wearable device 100 may be provided inside any item (hat, gloves, shoes, etc.) worn on the user's body.
  • FIG. 7 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to another embodiment of the present invention.
  • a wearable device for performing a user context based motion counting method according to another embodiment of the present invention.
  • duplicated descriptions of components that are the same as the wearable device 100 described with reference to FIG. 5 will be omitted.
  • the wearable device 200 further includes a wireless communication unit 230 and a vibrator 260 as compared with the wearable device 100 described with reference to FIG. 5.
  • the wireless communication unit 230 may wirelessly communicate with an external device (such as a server or a user terminal).
  • the wireless communication unit 230 may wirelessly communicate with an external device by using a wireless communication method such as mobile communication, WiBro, Wi-Fi, Bluetooth, Zigbee, ultrasonic wave, infrared ray, or RF (Radio Frequency). have.
  • the wireless communication unit 230 may transmit data and / or information received from the external device to the controller 280, and may transmit data and / or information transmitted from the controller 280 to the external device.
  • the wireless communication unit 230 may include a mobile communication module, a short-range communication module and the like.
  • the vibrator 260 may perform a vibration notification for notifying the user of various kinds of information.
  • the wearable device 200 may transmit / receive various types of information such as sensor data, a user context, a motion counting algorithm, and a motion counting result with various servers or user devices (not shown).
  • the wearable device according to the embodiment of the present invention may be provided as any computer system wearable on the body of the user, which is not illustrated.
  • FIG. 8 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to an embodiment of the present invention.
  • the sensor hub 1000 may include a processing device 1100, a MEMS device 1200, and an application specific integrated circuit (ASIC) device 1300.
  • the MEMS device 1200 may be an acceleration sensor or a gyro sensor, but is not limited thereto.
  • the ASIC device 1300 may process the sensing signal of the MEMS device 1200.
  • the processing device 1100 may function as a coprocessor for professionally performing sensor data processing on behalf of the application processor.
  • the processing device 1100 may execute various software modules including an application in which a user context-based motion counting method according to an embodiment of the present invention is implemented.
  • FIG. 9 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to another embodiment of the present invention.
  • the sensor hub 2000 may include a plurality of MEMS devices 2200 and 2400 and a plurality of ASIC devices 2300 and 2500.
  • the first MEMS device 2200 may be an acceleration sensor
  • the second MEMS device 2400 may be a gyro sensor, but is not limited thereto.
  • the plurality of ASIC devices 2300 and 2500 may process sensing signals of the corresponding MEMS devices 2200 and 2400, respectively.
  • the processing device 2100 may function as a coprocessor for professionally performing sensor data processing on behalf of the application processor.
  • the processing device 2100 may execute various software modules including an application in which the user context-based motion counting method according to an embodiment of the present invention is implemented. Unlike shown, three or more MEMS devices and ASIC devices may be provided within the sensor hub 2000.
  • the method described in connection with an embodiment of the present invention may be implemented as a software module performed by a processor.
  • the software module may reside in RAM, ROM, EPROM, EEPROM, flash memory, hard disk, removable disk, CD-ROM, or any form of computer readable recording medium well known in the art. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A user context based motion counting method, a sensor device and a wearable device performing the same are provided. The user context based motion counting method comprises the steps of: extracting at least one feature from sensor data; identifying a user context on the basis of the extracted feature; determining a motion counting algorithm on the basis of the identified user context; and counting a motion of the user on the basis of the sensor data using the determined motion counting algorithm.

Description

사용자 컨텍스트 기반 움직임 카운팅 방법, 이를 수행하는 센서 장치 및 웨어러블 장치User context based motion counting method, sensor device and wearable device performing the same
본 발명은 사용자의 움직임을 카운팅하는 방법에 관한 것으로, 보다 상세하게는 사용자 컨텍스트 기반 움직임 카운팅 방법, 이를 수행하는 센서 장치 및 웨어러블 장치에 관한 것이다.The present invention relates to a method of counting a user's motion, and more particularly, to a user context-based motion counting method, a sensor device for performing the same, and a wearable device.
웨어러블 장치는 사용자의 신체에 착용될 수 있는 형태로 제공되는 컴퓨터 시스템을 나타낸다. 웨어러블 장치는 각종 센서를 이용하여 사용자의 움직임을 측정하고, 측정 결과를 사용자에게 제공할 수 있다. 웨어러블 장치는 사용자의 운동 동작을 매뉴얼하게 입력받고, 입력받은 운동 동작이 반복되는 횟수를 카운팅할 수 있다. 그리고, 웨어러블 장치는 사용자의 움직임을 특정 주기로 모니터링하여, 칼로리 소모량, 활동 시간 등의 부가적인 정보도 제공할 수 있다.A wearable device represents a computer system provided in a form that can be worn on a user's body. The wearable device may measure a user's movement using various sensors and provide a measurement result to the user. The wearable device may manually input the user's exercise motion and count the number of times the received motion motion is repeated. In addition, the wearable device may monitor the movement of the user at a specific cycle to provide additional information such as calorie consumption and activity time.
본 발명의 기술적 과제는, 보다 정확하게 사용자의 움직임을 카운팅할 수 있는 사용자 컨텍스트 기반 움직임 카운팅 방법을 제공하는 것이다.An object of the present invention is to provide a user context-based motion counting method that can more accurately count a user's motion.
본 발명의 다른 기술적 과제는, 보다 직관적이고 편리하게 사용자의 움직임을 카운팅할 수 있는 사용자 컨텍스트 기반 움직임 카운팅 방법을 제공하는 것이다.Another technical problem of the present invention is to provide a user context-based motion counting method that can count a user's motion more intuitively and conveniently.
본 발명의 또 다른 기술적 과제는, 상기 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 장치 및 웨어러블 장치를 제공하는 것이다.Another technical problem of the present invention is to provide a sensor device and a wearable device for performing the user context based motion counting method.
본 발명의 기술적 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한 본 발명의 일 면에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법은, 센서 데이터로부터 적어도 하나의 특징(feature)을 추출하는 단계, 상기 추출된 특징을 기초로 사용자 컨텍스트(context)를 식별하는 단계, 상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘을 결정하는 단계, 및 상기 결정된 움직임 카운팅 알고리즘을 이용하여, 상기 센서 데이터를 기초로 사용자의 움직임을 카운팅하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of counting motion based on a user context, extracting at least one feature from sensor data, and generating a user context based on the extracted feature. Identifying, determining a motion counting algorithm based on the identified user context, and counting a user's motion based on the sensor data using the determined motion counting algorithm.
본 발명의 일부 실시예에서, 상기 추출된 특징은, 상기 센서 데이터의 적어도 하나의 통계 값을 포함할 수 있다.In some embodiments of the present invention, the extracted feature may include at least one statistical value of the sensor data.
본 발명의 일부 실시예에서, 상기 사용자 컨텍스트를 식별하는 단계는, KNN(K-Nearest Neighborhood) 알고리즘을 이용하여 상기 추출된 특징을 기초로 사용자 컨텍스트를 식별할 수 있다.In some embodiments of the present disclosure, identifying the user context may identify a user context based on the extracted feature using a K-Nearest Neighborhood (KNN) algorithm.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관(autocorrelation) 파라미터를 결정하되, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터를 결정하고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터를 결정할 수 있다.In some embodiments of the invention, determining the motion counting algorithm comprises determining an autocorrelation parameter of the motion counting algorithm based on the identified user context, wherein the first autocorrelation parameter is determined for a first user context. The parameter may be determined, and a second autocorrelation parameter may be determined for the second user context.
또한, 상기 자기상관 파라미터는, 상기 센서 데이터 내에 포함되는 피크(peak)의 반복 주기에 상응할 수 있다.In addition, the autocorrelation parameter may correspond to a repetition period of a peak included in the sensor data.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘을 결정할 수 있다.In some embodiments of the invention, determining the motion counting algorithm comprises: determining a first motion counting algorithm for a first user context based on the identified user context, and a second motion for a second user context The counting algorithm can be determined.
본 발명의 일부 실시예에서, 상기 움직임 카운팅 알고리즘은, 상기 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함하고, 상기 움직임 카운팅 알고리즘을 결정하는 단계는, 상기 식별된 사용자 컨텍스트를 기초로 상기 필터링 설정을 결정하되, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정을 결정할 수 있다.In some embodiments of the present invention, the motion counting algorithm includes filtering of sensor data of a predetermined frequency range of the sensor data, and determining the motion counting algorithm is based on the identified user context. The filtering setting may be determined, but the first filtering setting may be determined for the first user context, and the second filtering setting may be determined for the second user context.
본 발명의 일부 실시예에서, 상기 방법은, 가속도 센서 또는 자이로 센서로부터 상기 센서 데이터를 획득하는 단계를 더 포함할 수 있다.In some embodiments of the present invention, the method may further comprise acquiring the sensor data from an acceleration sensor or a gyro sensor.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 면에 따른 센서 장치는, 상술한 사용자 컨텍스트 기반 움직임 카운팅 방법 중 어느 하나를 수행할 수 있다.The sensor device according to another aspect of the present invention for solving the above technical problem, may perform any one of the above-described user context-based motion counting method.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 면에 따른 웨어러블 장치는, 상술한 사용자 컨텍스트 기반 움직임 카운팅 방법 중 어느 하나를 수행할 수 있다.The wearable device according to another aspect of the present invention for solving the above technical problem may perform any one of the above-described user context based motion counting method.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명의 사용자 컨텍스트 기반 움직임 카운팅 방법에 의하면, 사용자 컨텍스트가 식별되고, 식별된 사용자 컨텍스트별로 보다 적합한 움직임 카운팅 알고리즘이 결정되므로, 보다 정확하게 사용자의 움직임을 카운팅할 수 있다.According to the user context-based motion counting method of the present invention, since the user context is identified and a more suitable motion counting algorithm is determined for each identified user context, the motion of the user can be counted more accurately.
또한, 사용자 컨텍스트 식별을 위하여, 별도로 사용자의 직접적인 입력 또는 선택이 요구되지 않으므로, 보다 직관적이며 사용자 편의성이 제고될 수 있다.In addition, in order to identify a user context, since a user's direct input or selection is not required separately, more intuitive and user convenience may be enhanced.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 개략적으로 도시하는 흐름도이다.1 is a flowchart schematically illustrating a user context based motion counting method according to an embodiment of the present invention.
도 2는 KNN 알고리즘을 이용하여 사용자 컨텍스트를 식별하는 것을 개략적으로 도시하는 도면이다.2 is a diagram schematically illustrating identifying a user context using the KNN algorithm.
도 3은 사용자 컨텍스트를 기초로 자기상관 파라미터를 결정하는 것을 개략적으로 도시하는 도면이다.3 is a diagram schematically illustrating determining autocorrelation parameters based on a user context.
도 4는 사용자 컨텍스트를 기초로 센서 데이터에 대한 필터링 설정을 결정하는 것을 개략적으로 도시하는 도면이다.4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context.
도 5는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.5 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to an embodiment of the present invention.
도 6은 도 5의 웨어러블 장치가 사용자의 신체에 착용된 상태를 개략적으로 도시하는 도면이다.FIG. 6 is a diagram schematically illustrating a state in which the wearable device of FIG. 5 is worn on a user's body.
도 7은 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.7 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to another embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.8 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to an embodiment of the present invention.
도 9는 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.9 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete, and are common in the art to which the present invention pertains. It is provided to fully inform those skilled in the art of the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, these elements, components and / or sections are of course not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Therefore, the first device, the first component, or the first section mentioned below may be a second device, a second component, or a second section within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components.
도 1은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 개략적으로 도시하는 흐름도이다.1 is a flowchart schematically illustrating a user context based motion counting method according to an embodiment of the present invention.
도 1을 참조하면, 단계 S10에서, 가속도 센서, 자이로 센서 또는 이들이 결합된 적어도 하나의 센서로부터 센서 데이터가 획득된다. 센서 데이터는 3축 방향(예를 들어, X축, Y축, Z축)의 가속도 데이터 또는 3축 방향(예를 들어, 피치(Pitch)축, 요(Yaw)축, 롤(Roll)축)의 각속도 데이터를 포함할 수 있으나, 이에 제한되는 것은 아니다. 실시예에 따라, 센서 데이터에 대한 소정의 샘플링(Sampling) 또는 양자화(Quantization) 등의 처리가 제공될 수 있다.Referring to FIG. 1, in step S10, sensor data is obtained from an acceleration sensor, a gyro sensor, or at least one sensor coupled thereto. Sensor data can be acceleration data in three axis directions (e.g., X axis, Y axis, Z axis) or three axis directions (e.g., Pitch axis, Yaw axis, Roll axis) The angular velocity data may include, but is not limited thereto. According to an embodiment, a process such as predetermined sampling or quantization of sensor data may be provided.
이어서, 단계 S20에서, 센서 데이터로부터 적어도 하나의 특징이 추출된다. 특징은 센서 데이터가 다른 센서 데이터와 구별되는 측면 또는 성분을 나타낸다. 특징은 센서 데이터의 전체적인 부분을 표현하거나, 센서 데이터의 일부를 표현할 수 있다. 예를 들어, 특징은 센서 데이터의 적어도 하나의 통계 값을 포함할 수 있다. 예를 들어, 통계 값은 (샘플링된) 소정의 개수의 센서 데이터의 최대 값, 최소 값, 중간 값, 평균 값, IQR(Interquartile Range) 값, RMS(Root Mean Square) 값 등을 포함할 수 있으나, 이에 제한되는 것은 아니다. 특징은 센서 데이터에 대한 임의의 처리에 의해서 추출될 수도 있다.Subsequently, at step S20, at least one feature is extracted from the sensor data. A characteristic represents an aspect or component in which sensor data is distinguished from other sensor data. The feature may represent an entire portion of the sensor data or may represent a portion of the sensor data. For example, the feature may include at least one statistical value of sensor data. For example, the statistical value may include a maximum value, a minimum value, a median value, an average value, an interquartile range (IQR) value, a root mean square (RMS) value, and the like of a predetermined number of (sampled) sensor data. However, the present invention is not limited thereto. The feature may be extracted by any processing on the sensor data.
이어서, 단계 S30에서, 추출된 특징을 기초로 사용자 컨텍스트가 식별된다. 사용자 컨텍스트는 사용자의 상황(Situation) 또는 이를 정의하는 정보를 나타낸다. 사용자 컨텍스트는 사용자의 움직임을 특정할 수 있는 동작의 종류와 관련될 수 있다. 예를 들어, 사용자 컨텍스트는 푸쉬 업(Push Up), 바이셉스 컬(Biceps Curls), 로잉(Rowing) 등의 각종 운동 동작으로 구분될 수 있으나, 이에 제한되는 것은 아니다.Then, in step S30, the user context is identified based on the extracted feature. The user context represents a situation of the user or information defining the same. The user context may be associated with the type of action that may specify the movement of the user. For example, the user context may be classified into various movement operations such as push up, biceps curls, and rowing, but is not limited thereto.
예를 들어, KNN 알고리즘을 이용하여 사용자 컨텍스트가 식별될 수 있다. 도 2는 KNN 알고리즘을 이용하여 사용자 컨텍스트를 식별하는 것을 개략적으로 도시하는 도면이다. 도 2를 참조하면, 복수 개의 특징이 KNN 알고리즘을 이용하여 처리된다. KNN 알고리즘에 의하여, 복수 개의 특징은 기 분류된 또는 학습된 특징들과 비교되고, 동일 또는 유사한 경향을 갖는 집단으로 분류될 수 있다. 분류 결과를 종합하여, 특정한 사용자 컨텍스트가 도출될 수 있다. k 값 그리고 이웃하는 특징들 사이의 거리 등에 관한 설정은 실시예에 따라 다양하게 조절될 수 있다. 명확하게 도시하지 않았으나, 일부 특징에 대한 높은 중요도와 거리 등에 관한 웨이트(weight)가 적용될 수도 있다. KNN 알고리즘에 관한 자세한 설명은 본 발명의 요지를 흐릴 수 있으므로 생략하기로 한다.For example, the user context may be identified using the KNN algorithm. 2 is a diagram schematically illustrating identifying a user context using the KNN algorithm. 2, a plurality of features are processed using the KNN algorithm. By the KNN algorithm, a plurality of features may be compared to previously classified or learned features and classified into groups having the same or similar trends. By combining the classification results, a specific user context can be derived. Settings regarding the k value and the distance between neighboring features may be variously adjusted according to embodiments. Although not explicitly illustrated, weights of high importance, distance, and the like for some features may be applied. A detailed description of the KNN algorithm will be omitted since it may obscure the subject matter of the present invention.
한편, 사용자 컨텍스트의 식별을 위하여, 예시되지 않은 임의의 머신 러닝 알고리즘이 이용될 수도 있다.On the other hand, any machine learning algorithm that is not illustrated may be used for identification of the user context.
이어서, 단계 S40에서, 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘이 결정된다. 이 때, 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관 파라미터가 함께 결정될 수 있다. 자기상관 파라미터는 사용자 컨텍스트에 따라 서로 다르게 결정될 수 있다. 즉, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터가 결정되고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터가 결정될 수 있다. 자기상관 파라미터는 움직임 카운팅 알고리즘 내에서 노이즈 또는 카운팅 오류를 제거하기 위하여 이용될 수 있다.Then, in step S40, a motion counting algorithm is determined based on the identified user context. At this time, autocorrelation parameters of the motion counting algorithm may be determined together based on the identified user context. The autocorrelation parameter may be determined differently according to the user context. That is, the first autocorrelation parameter may be determined for the first user context, and the second autocorrelation parameter may be determined for the second user context. The autocorrelation parameter may be used to remove noise or counting errors within the motion counting algorithm.
예를 들어, 자기상관 파라미터는 센서 데이터 내에 포함되는 피크의 반복 주기에 상응할 수 있다. 피크는 후술하는 바와 같이 사용자의 움직임을 카운팅하기 위한 인자 또는 요소가 될 수 있다. 도 3은 사용자 컨텍스트를 기초로 자기상관 파라미터를 결정하는 것을 개략적으로 도시하는 도면이다. 도 3을 참조하면, 소정의 시간 범위의 센서 데이터에 복수 개의 피크(p0~p2)가 포함될 수 있다. 피크는 그 진폭과 이전의 피크와의 시간 간격을 기초로 선별될 수 있다. 한편, 피크의 반복 패턴은 사용자 컨텍스트(사용자의 동작)에 따라 다를 수 있다. 예를 들어, 사용자가 푸쉬 업 동작을 수행하는 경우, 피크의 반복 주기, 즉 이전의 피크와 현재의 피크 사이의 시간 간격이 100 msec라고 하면, 푸쉬 업 동작에서 나타나는 일반적인 피크의 반복 패턴을 고려할 때, 현재의 피크는 노이즈 또는 오류 등에 기한 것으로 추정되어 카운팅을 위하여 이용되지 않게 된다. 도 3에 도시된 예시에서, 피크의 반복 주기에 관한 기준 시간 간격이 tr1인 경우, p0 다음으로 p1이 카운팅을 위한 피크로 선별될 수 있으나, 기준 시간 간격이 tr2인 경우, p0 다음으로 p1은 무시되고 p2가 카운팅을 위한 피크로 선별될 수 있을 것이다.For example, the autocorrelation parameter may correspond to the repetition period of the peaks included in the sensor data. The peak may be a factor or factor for counting the user's movement as described below. 3 is a diagram schematically illustrating determining autocorrelation parameters based on a user context. Referring to FIG. 3, a plurality of peaks p0 to p2 may be included in the sensor data of a predetermined time range. Peaks can be selected based on their amplitude and the time interval between previous peaks. On the other hand, the repeating pattern of the peak may vary depending on the user context (user's motion). For example, if a user performs a push up operation, and the repetition period of the peak, that is, the time interval between the previous peak and the current peak is 100 msec, considering the repetition pattern of the general peak appearing in the push up operation However, the current peak is presumed to be due to noise or error and is not used for counting. In the example shown in FIG. 3, if the reference time interval for the repetition period of the peak is tr1, then p1 may be selected as the peak for counting, but if the reference time interval is tr2, p1 next to p0 may be selected. Ignored and p2 may be selected as the peak for counting.
적어도 일부의 움직임 카운팅 알고리즘은, 노이즈 또는 카운팅 오류를 제거하기 위하여, 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함할 수 있다. 그리고, 움직임 카운팅 알고리즘이 결정될 때, 식별된 사용자 컨텍스트를 기초로 필터링 설정이 함께 결정될 수 있다. 필터링 설정은 사용자 컨텍스트에 따라 서로 다르게 결정될 수 있다. 즉, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정이 결정되고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정이 결정될 수 있다. At least some motion counting algorithms may include filtering for sensor data in a predetermined frequency range of the sensor data to remove noise or counting errors. And, when the motion counting algorithm is determined, filtering settings may be determined together based on the identified user context. Filtering settings may be determined differently according to the user context. That is, the first filtering setting may be determined for the first user context, and the second filtering setting may be determined for the second user context.
도 4는 사용자 컨텍스트를 기초로 센서 데이터에 대한 필터링 설정을 결정하는 것을 개략적으로 도시하는 도면이다. 도 4를 참조하면, 소정의 통과 대역을 정의하는 복수의 필터링 설정이 도시된다. 도 4에 도시된 예시에서 제1 필터링 설정에 따라 fl1과 fh1 이 차단 주파수로 설정되는 경우와, 제2 필터링 설정에 따라 fl2와 fh2가 차단 주파수로 설정되는 경우의 통과 대역이 서로 다름이 확인될 수 있다. 도 4에서는 대역 통과 필터를 예시로 도시하였으나, 이에 제한되는 것은 아니고, 고역 통과 필터, 저역 통과 필터에 대해서도 실질적으로 동일한 방식으로 필터링 설정이 제공될 수 있다.4 is a diagram schematically illustrating determining filtering settings for sensor data based on a user context. Referring to FIG. 4, a plurality of filtering settings that define a predetermined pass band is shown. In the example shown in FIG. 4, it is confirmed that the pass bands of fl1 and fh1 are set to cutoff frequencies according to the first filtering setting, and when fl2 and fh2 are set to cutoff frequencies according to the second filtering setting. Can be. In FIG. 4, the band pass filter is illustrated as an example, but is not limited thereto, and the filtering setting may be provided in a substantially same manner for the high pass filter and the low pass filter.
한편, (다른 동작들과 전혀 다른 방법으로 움직이는 소정의 동작의 경우) 식별된 사용자 컨텍스트를 기초로 별개의 움직임 카운팅 알고리즘이 결정될 수 있다. 이 경우, 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘이 결정되고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘이 결정될 수 있다.On the other hand, a separate motion counting algorithm can be determined based on the identified user context (in the case of a given motion moving in a completely different way than other actions). In this case, a first motion counting algorithm may be determined for the first user context, and a second motion counting algorithm may be determined for the second user context.
이어서, 단계 S50에서, 결정된 움직임 카운팅 알고리즘을 이용하여, 센서 데이터를 기초로 사용자의 움직임이 카운팅된다. 예를 들어, 3축의 센서 데이터 중 변화가 가장 큰 축의 센서 데이터가 선택되고, 선택된 축의 센서 데이터 내의 피크가 카운팅될 수 있다. 움직임을 카운팅하는 방법은 구체적인 실시예에 따라 다양하게 변형될 수 있다.Subsequently, in step S50, the movement of the user is counted based on the sensor data using the determined motion counting algorithm. For example, the sensor data of the axis having the largest change among the sensor data of the three axes may be selected, and the peak in the sensor data of the selected axis may be counted. The method of counting movements may be variously modified according to specific embodiments.
도 5는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다.5 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to an embodiment of the present invention.
도 5를 참조하면, 웨어러블 장치(100)는 가속도 센서(110), 자이로 센서(120), 저장부(130), 입력부(140), 출력부(150), 제어부(160), 전원 공급부(170)를 포함한다.Referring to FIG. 5, the wearable device 100 may include an acceleration sensor 110, a gyro sensor 120, a storage unit 130, an input unit 140, an output unit 150, a controller 160, and a power supply unit 170. ).
가속도 센서(110)는 3축 방향(예를 들어, X축, Y축, Z축)의 가속도를 검출한다. 도 5에는 하나의 가속도 센서만을 도시하였으나, 이에 제한되는 것은 아니고, 각각 하나의 축 방향의 가속도를 검출할 수 있는 복수 개의 가속도 센서가 제공될 수도 있다. 가속도 센서(110)는 제어부(160)에 3축 방향의 가속도 데이터를 전송할 수 있다.The acceleration sensor 110 detects acceleration in three axis directions (for example, X axis, Y axis, and Z axis). Although only one acceleration sensor is illustrated in FIG. 5, the present invention is not limited thereto, and a plurality of acceleration sensors capable of detecting acceleration in one axial direction may be provided. The acceleration sensor 110 may transmit acceleration data in three axes to the controller 160.
자이로 센서(120)는 3축 방향(예를 들어, 피치(Pitch)축, 요(Yaw)축, 롤(Roll)축)의 각속도를 검출한다. 도 5에는 하나의 자이로 센서만을 도시하였으나, 이에 제한되는 것은 아니고, 각각 하나의 축 방향의 각속도를 검출할 수 있는 복수 개의 자이로 센서가 제공될 수도 있다. 자이로 센서(120)는 제어부(160)에 3축 방향의 각속도 데이터를 전송할 수 있다.The gyro sensor 120 detects angular velocities in three axis directions (for example, a pitch axis, a yaw axis, and a roll axis). Although only one gyro sensor is illustrated in FIG. 5, the present invention is not limited thereto, and a plurality of gyro sensors capable of detecting an angular velocity in one axial direction may be provided. The gyro sensor 120 may transmit angular velocity data in three axes to the controller 160.
저장부(130)는 각종 데이터 및 명령을 저장한다. 저장부(130)는 웨어러블 장치(100)의 동작을 위한 시스템 소프트웨어와 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 저장할 수도 있다. 저장부(130)는 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable-Programmable ROM), EEPROM(Electrically EPROM), 플래시 메모리, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.The storage unit 130 stores various data and commands. The storage unit 130 may store various software modules including system software for operating the wearable device 100 and applications in which a user context-based motion counting method according to an embodiment of the present invention is implemented. The storage unit 130 may be a random access memory (RAM), read only memory (ROM), erasable-programmable ROM (EPROM), electrically EPROM (EEPROM), flash memory, a removable disk, or well known in the art. Any type of computer readable recording medium may be included.
입력부(140)는 사용자로부터 각종 정보를 입력받는다. 입력부(140)는 키, 버튼, 스위치, 휠, 터치 패드 등의 각종 입력 수단을 포함할 수 있다.The input unit 140 receives various information from the user. The input unit 140 may include various input means such as keys, buttons, switches, wheels, and touch pads.
출력부(150)는 사용자에게 각종 정보를 통보한다. 출력부(150)는 텍스트, 영상 또는 음성의 형태로 정보를 출력할 수 있다. 이를 위하여, 출력부(150)는 디스플레이 모듈(151) 및 스피커 모듈(152)을 포함할 수 있다. 디스플레이 모듈(151)은 LCD(Liquid Crystal Display), TFT(Thin Film Transistor) LCD, OLED(Organic Light Emitting Diode), 플렉시블 디스플레이, 3차원 디스플레이, 전자잉크 디스플레이, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태로 제공될 수 있다.The output unit 150 notifies the user of various kinds of information. The output unit 150 may output information in the form of text, video or audio. To this end, the output unit 150 may include a display module 151 and a speaker module 152. The display module 151 may be a liquid crystal display (LCD), a thin film transistor (TFT) LCD, an organic light emitting diode (OLED), a flexible display, a three-dimensional display, an electronic ink display, or a technique well known in the art. It may be provided in any form.
제어부(160)는 다른 구성요소들을 제어하여 웨어러블 장치(100)의 전반적인 동작을 제어한다. 제어부(160)는 웨어러블 장치(100)의 동작을 위한 시스템 소프트웨어와 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다. 제어부(160)는 고역통과필터(161), 저역통과필터(162), 대역통과필터(163)를 포함하여 센서들(110, 120)로부터 전송된 센서 데이터를 필터링할 수 있다. 제어부(160)는 복수의 필터들(161~163) 중 적어도 하나의 필터를 선택하여 센서 데이터를 필터링할 수 있다. 한편, 고역통과필터(161), 저역통과필터(162), 대역통과필터(163)는 제어부(160)의 외부에 독립된 구성요소로 제공되거나, 각각의 센서(110, 120)의 내부 구성요소로 제공될 수도 있다.The controller 160 controls other components to control the overall operation of the wearable device 100. The controller 160 may perform various software modules including system software for operating the wearable device 100 and applications in which a user context-based motion counting method according to an embodiment of the present invention is implemented. The controller 160 may filter the sensor data transmitted from the sensors 110 and 120, including the high pass filter 161, the low pass filter 162, and the band pass filter 163. The controller 160 may filter the sensor data by selecting at least one filter among the plurality of filters 161 ˜ 163. Meanwhile, the high pass filter 161, the low pass filter 162, and the band pass filter 163 may be provided as independent components to the outside of the controller 160 or may be internal components of the respective sensors 110 and 120. May be provided.
전원 공급부(170)는 가속도 센서(110), 자이로 센서(120), 저장부(130), 입력부(140), 출력부(150), 제어부(160)의 동작에 필요한 전원을 공급한다. 전원 공급부(170)는 내장 배터리를 포함하거나, 외부로부터 공급되는 전원을 상기 구성요소들에 적합한 전원으로 변환할 수 있다.The power supply unit 170 supplies power required for the operation of the acceleration sensor 110, the gyro sensor 120, the storage 130, the input unit 140, the output unit 150, and the controller 160. The power supply unit 170 may include a built-in battery or convert power supplied from the outside into a power suitable for the above components.
한편, 도 5에 도시된 구성요소들이 필수적인 것은 아니어서, 웨어러블 장치(100)는 그보다 많은 구성요소들을 포함하거나, 그보다 적은 구성요소들을 포함하도록 변형될 수 있다.Meanwhile, since the components illustrated in FIG. 5 are not essential, the wearable device 100 may be modified to include more components or fewer components.
도 6은 도 5의 웨어러블 장치가 사용자의 신체에 착용된 상태를 개략적으로 도시하는 도면이다.FIG. 6 is a diagram schematically illustrating a state in which the wearable device of FIG. 5 is worn on a user's body.
도 6을 참조하면, 도 5를 참조하여 설명한 웨어러블 장치(100)가 사용자의 신체에 착용될 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 팔 또는 다리와 같은 사지에 착용되거나, 사용자의 몸통에 착용될 수 있으나, 이에 제한되는 것은 아니고, 기타 부위(머리, 손, 발 등)를 포함하는 사용자의 신체의 적어도 일부에 착용될 수 있다. 또는, 웨어러블 장치(100)는 사용자의 신체에 착용된 임의의 물건(모자, 장갑, 신발 등)의 내부에 제공될 수도 있다.Referring to FIG. 6, the wearable device 100 described with reference to FIG. 5 may be worn on a user's body. For example, the wearable device 100 may be worn on an extremity such as an arm or a leg of the user, or may be worn on the user's torso, but is not limited thereto, and may include other parts (head, hands, feet, etc.) It may be worn on at least part of the user's body. Alternatively, the wearable device 100 may be provided inside any item (hat, gloves, shoes, etc.) worn on the user's body.
도 7은 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 웨어러블 장치를 개략적으로 도시하는 블록도이다. 설명의 편의를 위하여, 도 5를 참조하여 설명한 웨어러블 장치(100)와 동일한 구성요소에 대해서는 중복된 설명을 생략하기로 한다.7 is a block diagram schematically illustrating a wearable device for performing a user context based motion counting method according to another embodiment of the present invention. For convenience of description, duplicated descriptions of components that are the same as the wearable device 100 described with reference to FIG. 5 will be omitted.
도 7을 참조하면, 웨어러블 장치(200)는, 도 5를 참조하여 설명한 웨어러블 장치(100)와 비교하여, 무선 통신부(230), 진동부(260)를 더 포함한다.Referring to FIG. 7, the wearable device 200 further includes a wireless communication unit 230 and a vibrator 260 as compared with the wearable device 100 described with reference to FIG. 5.
무선 통신부(230)는 외부 디바이스(각종 서버 또는 사용자 단말 등)와 무선 통신할 수 있다. 무선 통신부(230)는 이동 통신, 와이브로, 와이파이(WiFi), 블루투스(Bluetooth), 지그비(Zigbee), 초음파, 적외선, RF(Radio Frequency) 등과 같은 무선 통신 방식을 이용하여 외부 디바이스와 무선 통신할 수 있다. 무선 통신부(230)는 외부 디바이스로부터 수신한 데이터 및/또는 정보를 제어부(280)에 전달하고, 제어부(280)로부터 전달된 데이터 및/또는 정보를 외부 디바이스에 전송할 수 있다. 이를 위하여, 무선 통신부(230)는 이동 통신 모듈, 근거리 통신 모듈 등을 포함할 수 있다.The wireless communication unit 230 may wirelessly communicate with an external device (such as a server or a user terminal). The wireless communication unit 230 may wirelessly communicate with an external device by using a wireless communication method such as mobile communication, WiBro, Wi-Fi, Bluetooth, Zigbee, ultrasonic wave, infrared ray, or RF (Radio Frequency). have. The wireless communication unit 230 may transmit data and / or information received from the external device to the controller 280, and may transmit data and / or information transmitted from the controller 280 to the external device. To this end, the wireless communication unit 230 may include a mobile communication module, a short-range communication module and the like.
진동부(260)는 사용자에게 각종 정보를 통보하기 위한 진동 알림을 수행할 수 있다.The vibrator 260 may perform a vibration notification for notifying the user of various kinds of information.
웨어러블 장치(200)는 각종 서버 또는 사용자 디바이스(미도시)와 센서 데이터, 사용자 컨텍스트, 움직임 카운팅 알고리즘, 움직임 카운팅 결과 등의 각종 정보를 송수신할 수 있다.The wearable device 200 may transmit / receive various types of information such as sensor data, a user context, a motion counting algorithm, and a motion counting result with various servers or user devices (not shown).
본 발명의 실시예에 따른 웨어러블 장치는 예시되지 않은 사용자의 신체에 착용 가능한 임의의 컴퓨터 시스템으로 제공될 수도 있다.The wearable device according to the embodiment of the present invention may be provided as any computer system wearable on the body of the user, which is not illustrated.
도 8은 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.8 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to an embodiment of the present invention.
도 8을 참조하면, 센서 허브(1000)는 프로세싱 장치(1100), MEMS 장치(1200), ASIC(Application Specific Integrated Circuit) 장치(1300)를 포함할 수 있다. MEMS 장치(1200)는 가속도 센서 또는 자이로 센서일 수 있으나, 이에 제한되는 것은 아니다. ASIC 장치(1300)는 MEMS 장치(1200)의 센싱 신호를 처리할 수 있다. 프로세싱 장치(1100)는, 애플리케이션 프로세서를 대신하여, 센서 데이터 처리를 전문적으로 수행하기 위한 보조 프로세서로 기능할 수 있다. 프로세싱 장치(1100)는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다.Referring to FIG. 8, the sensor hub 1000 may include a processing device 1100, a MEMS device 1200, and an application specific integrated circuit (ASIC) device 1300. The MEMS device 1200 may be an acceleration sensor or a gyro sensor, but is not limited thereto. The ASIC device 1300 may process the sensing signal of the MEMS device 1200. The processing device 1100 may function as a coprocessor for professionally performing sensor data processing on behalf of the application processor. The processing device 1100 may execute various software modules including an application in which a user context-based motion counting method according to an embodiment of the present invention is implemented.
도 9는 본 발명의 다른 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는 센서 허브를 개략적으로 도시하는 블록도이다.9 is a block diagram schematically illustrating a sensor hub for performing a user context based motion counting method according to another embodiment of the present invention.
도 9를 참조하면, 센서 허브(2000)는 복수 개의 MEMS 장치(2200, 2400)와 복수 개의 ASIC 장치(2300, 2500)를 포함할 수 있다. 제1 MEMS 장치(2200)는 가속도 센서이고, 제2 MEMS 장치(2400)는 자이로 센서일 수 있으나, 이에 제한되는 것은 아니다. 복수 개의 ASIC 장치(2300, 2500)는 각각 대응하는 MEMS 장치(2200, 2400)의 센싱 신호를 처리할 수 있다. 프로세싱 장치(2100)는, 애플리케이션 프로세서를 대신하여, 센서 데이터 처리를 전문적으로 수행하기 위한 보조 프로세서로 기능할 수 있다. 프로세싱 장치(2100)는 본 발명의 실시예에 따른 사용자 컨텍스트 기반 움직임 카운팅 방법이 구현된 애플리케이션을 포함한 각종 소프트웨어 모듈을 수행할 수 있다. 도시된 바와 다르게, 세 개 이상의 MEMS 장치와 ASIC 장치가 센서 허브(2000) 내에 제공될 수 있다. Referring to FIG. 9, the sensor hub 2000 may include a plurality of MEMS devices 2200 and 2400 and a plurality of ASIC devices 2300 and 2500. The first MEMS device 2200 may be an acceleration sensor, and the second MEMS device 2400 may be a gyro sensor, but is not limited thereto. The plurality of ASIC devices 2300 and 2500 may process sensing signals of the corresponding MEMS devices 2200 and 2400, respectively. The processing device 2100 may function as a coprocessor for professionally performing sensor data processing on behalf of the application processor. The processing device 2100 may execute various software modules including an application in which the user context-based motion counting method according to an embodiment of the present invention is implemented. Unlike shown, three or more MEMS devices and ASIC devices may be provided within the sensor hub 2000.
본 발명의 실시예와 관련하여 설명된 방법은 프로세서에 의해 수행되는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈은 RAM, ROM, EPROM, EEPROM, 플래시 메모리, 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체에 상주할 수도 있다.The method described in connection with an embodiment of the present invention may be implemented as a software module performed by a processor. The software module may reside in RAM, ROM, EPROM, EEPROM, flash memory, hard disk, removable disk, CD-ROM, or any form of computer readable recording medium well known in the art. .
이상, 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (10)

  1. 센서 데이터로부터 적어도 하나의 특징(feature)을 추출하는 단계;Extracting at least one feature from the sensor data;
    상기 추출된 특징을 기초로 사용자 컨텍스트(context)를 식별하는 단계;Identifying a user context based on the extracted feature;
    상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘을 결정하는 단계; 및Determining a motion counting algorithm based on the identified user context; And
    상기 결정된 움직임 카운팅 알고리즘을 이용하여, 상기 센서 데이터를 기초로 사용자의 움직임을 카운팅하는 단계를 포함하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.Counting a user's motion based on the sensor data, using the determined motion counting algorithm.
  2. 제1항에 있어서,The method of claim 1,
    상기 추출된 특징은,The extracted feature is,
    상기 센서 데이터의 적어도 하나의 통계 값을 포함하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.And at least one statistical value of the sensor data.
  3. 제1항에 있어서,The method of claim 1,
    상기 사용자 컨텍스트를 식별하는 단계는,Identifying the user context,
    KNN(K-Nearest Neighborhood) 알고리즘을 이용하여 상기 추출된 특징을 기초로 사용자 컨텍스트를 식별하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.A user context based motion counting method for identifying a user context based on the extracted feature using a K-Nearest Neighborhood (KNN) algorithm.
  4. 제1항에 있어서,The method of claim 1,
    상기 움직임 카운팅 알고리즘을 결정하는 단계는,Determining the motion counting algorithm,
    상기 식별된 사용자 컨텍스트를 기초로 움직임 카운팅 알고리즘의 자기상관(autocorrelation) 파라미터를 결정하되, 제1 사용자 컨텍스트에 대해서 제1 자기상관 파라미터를 결정하고, 제2 사용자 컨텍스트에 대해서 제2 자기상관 파라미터를 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.Determine an autocorrelation parameter of a motion counting algorithm based on the identified user context, determine a first autocorrelation parameter for a first user context, and determine a second autocorrelation parameter for a second user context A user context based motion counting method.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 자기상관 파라미터는, The autocorrelation parameter is
    상기 센서 데이터 내에 포함되는 피크(peak)의 반복 주기에 상응하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.A user context based motion counting method corresponding to a repetition period of a peak included in the sensor data.
  6. 제1항에 있어서,The method of claim 1,
    상기 움직임 카운팅 알고리즘을 결정하는 단계는,Determining the motion counting algorithm,
    상기 식별된 사용자 컨텍스트를 기초로 제1 사용자 컨텍스트에 대해서 제1 움직임 카운팅 알고리즘을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 움직임 카운팅 알고리즘을 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.Determine a first motion counting algorithm for a first user context based on the identified user context, and determine a second motion counting algorithm for a second user context.
  7. 제1항에 있어서,The method of claim 1,
    상기 움직임 카운팅 알고리즘은,The motion counting algorithm,
    상기 센서 데이터 중 소정의 주파수 범위의 센서 데이터에 대한 필터링을 포함하고,Filtering the sensor data of a predetermined frequency range among the sensor data;
    상기 움직임 카운팅 알고리즘을 결정하는 단계는,Determining the motion counting algorithm,
    상기 식별된 사용자 컨텍스트를 기초로 상기 필터링 설정을 결정하되, 제1 사용자 컨텍스트에 대해서 제1 필터링 설정을 결정하고, 제2 사용자 컨텍스트에 대해서 제2 필터링 설정을 결정하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.Determining the filtering setting based on the identified user context, determining a first filtering setting for a first user context, and determining a second filtering setting for a second user context.
  8. 제1항에 있어서,The method of claim 1,
    가속도 센서 또는 자이로 센서로부터 상기 센서 데이터를 획득하는 단계를 더 포함하는, 사용자 컨텍스트 기반 움직임 카운팅 방법.And acquiring the sensor data from an acceleration sensor or a gyro sensor.
  9. 제1항 내지 제8항 중 어느 하나의 항의 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는, 센서 장치.A sensor device for performing the user context based motion counting method of any one of claims 1 to 8.
  10. 제1항 내지 제8항 중 어느 하나의 항의 사용자 컨텍스트 기반 움직임 카운팅 방법을 수행하는, 웨어러블 장치.The wearable device of claim 1, wherein the wearable device performs the user context based motion counting method of claim 1.
PCT/KR2015/010532 2015-10-06 2015-10-06 User context based motion counting method, sensor device and wearable device performing same WO2017061639A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/010532 WO2017061639A1 (en) 2015-10-06 2015-10-06 User context based motion counting method, sensor device and wearable device performing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/010532 WO2017061639A1 (en) 2015-10-06 2015-10-06 User context based motion counting method, sensor device and wearable device performing same

Publications (1)

Publication Number Publication Date
WO2017061639A1 true WO2017061639A1 (en) 2017-04-13

Family

ID=58487815

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/010532 WO2017061639A1 (en) 2015-10-06 2015-10-06 User context based motion counting method, sensor device and wearable device performing same

Country Status (1)

Country Link
WO (1) WO2017061639A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100647905B1 (en) * 2005-06-03 2006-11-23 한국전자통신연구원 Sleeping environment control system and method
KR20070047096A (en) * 2005-11-01 2007-05-04 한국전자통신연구원 Input device using accelerometers and motion recognition method
KR20110100986A (en) * 2010-03-05 2011-09-15 에스케이텔레콤 주식회사 Unlocking method of potable terminal and potable terminal thereof
KR20130101505A (en) * 2010-08-06 2013-09-13 구글 인코포레이티드 Disambiguating input based on context
KR20130124143A (en) * 2012-11-30 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100647905B1 (en) * 2005-06-03 2006-11-23 한국전자통신연구원 Sleeping environment control system and method
KR20070047096A (en) * 2005-11-01 2007-05-04 한국전자통신연구원 Input device using accelerometers and motion recognition method
KR20110100986A (en) * 2010-03-05 2011-09-15 에스케이텔레콤 주식회사 Unlocking method of potable terminal and potable terminal thereof
KR20130101505A (en) * 2010-08-06 2013-09-13 구글 인코포레이티드 Disambiguating input based on context
KR20130124143A (en) * 2012-11-30 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction

Similar Documents

Publication Publication Date Title
JP2021072136A (en) Methods and devices for combining muscle activity sensor signals and inertial sensor signals for gesture-based control
WO2014204092A1 (en) Wearable device and communication method using wearable device
EP2871590B1 (en) User interface control in portable system
WO2018217060A1 (en) Method and wearable device for performing actions using body sensor array
WO2009123396A2 (en) Training apparatus and method based on motion content
US20150109197A1 (en) Information processing apparatus, information processing method, and program
WO2016175501A1 (en) Step recognition system and method therefor, and storage medium in which program for processing same method is recorded
WO2015027089A1 (en) Systems, articles, and methods for human-electronics interfaces
EP3289435A1 (en) User interface control using impact gestures
KR20150112741A (en) Wearable device and information input method using the same
CN107145232A (en) The method and apparatus that a kind of utilization capacitance detecting recognizes user's hand behavior
KR101341481B1 (en) System for controlling robot based on motion recognition and method thereby
CN106055958B (en) A kind of unlocking method and device
KR101554125B1 (en) Wearable device and information input method using the same
WO2017061639A1 (en) User context based motion counting method, sensor device and wearable device performing same
CN108491074B (en) Electronic device, exercise assisting method and related product
KR20120064921A (en) Portable electromyogram sensor and motion sensor with wireless data transmission
KR101733746B1 (en) User context based motion counting method, sensor device and wearable device performing the same
CN108255093A (en) Control device and control method
US10488924B2 (en) Wearable device, and method of inputting information using the same
CN108680181A (en) Wireless headset, step-recording method and Related product based on headset detection
WO2024090826A1 (en) Electronic device and method for performing authentication using gesture of user
WO2017061637A1 (en) Wearable device and method for measuring user's physical activity
US20230236594A1 (en) Control System for controlling a device remote from the system
WO2024162550A1 (en) Respiration measurement method and system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15905882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 11/09/2018)

122 Ep: pct application non-entry in european phase

Ref document number: 15905882

Country of ref document: EP

Kind code of ref document: A1