KR102089002B1 - Method and wearable device for providing feedback on action - Google Patents

Method and wearable device for providing feedback on action Download PDF

Info

Publication number
KR102089002B1
KR102089002B1 KR1020180130283A KR20180130283A KR102089002B1 KR 102089002 B1 KR102089002 B1 KR 102089002B1 KR 1020180130283 A KR1020180130283 A KR 1020180130283A KR 20180130283 A KR20180130283 A KR 20180130283A KR 102089002 B1 KR102089002 B1 KR 102089002B1
Authority
KR
South Korea
Prior art keywords
data
action
behavior
user
wearable device
Prior art date
Application number
KR1020180130283A
Other languages
Korean (ko)
Other versions
KR20190047648A (en
Inventor
김현우
Original Assignee
김현우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김현우 filed Critical 김현우
Publication of KR20190047648A publication Critical patent/KR20190047648A/en
Application granted granted Critical
Publication of KR102089002B1 publication Critical patent/KR102089002B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B21/00Exercising apparatus for developing or strengthening the muscles or joints of the body by working against a counterforce, with or without measuring devices
    • A63B21/40Interfaces with the user related to strength training; Details thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/40Acceleration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/70Measuring or simulating ambient conditions, e.g. weather, terrain or surface conditions
    • A63B2220/74Atmospheric pressure
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2230/00Measuring physiological parameters of the user
    • A63B2230/04Measuring physiological parameters of the user heartbeat characteristics, e.g. ECG, blood pressure modulations
    • A63B2230/045Measuring physiological parameters of the user heartbeat characteristics, e.g. ECG, blood pressure modulations used as a control parameter for the apparatus

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Mathematical Physics (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Fuzzy Systems (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

행동에 대한 피드백을 제공하는 서버는 웨어러블 디바이스에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 상기 웨어러블 디바이스로부터 수신하는 센서 데이터 수신부, 상기 센서 데이터로부터 적어도 둘 이상의 특이점을 검출하는 특이점 검출부, 상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식하는 행동 인식부 및 상기 인식된 행동에 대한 피드백을 웨어러블 디바이스 또는 사용자 단말 중 적어도 하나로 전송하는 피드백 전송부를 포함한다. The server providing feedback on the action includes a sensor data receiving unit receiving a plurality of sensor data measured for a predetermined time by a plurality of sensors built in a wearable device from the wearable device, and at least two or more from the sensor data Singularity detection unit for detecting the singularity, a behavior recognition unit for recognizing the user's behavior based on the similarity between the data for the first feature section including the at least two singularities and a plurality of pre-stored motion pattern data and the recognized behavior And a feedback transmission unit transmitting feedback on at least one of a wearable device or a user terminal.

Description

행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법{METHOD AND WEARABLE DEVICE FOR PROVIDING FEEDBACK ON ACTION}A wearable device and method for providing feedback on behavior {METHOD AND WEARABLE DEVICE FOR PROVIDING FEEDBACK ON ACTION}

본 발명은 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법에 관한 것이다. The present invention relates to a wearable device and method for providing feedback on behavior.

웨어러블 디바이스(wearable device)란 입을 수 있는 기기를 의미하며, 과학 기술이 발전하여 티셔츠, 안경, 팔찌, 시계, 신발 등의 착용할 수 있는 스마트 장치들이 개발되고 있다. 대표적인 웨어러블 디바이스로는 스마트 워치가 있으며, 스마트 워치에는 시간을 알려주는 기존의 시계 기능에 스마트폰을 확인하지 않아도 알림, 메일, 메시지를 실시간으로 확인할 수 있도록 하는 기능이 더해졌다. A wearable device means a wearable device, and science and technology advances to develop wearable smart devices such as T-shirts, glasses, bracelets, watches, and shoes. A typical wearable device is a smart watch, and the smart watch has an existing clock function that tells the time, and a function that enables you to check notifications, e-mails, and messages in real time without checking your smartphone has been added.

이러한 스마트 기능을 제공하는 웨어러블 디바이스와 관련하여, 선행기술인 한국등록특허 제 10-1689368호는 웨어러블 디바이스를 개시하고 있다. In relation to a wearable device providing such a smart function, Korean Patent Registration No. 10-1689368, which is a prior art, discloses a wearable device.

최근의 웨어러블 디바이스는 내장된 다양한 센서를 통해 측정된 데이터를 이용한 건강 관련 서비스를 제공하고 있다. 그러나 이는 사용자의 걸음 수, 이동 거리, 운동 시간 등에 대한 해석 정보에 한정됨으로써, 사용자가 행하고 있는 동작 및 행동과 관련된 직관적인 피드백을 제공하기 어렵다는 단점을 가지고 있다. Recently, wearable devices provide health-related services using data measured through various sensors. However, this is limited to analysis information on the number of steps, movement distance, and exercise time of the user, and thus has a disadvantage in that it is difficult to provide intuitive feedback related to the action and behavior of the user.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 웨어러블 디바이스에 내장된 다양한 센서를 이용하여 측정된 복수의 센서 데이터에 기초하여 사용자가 언제, 어떤 행동을 하였는지를 모니터링하는 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법을 제공하고자 한다. The present invention is to solve the above-mentioned problems, a wearable device that provides feedback on an action to monitor when and what actions the user performed based on a plurality of sensor data measured using various sensors built into the wearable device And to provide a method.

모니터링된 사용자의 행동에 대해 자가수치화(Quantified self)된 정보를 사용자에게 피드백하여, 사용자에게 올바른 행동 및 습관을 유도하는 피드백을 제공하는 웨어러블 디바이스 및 방법을 제공하고자 한다. It is intended to provide a wearable device and method for providing feedback that induces correct behavior and habits to a user by feeding the user self-digitized information about the monitored user's behavior.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present embodiment are not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 웨어러블 디바이스에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 상기 웨어러블 디바이스로부터 수신하는 센서 데이터 수신부, 상기 센서 데이터로부터 적어도 둘 이상의 특이점을 검출하는 특이점 검출부, 상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식하는 행동 인식부 및 상기 인식된 행동에 대한 피드백을 웨어러블 디바이스 또는 사용자 단말 중 적어도 하나로 전송하는 피드백 전송부를 포함하는 행동 인식 서버를 제공할 수 있다. As a means for achieving the above technical problem, an embodiment of the present invention, a sensor for receiving a plurality of sensor data (Sensor Data) measured for a predetermined time by a plurality of sensors embedded in the wearable device from the wearable device A data receiving unit, a singularity detecting unit detecting at least two singularities from the sensor data, and recognizing a user's behavior based on the similarity between data for a first feature section including the at least two singularities and a plurality of previously stored motion pattern data It is possible to provide a behavior recognition server including a behavior recognition unit and a feedback transmission unit that transmits feedback on the recognized behavior to at least one of a wearable device or a user terminal.

본 발명의 다른 실시예는, 웨어러블 디바이스에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 상기 웨어러블 디바이스로부터 수신하는 단계, 상기 센서 데이터로부터 적어도 둘 이상의 특이점을 검출하는 단계, 상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식하는 단계 및 상기 인식된 행동에 대한 피드백을 웨어러블 디바이스 또는 사용자 단말 중 적어도 하나로 전송하는 단계를 포함하는 행동 인식 방법을 제공할 수 있다. Another embodiment of the present invention, receiving a plurality of sensor data (Sensor Data) measured for a predetermined time by a plurality of sensors embedded in the wearable device from the wearable device, detecting at least two or more singularities from the sensor data Step of recognizing the user's behavior based on the similarity between the data for the first feature section including the at least two singularities and a plurality of pre-stored motion pattern data, and a feedback of the recognized behavior by a wearable device or It may provide a behavior recognition method comprising the step of transmitting to at least one of the user terminal.

본 발명의 또 다른 실시예는, 웨어러블 디바이스에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터(Sensor Data)를 수집하는 단계, 상기 수집된 복수의 센서 데이터(Sensor Data)를 행동 인식 서버로 전송하는 단계, 상기 행동 인식 서버로부터 상기 복수의 센서 데이터에 기초하여 인식된 사용자의 행동에 대한 피드백을 수신하는 단계 및 상기 수신한 피드백을 출력하는 단계를 포함하되, 상기 사용자의 행동은 상기 복수의 센서데이터로부터 적어도 둘 이상의 특이점이 검출되고, 상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동이 인식되는 것인 행동 인식 방법을 제공할 수 있다. Another embodiment of the present invention, collecting a plurality of sensor data (Sensor Data) measured by a plurality of sensors embedded in the wearable device, the collected plurality of sensor data (Sensor Data) as a behavior recognition server Transmitting, receiving feedback on the recognized user's behavior based on the plurality of sensor data from the behavior recognition server, and outputting the received feedback, wherein the user's behavior includes the plurality of A behavior recognition method in which at least two or more singularities are detected from sensor data, and a user's behavior is recognized based on the similarity between data for a first feature section including the at least two singularities and a plurality of previously stored motion pattern data. Can provide

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 상술한 문제점을 해결하기 위한 것으로서, 웨어러블 디바이스에 내장된 다양한 센서를 이용하여 측정된 복수의 센서 데이터에 기초하여 사용자가 언제, 어떤 행동을 하였는지 모니터링하는 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, the present invention is to solve the above-described problem, based on a plurality of sensor data measured by using a variety of sensors built into the wearable device, the user when, what It is possible to provide a wearable device and method for providing feedback on an action to monitor whether an action has been taken.

모니터링된 사용자의 행동에 대해 자가수치화(Quantified self)된 정보를 사용자에게 피드백하여, 사용자에게 올바른 행동 및 습관을 유도하는 피드백을 제공하는 웨어러블 디바이스 및 방법을 제공할 수 있다. It is possible to provide a wearable device and method for providing feedback that induces correct behaviors and habits to a user by feeding the user self-digitized information about the monitored user's behavior.

도 1은 본 발명의 일 실시예에 따른 행동 피드백 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 웨어러블 디바이스에서 행동에 대한 피드백을 제공하는 방법의 순서도이다.
도 4는 본 발명의 일 실시예에 따른 행동 인식 서버의 구성도이다.
도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 복수의 센서 데이터로부터 데이터 퓨전을 통해 사용자의 동작을 인식하는 과정을 설명하기 위한 예시적인 도면이다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 행동 인식 서버에서 인식된 사용자의 동작에 대해 클러스터링을 수행하는 과정을 설명하기 위한 예시적인 도면이다.
도 7은 본 발명의 일 실시예에 따른 행동 인식 서버에서 행동에 대한 피드백을 제공하는 방법의 순서도이다.
1 is a block diagram of a system for providing behavioral feedback according to an embodiment of the present invention.
2 is a block diagram of a wearable device according to an embodiment of the present invention.
3 is a flowchart of a method for providing feedback on an action in a wearable device according to an embodiment of the present invention.
4 is a block diagram of a behavior recognition server according to an embodiment of the present invention.
5A to 5D are exemplary views for explaining a process of recognizing a user's motion through data fusion from a plurality of sensor data according to an embodiment of the present invention.
6A and 6B are exemplary diagrams for explaining a process of performing clustering on a user's motion recognized in a behavior recognition server according to an embodiment of the present invention.
7 is a flowchart of a method for providing feedback on a behavior in a behavior recognition server according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part is said to “include” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated. However, it should be understood that the existence or addition possibilities of numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.Some of the operations or functions described in this specification as being performed by a terminal or device may be performed instead on a server connected to the corresponding terminal or device. Similarly, some of the operations or functions described as being performed by the server may be performed in a terminal or device connected to the corresponding server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 행동 피드백 제공 시스템의 구성도이다. 도 1을 참조하면, 행동 피드백 제공 시스템(1)은 웨어러블 디바이스(110), 행동 인식 서버(120) 및 사용자 단말(130)을 포함할 수 있다. 웨어러블 디바이스(110), 행동 인식 서버(120) 및 사용자 단말(130)은 행동 피드백 제공 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다. 1 is a block diagram of a system for providing behavioral feedback according to an embodiment of the present invention. Referring to FIG. 1, the behavior feedback providing system 1 may include a wearable device 110, a behavior recognition server 120, and a user terminal 130. The wearable device 110, the behavior recognition server 120, and the user terminal 130 exemplarily illustrate components that can be controlled by the behavior feedback providing system 1.

도 1의 행동 피드백 제공 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 웨어러블 디바이스(110) 또는 사용자 단말(130)은 행동 인식 서버(120)와 동시에 또는 시간 간격을 두고 연결될 수 있다. Each component of the behavior feedback providing system 1 of FIG. 1 is generally connected through a network. For example, as illustrated in FIG. 1, the wearable device 110 or the user terminal 130 may be connected to the behavior recognition server 120 simultaneously or at a time interval.

네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. Network refers to a connection structure capable of exchanging information between nodes such as terminals and servers, and a local area network (LAN), a wide area network (WAN), and the Internet (WWW: World) Wide Web), wired and wireless data communication networks, telephone networks, and wired and wireless television communication networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

웨어러블 디바이스(110)는 행동 피드백을 제공하는 앱이 설치되어, 사용자로부터의 별도의 입력 없이 앱이 자동으로 실행될 수 있다.The wearable device 110 is installed with an app that provides behavioral feedback, so that the app can be automatically executed without a separate input from the user.

웨어러블 디바이스(110)는 사용자의 손목에 착용되고, 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터(Sensor Data)를 수집할 수 있다. The wearable device 110 may be worn on a user's wrist and collect a plurality of sensor data measured by a plurality of sensors embedded in the wearable device 110.

웨어러블 디바이스(110)는 수집된 복수의 센서 데이터(Sensor Data)를 행동 인식 서버(120)로 전송할 수 있다. The wearable device 110 may transmit the collected plurality of sensor data to the behavior recognition server 120.

웨어러블 디바이스(110)는 행동 인식 서버(120)로부터 복수의 센서 데이터에 기초하여 인식된 사용자의 행동에 대한 피드백을 수신할 수 있다. 여기서, 피드백은 시간대별 사용자의 행동 이력 및 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함할 수 있다.The wearable device 110 may receive feedback on the recognized user's behavior based on the plurality of sensor data from the behavior recognition server 120. Here, the feedback may include at least one of action information of at least one action included in the user's action history, the user's action history, and meaningful action information included in the at least one action.

웨어러블 디바이스(110)는 사용자의 행동에 대한 피드백을 출력할 수 있다. 예를 들어, 피드백은 그림과 텍스트로 구성되어 디스플레이를 통해 출력될 수 있으며, 음성 또는 알람으로 구성되어 스피커를 통해 출력될 수 있으며, 진동을 통해 출력될 수 도 있다. 이를 통해, 사용자에게 시각적, 청각적, 촉각적 피드백을 제공할 수 있다.The wearable device 110 may output feedback on the user's behavior. For example, feedback may consist of pictures and text, and may be output through a display, and may consist of voice or alarm, and may be output through a speaker, or may be output through vibration. Through this, it is possible to provide visual, audible, and tactile feedback to the user.

이러한 피드백을 통해 사용자는 자신의 행동을 모니터링할 수 있다. 예를 들어, 사용자가 운동을 수행한 경우, 사용자는 운동 횟수 및 세트 칼로리, 운동 시간, 휴식 시간, 심박수에 기초하여 측정된 운동량을 확인할 수 있다. 또한, 사용자의 운동 자세에 기초하여 운동 정확도를 측정하고, 측정된 운동 정확도에 기초하여 올바른 운동 자세를 가이드받을 수 있다. 또 다른 예를 들어, 사용자가 수행한 운동 종류에 기초하여 사용자에게 부족한 운동 부위에 대한 피드백을 통해 사용자가 다양한 운동을 고르게 할 수 있도록 할 수 있다. 또 다른 예를 들어, 실시간 정보 및 랭킹 정보를 포함하는 피드백을 통해 사용자의 도전 의식을 강화시켜 사용자에게 운동에 대한 동기가 부여되도록 할 수 있다. 또 다른 예를 들어, 사용자는 운동 데이터를 모니터링하여 하루, 주간, 월간 단위의 자가수치화를 확인할 수 있다. 또 다른 예를 들어, 사용자는 자신의 잘못된 행동 및 습관에 대한 피드백을 통해 올바른 자세를 가이드받을 수 있다. This feedback allows users to monitor their behavior. For example, when the user performs an exercise, the user may check the exercise amount measured based on the number of exercise and set calories, exercise time, rest time, and heart rate. In addition, the exercise accuracy can be measured based on the user's exercise posture, and the correct exercise posture can be guided based on the measured exercise accuracy. As another example, based on the type of exercise performed by the user, the user may be able to evenly select various exercises through feedback on an insufficient exercise part to the user. For another example, the user's challenge awareness may be strengthened through feedback including real-time information and ranking information, so that the user is motivated to exercise. As another example, the user may check self-digitization in units of daily, weekly, and monthly by monitoring exercise data. As another example, the user can be guided to the correct posture through feedback on his wrong behavior and habits.

웨어러블 디바이스(110)는 사용자 단말(130)과 블루투스(Bluetooth) 통신을 통해 연결될 수 있다. 이 때, 웨어러블 디바이스(110)는 웨어러블 디바이스(110) 및 사용자 단말(130) 각각에 설치된 행동 피드백을 제공하는 앱을 통해 각각의 사용자의 행동 정보가 동기화될 수 있다.The wearable device 110 may be connected to the user terminal 130 through Bluetooth communication. At this time, the wearable device 110 may synchronize each user's behavior information through an app that provides behavior feedback installed in each of the wearable device 110 and the user terminal 130.

이러한 웨어러블 디바이스(110)는 사용자 행동에 대한 피드백을 행동 인식 서버(120)로부터 수신하도록 구성될 수 있으며, 웨어러블 디바이스(110)의 메모리에 복수의 동작 패턴에 대한 동작 데이터가 기저장되어 있어 웨어러블 디바이스(110) 자체에서도 사용자의 동작 또는 행동을 인식하도록 구성될 수도 있다. The wearable device 110 may be configured to receive feedback on a user's behavior from the behavior recognition server 120, and the wearable device has pre-stored motion data for a plurality of motion patterns in a memory of the wearable device 110 The 110 itself may also be configured to recognize the user's actions or actions.

행동 인식 서버(120)는 복수의 동작 패턴 각각에 대응하는 동작 데이터를 데이터베이스에 저장할 수 있다.The gesture recognition server 120 may store gesture data corresponding to each of a plurality of gesture patterns in a database.

행동 인식 서버(120)는 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 웨어러블 디바이스(110)로부터 수신할 수 있다. 이 때, 행동 인식 서버(120)는 칼만 필터, 저역 통과 필터, 고역 통과 필터, 상보 필터, 이동 평균 필터 및 스무싱 필터 중 적어도 하나를 이용하여 복수의 센서 데이터로부터 노이즈를 제거할 수 있다.The behavior recognition server 120 may receive a plurality of sensor data measured for a predetermined time by a plurality of sensors built in the wearable device 110 from the wearable device 110. At this time, the behavior recognition server 120 may remove noise from a plurality of sensor data using at least one of a Kalman filter, a low pass filter, a high pass filter, a complementary filter, a moving average filter, and a smoothing filter.

행동 인식 서버(120)는 센서 데이터로부터 적어도 둘 이상의 특이점을 검출할 수 있다. 예를 들어, 행동 인식 서버(120)는 머신 러닝을 이용하여 적어도 둘 이상의 특이점을 검출할 수 있다. 다른 예를 들어, 행동 인식 서버(120)는 센서 데이터로부터 데이터 퓨전(Data fusion)을 통해 적어도 둘 이상의 특이점을 검출할 수도 있다. 구체적으로, 행동 인식 서버(120)는 수집된 복수의 센서 데이터를 데이터 퓨전을 통해 센서 퓨전 데이터로 생성하여 적어도 둘 이상의 특이점을 검출할 수 있다. 여기서, 적어도 둘 이상의 특이점은 제 1 특이점 및 제 2 특이점을 포함하고, 특징 구간은 제 1 특이점에 해당하는 시각과 제 2 특이점에 해당하는 시각 사이의 구간을 의미하며, 적어도 둘 이상의 특이점은 예를 들어, 센서 데이터로부터 피크값, 밸리, 제로 크로싱, 그래프의 넓이, 곡률, 시간, 각도, 가속도, 거리 및 궤도 중 적어도 하나에 기초하여 검출될 수 있다. The behavior recognition server 120 may detect at least two or more singularities from sensor data. For example, the behavior recognition server 120 may detect at least two or more singularities using machine learning. For another example, the behavior recognition server 120 may detect at least two singularities through data fusion from sensor data. Specifically, the behavior recognition server 120 may generate at least two singularities by generating a plurality of collected sensor data as sensor fusion data through data fusion. Here, the at least two singularities include a first singularity and a second singularity, and the feature section refers to a section between a time corresponding to the first singularity and a time corresponding to the second singularity, and the at least two singularities are, for example, For example, it can be detected from sensor data based on at least one of peak value, valley, zero crossing, area of the graph, curvature, time, angle, acceleration, distance, and trajectory.

행동 인식 서버(120)는 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식할 수 있다. The behavior recognition server 120 may recognize a user's behavior based on the similarity between data for a first feature section including at least two singularities and a plurality of pre-stored motion pattern data.

행동 인식 서버(120)는 사용자의 행동을 인식하기 위해 머신러닝을 이용하여 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도를 분석하고, 분석된 유사도에 기초하여 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식할 수 있다. 이 때, 행동 인식 서버(120)는 가속도 센서, 자이로 센서, 쿼터니언의 값을 이용하여 사용자가 행하는 동작의 자세가 바른 자세인지를 판단할 수 있다. 이를 위해, 행동 인식 서버(120)는 HMM(Hidden Markov model), CNN(Convolution Neural Nerwork), DNN(Deep Neural Network) 등의 머신러닝을 통해 사용자의 운동 자세가 바른 자세인지를 판단할 수 있다.The behavior recognition server 120 analyzes the similarity between the data for the first feature section and a plurality of pre-stored motion pattern data by using machine learning to recognize the user's behavior, and the first feature section based on the analyzed similarity It is possible to recognize the operation corresponding to the data for. At this time, the behavior recognition server 120 may determine whether the posture of the action performed by the user is the correct posture using the values of the acceleration sensor, the gyro sensor, and the quaternion. To this end, the behavior recognition server 120 may determine whether the user's exercise posture is the correct posture through machine learning such as a Hidden Markov Model (HMM), Convolution Neural Nerwork (CNN), or Deep Neural Network (DNN).

행동 인식 서버(120)는 제 1 특징 구간에 대한 데이터를 포함하는 복수의 특징 구간에 대한 데이터에 대해 제 1 클러스터링을 수행하여 복수의 특징 구간에 대한 데이터를 복수의 유사 동작군으로 군집화하고, 제 1 특징 구간에 대한 데이터가 포함된 어느 하나의 유사 동작군에 해당하는 행동을 사용자의 행동으로 인식할 수 있다. The behavior recognition server 120 clusters the data for the plurality of feature sections into a plurality of similar operation groups by performing the first clustering on the data for the plurality of feature sections including the data for the first feature section. 1 An action corresponding to any one of the similar motion groups including data on the feature section may be recognized as the user's action.

행동 인식 서버(120)는 웨어러블 디바이스(110)로부터 웨어러블 디바이스(110)의 위치 정보를 수신할 수 있다. 이 때, 행동 인식 서버(120)는 웨어러블 디바이스(110)의 위치 정보를 기반으로 분류된 복수의 유사 동작군에 대해 제 2 클러스터링을 수행하여 복수의 유사 동작군을 복수의 위치 기반 행동군으로 분류할 수 있다. The behavior recognition server 120 may receive location information of the wearable device 110 from the wearable device 110. At this time, the behavior recognition server 120 performs a second clustering on the plurality of similar operation groups classified based on the location information of the wearable device 110 to classify the plurality of similar operation groups into a plurality of location-based behavior groups can do.

행동 인식 서버(120)는 인식된 사용자의 행동을 시간 순서에 따라 저장하고, 시간 순서에 따른 연관성에 기초하여 사용자의 저장된 행동을 삭제할 수 있다. 여기서, 저장된 행동은 소정의 시간 내에 행해진 제 1 행동, 제 2 행동, 제 3 행동을 포함할 수 있다. 예를 들어, 행동 인식 서버(120)는 제 1 행동, 제 2 행동, 제 3 행동 각각의 연관성을 판단하고, 각각의 연관성에 기초하여 제 1 행동, 제 2 행동, 제 3 행동 중 어느 하나의 행동을 삭제할 수 있다. The behavior recognition server 120 may store the recognized user's behavior in chronological order, and delete the user's stored behavior based on the association in chronological order. Here, the stored action may include a first action, a second action, and a third action performed within a predetermined time. For example, the behavior recognition server 120 determines the association of each of the first action, the second action, and the third action, and based on each association, one of the first action, the second action, and the third action You can delete an action.

행동 인식 서버(120)는 인식된 행동에 대한 피드백을 웨어러블 디바이스(110) 또는 사용자 단말(130) 중 적어도 하나로 전송할 수 있다. 피드백은 시간대별 사용자의 행동 이력 및 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함할 수 있다. The behavior recognition server 120 may transmit feedback on the recognized behavior to at least one of the wearable device 110 or the user terminal 130. The feedback may include at least one of action information of at least one action included in the user's action history, a user's action history for each time period, and meaningful action information included in the at least one action.

사용자 단말(130)은 웨어러블 디바이스(110)와 블루투스(bluetooth) 통신을 통해 연결되고, 사용자 단말(130) 및 웨어러블 디바이스(110) 각각에 설치된 행동 피드백을 제공하는 앱을 통해 각각의 사용자의 행동 정보가 동기화될 수 있다. The user terminal 130 is connected to the wearable device 110 through Bluetooth (bluetooth) communication, the user terminal 130 and the wearable device 110 through each of the apps that provide behavioral feedback through the user's behavior information Can be synchronized.

사용자 단말(130)은 행동 인식 서버(120)로부터 인식된 사용자의 행동에 대한 피드백을 수신할 수 있다. 이 때, 피드백은 그림과 텍스트로 구성되어 디스플레이를 통해 출력될 수 있으며, 음성 또는 알람으로 구성되어 스피커를 통해 출력될 수 있으며, 진동을 통해 출력될 수 도 있다. 이를 통해, 사용자에게 시각적, 청각적, 촉각적 피드백을 제공할 수 있다. The user terminal 130 may receive feedback on the user's behavior recognized from the behavior recognition server 120. At this time, the feedback may consist of a picture and text, and may be output through a display, may consist of voice or alarm, and may be output through a speaker, or may be output through vibration. Through this, it is possible to provide visual, audible, and tactile feedback to the user.

도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성도이다. 도 2를 참조하면, 웨어러블 디바이스(110)는 센서 데이터 수집부(210), 전송부(220), 피드백 수신부(230) 및 피드백 출력부(240)를 포함할 수 있다. 2 is a block diagram of a wearable device according to an embodiment of the present invention. Referring to FIG. 2, the wearable device 110 may include a sensor data collection unit 210, a transmission unit 220, a feedback reception unit 230, and a feedback output unit 240.

센서 데이터 수집부(210)는 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터(Sensor Data)를 수집할 수 있다. 센서 데이터 수집부(210)는 웨어러블 디바이스(110)에 내장된 복수의 센서로부터 측정된 복수의 센서 데이터(Sensor Data)를 수집할 수 있다. 예를 들어, 센서 데이터 수집부(210)는 웨어러블 디바이스(110)를 착용한 사용자가 어떤 행동을 행하는 경우, 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터를 수집할 수 있다. 여기서, 복수의 센서는 가속도 센서, 자이로 센서, 심박 센서, 중력 센서, 마그네틱 센서, 근접 센서, RGB 센서, 밝기 센서, 기압 센서 등을 포함할 수 있다. 예를 들어, 심박 센서(PPG) 는 조직의 미세혈관에서 혈류의 변화를 감지할 수 있는 센서로서, 심박 센서에 내장된 LED가 피부로 빛을 송출하면, 포토다이오드(photodiode)가 피부로부터 반사된 빛을 검출하여 심박수를 측정할 수 있게 된다. The sensor data collection unit 210 may collect a plurality of sensor data measured by a plurality of sensors embedded in the wearable device 110. The sensor data collection unit 210 may collect a plurality of sensor data measured from a plurality of sensors embedded in the wearable device 110. For example, the sensor data collection unit 210 collects a plurality of sensor data measured by a plurality of sensors built into the wearable device 110 when a user wearing the wearable device 110 performs some action. You can. Here, the plurality of sensors may include an acceleration sensor, a gyro sensor, a heart rate sensor, a gravity sensor, a magnetic sensor, a proximity sensor, an RGB sensor, a brightness sensor, a barometric pressure sensor, and the like. For example, the heart rate sensor (PPG) is a sensor that can detect changes in blood flow in the microvascular tissues. When the LED embedded in the heart rate sensor sends light to the skin, the photodiode is reflected from the skin. By detecting light, it is possible to measure the heart rate.

전송부(220)는 수집된 복수의 센서 데이터(Sensor Data)를 행동 인식 서버(120)로 전송할 수 있다. The transmission unit 220 may transmit the collected plurality of sensor data to the behavior recognition server 120.

피드백 수신부(230)는 행동 인식 서버(120)로부터 복수의 센서 데이터에 기초하여 인식된 사용자의 행동에 대한 피드백을 수신할 수 있다. The feedback receiver 230 may receive feedback on the recognized user's behavior based on the plurality of sensor data from the behavior recognition server 120.

피드백 출력부(240)는 수신한 피드백을 출력할 수 있다. 피드백은 예를 들어, 시간대별 사용자의 행동 이력 및 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함할 수 있다. The feedback output unit 240 may output the received feedback. The feedback may include, for example, at least one of action information of at least one action included in a user's action history, a user's action history, and at least one of meaningful motion information included in at least one action.

시간대별 사용자의 행동 이력은 예를 들어, 12:00~12:30/점심식사, 12:30~13:00/운전, 13:00~14:00/운동, 14:00~16:00/공부 등과 같이 하룻동안 사용자가 행한 행동에 대한 이력을 포함할 수 있다. For example, the user's action history for each time period is 12: 00 ~ 12: 30 / lunch, 12: 30 ~ 13: 00 / driving, 13: 00 ~ 14: 00 / exercise, 14: 00 ~ 16: 00 / It may include a history of actions performed by the user for one day, such as studying.

사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보는 예를 들어, 사용자가 행한 행동이 운동에 해당하는 경우, 운동과 관련된 상세 피드백으로 운동명, 운동 횟수, 운동 시간 및 실시간 소모 칼로리량, 운동 정확도 중 적어도 하나를 포함하는 동적 피드백 및 운동 방법, 운동 부위, 운동 강도 및 랭킹 중 적어도 하나를 포함하는 정적 피드백을 포함할 수 있다. 구체적으로, 사용자가 '축구'를 한 경우, 행동 정보는 뛴 거리, 킥 횟수, 걷기 시간, 쉬는 시간 등을 포함하며, 사용자가 '테니스'를 한 경우, 뛴 거리, 스윙횟수 등을 포함할 수 있다. The action information of at least one action included in the user's action history includes, for example, the action name, the number of workouts, the time of exercise, and the amount of calories burned in real time when the action performed by the user corresponds to the workout. , Dynamic feedback including at least one of exercise accuracy, and static feedback including at least one of an exercise method, an exercise site, exercise intensity, and ranking. Specifically, when the user has played 'football', the action information includes a run distance, a kick count, a walking time, a rest time, etc., and when the user plays a 'tennis', the run distance, the number of swings, etc. have.

적어도 하나의 행동에 포함된 유의미한 동작 정보는 예를 들어, 스윙 자세, 축구 뛴 거리, 운전시간, 사무실에서 앉아있던 시간, 화장실 이용 여부, 헬스 운동 횟수, 운동인지, 이동 거리 등을 포함할 수 있다. Significant motion information included in the at least one action may include, for example, swing posture, soccer distance, driving time, time sitting in the office, use of the toilet, number of fitness workouts, exercise awareness, distance traveled, and the like. .

피드백 출력부(240)는 인식된 사용자의 행동에 부정적 행동을 포함하는 경우, 별도의 주의 피드백을 출력할 수도 있다. 예를 들어, 사용자가 하룻동안 흡연을 10회한 경우, "오늘 하루 흡연을 10회 하셨어요. 건강을 위해 조금 줄이는 편이 좋겠어요."와 같은 주의 피드백을 출력할 수도 있다. The feedback output unit 240 may output a separate attention feedback when the recognized user's behavior includes a negative behavior. For example, if a user has smoked 10 times a day, he or she may output feedback from the week, such as, "You smoked 10 times a day today.

도 3은 본 발명의 일 실시예에 따른 웨어러블 디바이스에서 행동에 대한 피드백을 제공하는 방법의 순서도이다. 도 3에 도시된 웨어러블 디바이스(110)에서 행동에 대한 피드백을 제공하는 방법은 도 1 및 도 3에 도시된 실시예에 따른 행동 피드백 제공 시스템(1)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 및 도 2에 도시된 실시예에 따른 웨어러블 디바이스(110)에서 행동에 대한 피드백을 제공하는 방법에도 적용된다.   3 is a flowchart of a method for providing feedback on an action in a wearable device according to an embodiment of the present invention. The method of providing feedback on the behavior in the wearable device 110 illustrated in FIG. 3 includes steps processed in time series by the behavior feedback providing system 1 according to the embodiment illustrated in FIGS. 1 and 3. . Therefore, even if it is omitted below, it is also applied to a method for providing feedback on an action in the wearable device 110 according to the embodiment illustrated in FIGS. 1 and 2.

단계 S310에서 웨어러블 디바이스(110)는 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터(Sensor Data)를 수집할 수 있다. In operation S310, the wearable device 110 may collect a plurality of sensor data measured by a plurality of sensors embedded in the wearable device 110.

단계 S320에서 웨어러블 디바이스(110)는 수집된 복수의 센서 데이터(Sensor Data)를 행동 인식 서버(120)로 전송할 수 있다. In operation S320, the wearable device 110 may transmit the collected plurality of sensor data to the behavior recognition server 120.

단계 S330에서 웨어러블 디바이스(110)는 행동 인식 서버(120)로부터 복수의 센서 데이터에 기초하여 인식된 사용자의 행동에 대한 피드백을 수신할 수 있다. In operation S330, the wearable device 110 may receive feedback on the recognized user's behavior based on the plurality of sensor data from the behavior recognition server 120.

단계 S340에서 웨어러블 디바이스(110)는 수신한 피드백을 출력할 수 있다. In step S340, the wearable device 110 may output the received feedback.

상술한 설명에서, 단계 S310 내지 S340은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S310 to S340 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between the steps may be switched.

도 4는 본 발명의 일 실시예에 따른 행동 인식 서버의 구성도이다. 도 4를 참조하면, 행동 인식 서버(120)는 저장부(410), 센서 데이터 수신부(420), 특이점 검출부(430), 위치 정보 수신부(440), 행동 인식부(450) 및 피드백 전송부(460)를 포함할 수 있다. 4 is a block diagram of a behavior recognition server according to an embodiment of the present invention. 4, the behavior recognition server 120 includes a storage unit 410, a sensor data receiving unit 420, a singularity detection unit 430, a location information receiving unit 440, a behavior recognition unit 450, and a feedback transmission unit ( 460).

저장부(410)는 복수의 동작 패턴 각각에 대응하는 동작 데이터를 데이터베이스에 저장할 수 있다. The storage unit 410 may store motion data corresponding to each of a plurality of motion patterns in a database.

예를 들어, 저장부(410)는 운동 동작 패턴에 대응하는 운동 동작 데이터를 데이터베이스에 저장할 수 있다. 구체적으로, 저장부(410)는 스윙, 드라이브, 퍼팅, 걷기, 달리기 등과 같이 골프 동작 패턴에 대응하는 골프 동작 데이터를 저장하고, 걷기, 달리기, 자전거, 물먹기, 컬, 숄더프레스, 프론트 프레이즈, 스쿼트, 런지, 휴대폰 보기, 시계보기 등과 같이 피트니스 동작 패턴에 대응하는 피트니스 동작 데이터를 저장하고, 슛, 드리블, 걷기, 달리기, 손들기 등과 같이 축구 동작 패턴에 해당하는 동작 데이터를 저장하고, 배영, 평영, 자유형, 잠영, 접영, 걷기, 물마시기, 점프, 팔 스트레칭, 전신 스트레칭, 다리 스트레칭, 휴대폰 보기, 시계보기 등과 같이 수영 동작 패턴에 해당하는 동작 데이터를 저장할 수 있다. For example, the storage unit 410 may store the motion motion data corresponding to the motion motion pattern in the database. Specifically, the storage unit 410 stores golf motion data corresponding to a golf motion pattern such as swing, drive, putting, walking, running, walking, running, biking, eating water, curl, shoulder press, front phrase, Stores fitness motion data corresponding to fitness motion patterns such as squats, lunges, cell phone views, watch views, and saves motion data corresponding to soccer motion patterns such as shooting, dribbling, walking, running, raising hands, and backstroke, Motion data corresponding to swimming motion patterns can be stored, such as breaststroke, freestyle, sleep swimming, butterfly, walking, drinking, jumping, arm stretching, full body stretching, leg stretching, cell phone viewing, and watch viewing.

다른 예를 들어, 저장부(410)는 업무 동작 패턴에 대응하는 업무 동작 데이터를 데이터베이스에 저장할 수 있다. 구체적으로, 저장부(410)는 자리에 앉아있기, 회의하기, 식사하기, 타이핑하기, 물마시기, 걷기, 책보기, 마우스 움직이기, 팔짱끼기, 서랍열기, 휴대폰 보기, 시계보기 등과 같이 업무 동작 패턴에 해당하는 업무 동작 데이터를 저장할 수 있다. For another example, the storage unit 410 may store business operation data corresponding to the business operation pattern in a database. Specifically, the storage unit 410 is sitting, meeting, eating, typing, drinking, walking, reading a book, moving the mouse, folding arms, opening a drawer, viewing a mobile phone, viewing a clock, etc. Business operation data corresponding to the pattern may be stored.

또 다른 예를 들어, 저장부(410)는 휴식 동작 패턴에 대응하는 휴식 동작 데이터를 데이터베이스에 저장할 수 있다. 구체적으로, 저장부(410)는 티비보기, 누워있기, 잠, 밥먹기, 걷기, 물마시기 등과 같이 휴식 동작 패턴에 해당하는 휴식 동작 데이터를 저장할 수 있다. For another example, the storage unit 410 may store rest motion data corresponding to the rest motion pattern in a database. Specifically, the storage unit 410 may store rest motion data corresponding to a rest motion pattern, such as watching TV, lying down, sleeping, eating, walking, drinking water, and the like.

저장부(410)는 사용자의 행동이 인식되면, 인식된 사용자의 동작 및 행동을 시간 순서에 따라 저장할 수 있다. 예를 들어, 저장된 행동은 소정의 시간 내에 행해진 제 1 행동(예를 들어, 축구/슛-달리기 등), 제 2 행동(예를 들어, 축구/드리블-손들기 등), 제 3 행동(예를 들어, 축구/물마시기, 걷기 등)을 포함할 수 있다. 이 때, 저장부(410)는 사용자의 행동이 범용 행동인지 또는 개인 행동인지에 기초하여 사용자의 동작 및 행동을 저장할 수 있다. When the user's action is recognized, the storage unit 410 may store the recognized user's action and action according to a time sequence. For example, the stored action may include a first action (eg, soccer / shoot-running, etc.), a second action (eg, soccer / dribble-raising, etc.), a third action (eg, performed within a predetermined time). For example, soccer / drinking water, walking, and the like). At this time, the storage unit 410 may store the user's actions and actions based on whether the user's actions are general-purpose actions or personal actions.

센서 데이터 수신부(420)는 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 웨어러블 디바이스(110)로부터 수신할 수 있다. The sensor data receiving unit 420 may receive a plurality of sensor data measured for a predetermined time by a plurality of sensors embedded in the wearable device 110 from the wearable device 110.

특이점 검출부(430)는 노이즈 제거부(미도시)를 포함하며, 노이즈 제거부(미도시)는 칼만 필터, 저역 통과 필터, 고역 통과 필터, 상보 필터, 이동 평균 필터 및 스무싱 필터 등을 이용하여 복수의 센서 데이터로부터 노이즈를 제거할 수 있다. 예를 들어, 센서 데이터는 노이즈를 포함할 수 있으며, 노이즈 제거부(미도시)가 각 센서의 센서 데이터에 적합한 필터를 적용하여 센서 데이터로부터 노이즈를 제거할 수 있다. The singularity detection unit 430 includes a noise removal unit (not shown), and the noise removal unit (not shown) uses a Kalman filter, a low-pass filter, a high-pass filter, a complementary filter, a moving average filter, and a smoothing filter. Noise can be removed from a plurality of sensor data. For example, the sensor data may include noise, and a noise removing unit (not shown) may remove noise from the sensor data by applying a filter suitable for the sensor data of each sensor.

칼만 필터(Kalman filter)는 노이즈가 포함된 입력 데이터로부터 노이즈를 제거하여 현재 상태에 대한 최적의 통계적 예측을 진행할 수 있도록 하는 필터이고, 저역 통과 필터(LPF)는 차단 주파수를 설정하여 고주파 노이즈 신호를 제거하여 저주파 신호만을 이용하는 필터이다. 고역 통과 필터(HPF)는 차단 주파수를 설정하여 저주파 노이즈 신호를 제거하여 고주파 신호만을 이용하는 필터이고, 상보 필터는 고주파 영역에서 응답 특성이 좋은 자이로 센서를 통해 측정된 값과 저주파영역에서 응답 특성이 좋은 가속도 센서를 통해 측정된 값을 더하여 각도를 측정하는 필터이다. 이동 평균 필터(Moving Average Filter)는 주변의 평균값을 계산하는데 기반한 저주파 통과 또는 평탄화 필터를 의미한다. Kalman filter (Kalman filter) is a filter that removes noise from the input data that contains noise to enable optimal statistical prediction of the current state, and a low-pass filter (LPF) sets the cutoff frequency to generate a high-frequency noise signal. This filter removes only low-frequency signals. The high-pass filter (HPF) is a filter that uses only high-frequency signals by setting the cut-off frequency to remove low-frequency noise signals. Complementary filters have good response characteristics in the low-frequency region and values measured by the gyro sensor, which has good response characteristics in the high-frequency region. It is a filter that measures the angle by adding the value measured through the acceleration sensor. A moving average filter means a low-pass or flattening filter based on calculating an average value of the surroundings.

특이점 검출부(430)는 센서 데이터로부터 적어도 둘 이상의 특이점을 검출할 수 있다. 예를 들어, 특이점 검출부(430)는 센서 데이터로부터 피크값, 밸리, 제로 크로싱, 그래프의 넓이, 곡률, 시간, 각도, 가속도, 거리 및 궤도 중 적어도 하나에 기초하여 적어도 둘 이상의 특이점을 검출할 수 있다.The singularity detection unit 430 may detect at least two or more singularities from sensor data. For example, the singularity detection unit 430 may detect at least two singularities based on at least one of a peak value, a valley, a zero crossing, a graph's width, curvature, time, angle, acceleration, distance, and trajectory from sensor data. have.

일 실시예에 따르면, 특이점 검출부(430)는 머신 러닝을 이용하여 센서 데이터로부터 적어도 둘 이상의 특이점을 검출할 수 있다. 이 때, 머신 러닝을 통해 추출 또는 가공된 특이점은 사용자에 의해 변화될 수 있는 데이터이다. According to an embodiment, the singularity detection unit 430 may detect at least two or more singularities from sensor data using machine learning. At this time, the singularity extracted or processed through machine learning is data that can be changed by the user.

행동 인식부(450)는 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식할 수 있다. 여기서, 제 1 특징 구간은 제 1 특이점에 해당하는 시각과 제 2 특이점에 해당하는 시각 사이의 구간일 수 있다. 이 때, 행동 인식부(450)는 예를 들어, KNN(K-Nearest Neighbors algorithm), RNN(Recurrent Neural Network), DTW(Dynamic Time Warping), Perceptrons, Correlation clustering, HMM, MEMMs 등을 이용하여 유사도를 분석할 수 있다.The behavior recognition unit 450 may recognize a user's behavior based on the similarity between data for a first feature section including at least two singularities and a plurality of pre-stored motion pattern data. Here, the first feature section may be a section between the time corresponding to the first singularity and the time corresponding to the second singularity. At this time, the behavior recognition unit 450 uses, for example, K-Nearest Neighbors Algorithm (KNN), Recurrent Neural Network (RNN), Dynamic Time Warping (DTW), Perceptrons, Correlation clustering, HMM, MEMMs, etc. Can be analyzed.

행동 인식부(450)는 분석된 유사도에 기초하여 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식할 수 있다. 예를 들어, 행동 인식부(450)는 분석된 유사도에 기초하여 제 1 특징 구간에 대한 데이터에 해당하는 동작을 '배영'으로 인식할 수 있다. The behavior recognition unit 450 may recognize an operation corresponding to data for the first feature section based on the analyzed similarity. For example, the behavior recognition unit 450 may recognize an operation corresponding to data for the first feature section as 'backstroke' based on the analyzed similarity.

다른 실시예에 따르면, 특이점 검출부(430)는 센서 데이터로부터 데이터 퓨전을 통해 적어도 둘 이상의 특이점을 검출할 수도 있다. 센서 데이터로부터 데이터 퓨전을 통해 적어도 둘 이상의 특이점을 검출하는 과정에 대해서는 도 5를 통해 상세히 설명하도록 한다. According to another embodiment, the singularity detection unit 430 may detect at least two or more singularities through data fusion from sensor data. The process of detecting at least two singularities through data fusion from sensor data will be described in detail with reference to FIG. 5.

도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 복수의 센서 데이터로부터 데이터 퓨전을 통해 사용자의 동작을 인식하는 과정을 설명하기 위한 예시적인 도면이다. 5A to 5D are exemplary views for explaining a process of recognizing a user's operation through data fusion from a plurality of sensor data according to an embodiment of the present invention.

도 5a는 본 발명의 일 실시예에 따른 제 1 특징 구간에 따른 센서 데이터로부터 데이터 퓨전을 수행하는 과정을 설명하기 위한 예시적인 도면이다. 도 5a를 참조하면, 복수의 센서 데이터(500)는 복수의 센서에 의해 측정된 센서 데이터로, 각각의 센서 데이터는 다른 파형을 지닌 것을 알 수 있다. 5A is an exemplary diagram for explaining a process of performing data fusion from sensor data according to a first characteristic section according to an embodiment of the present invention. 5A, it can be seen that the plurality of sensor data 500 is sensor data measured by the plurality of sensors, and each sensor data has a different waveform.

특이점 검출부(430)는 수신한 복수의 센서 데이터(500)를 데이터 퓨전을 통해 하나의 센서 퓨전 데이터(510)로 생성할 수 있다. 이 때, 센서 퓨전 데이터(510)는 적어도 둘 이상의 특이점(520)을 포함할 수 있다. 여기서, 특이점은 동작의 시작점이자 끝점으로 나타내어질 수 있다. The singularity detection unit 430 may generate the received plurality of sensor data 500 as one sensor fusion data 510 through data fusion. At this time, the sensor fusion data 510 may include at least two singularities 520. Here, the singularity may be represented as the starting point and the ending point of the operation.

데이터 퓨전을 이용한 방식은 각 센서 데이터의 합 또는 제곱, 미분 및 적분 등의 조합으로 구성될 수 있다. 예를 들어, 가속도(3축: x, y, z)의 힘으로 표현하는 경우, 'sqrt(x2 + y2 + z2)가 될 수 있으며, 자이로의 방향(roll, pitch, yaw)으로 표현하는 경우, 각도의 방향으로 표현될 수 있다. 이 때, 하드웨어 상에서 각 센서의 값과 공식에 따라 적당한 공식을 이용하여 데이터 퓨전이 수행될 수 있다. The method using data fusion may be composed of sums or squares of each sensor data, and combinations of derivatives and integrals. For example, when expressed as the force of acceleration (3-axis: x, y, z), it can be 'sqrt (x 2 + y 2 + z 2 ), and in the direction of the gyro (roll, pitch, yaw) When expressing, it may be expressed in the direction of the angle. At this time, data fusion may be performed using appropriate formulas according to values and formulas of each sensor on hardware.

센서 퓨전 데이터(510)는 복수의 센서 데이터가 데이터 퓨전(Data fusion)을 통해 하나의 센서 퓨전 데이터(510)로 생성된 것으로, 특이점 검출부(430)는 예를 들어, 6축의 센서 데이터를 데이터 퓨전을 통해 1개의 축의 센서 퓨전 데이터(510)로 생성할 수 있다. 이는, 사용자가 수행 중인 운동을 인지하기 위해서는 6축 이상의 축이 이용되며, 6축 이상의 축의 센서 데이터로부터 센서 퓨전 데이터를 생성함으로써, 특이점을 용이하게 검출할 수 있게 된다. 여기서, 센서 퓨전 데이터(500)를 통해 검출된 적어도 둘 이상의 특이점은 6축 센서 데이터의 플래그(flag)를 찾기 위한 값일 수 있다. The sensor fusion data 510 is one in which a plurality of sensor data is generated as one sensor fusion data 510 through data fusion, and the singularity detection unit 430, for example, uses six axis sensor data as data fusion. Through this, it can be generated as sensor fusion data 510 of one axis. This is, in order to recognize the motion being performed by the user, six or more axes are used, and by generating sensor fusion data from sensor data of six or more axes, it is possible to easily detect singularity. Here, at least two or more singularities detected through the sensor fusion data 500 may be values for finding a flag of the six-axis sensor data.

도 5b는 본 발명의 일 실시예에 따른 데이터 퓨전을 통해 생성된 센서 퓨전 데이터로부터 제 1 특징 구간에 해당하는 센서 데이터를 추출하는 과정을 설명하기 위한 예시적인 도면이고, 도 5c는 본 발명의 일 실시예에 따른 특징 구간에 대한 복수의 센서 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도를 분석하는 과정을 설명하기 위한 예시적인 도면이다. 도 5b 및 도 5c를 참조하면, 특이점 검출부(430)는 피크값, 밸리, 제로 크로싱, 그래프의 넓이, 곡률, 시간, 속도, 가속도, 거리 궤도 등에 기초하여 적어도 둘 이상의 특이점을 검출할 수 있다. 여기서, 적어도 둘 이상의 특이점은 제 1 특이점(511) 및 제 2 특이점(512)을 포함하고, 특징 구간(513)은 제 1 특이점(511)에 해당하는 시각과 제 2 특이점(512)에 해당하는 시각 사이의 구간일 수 있다. 5B is an exemplary diagram for explaining a process of extracting sensor data corresponding to a first feature section from sensor fusion data generated through data fusion according to an embodiment of the present invention, and FIG. 5C is an embodiment of the present invention. An exemplary diagram for explaining a process of analyzing the similarity between a plurality of sensor data for a feature section and a plurality of pre-stored operation pattern data according to an embodiment. 5B and 5C, the singularity detection unit 430 may detect at least two singularities based on a peak value, a valley, a zero crossing, a graph's area, curvature, time, velocity, acceleration, and distance trajectory. Here, at least two or more singularities include a first singularity 511 and a second singularity 512, and the feature section 513 corresponds to a time corresponding to the first singularity 511 and a second singularity 512 It may be an interval between times.

특이점 추출부(430)는 특징 구간(513)에 대한 센서 퓨전 데이터(530)로부터 복수의 센서 데이터(540)를 추출할 수 있다. 예를 들어, 특이점 추출부(430)는 센서 퓨전 데이터(510)로부터 제 1 특이점(511) 및 제 2 특이점(512)에 기초하여 특징 구간(513)이 검출되면, 특징 구간(513)의 센서 퓨전 데이터(530)에 포함된 복수의 센서 데이터(540)로부터 각 센서의 축별 복수의 센서 데이터(540)를 추출할 수 있다. The singularity extraction unit 430 may extract a plurality of sensor data 540 from the sensor fusion data 530 for the feature section 513. For example, when the feature section 513 is detected based on the first singularity 511 and the second singularity 512 from the sensor fusion data 510, the singularity extracting unit 430 detects the characteristic section 513. A plurality of sensor data 540 for each axis of each sensor may be extracted from the plurality of sensor data 540 included in the fusion data 530.

예를 들어, 행동 인식부(450)는 추출된 가속도 센서의 x축 센서 데이터와 기저장된 가속도 센서의 x축 레퍼런스 데이터를 비교(551)하고, 추출된 가속도 센서의 y축 센서 데이터와 기저장된 가속도 센서의 y축 레퍼런스 데이터를 비교(552)하고, 추출된 가속도 센서의 z축 센서 데이터와 기저장된 가속도 센서의 z축 레퍼런스 데이터를 비교(553)할 수 있다. 또한, 행동 인식부(450)는 추출된 자이로 센서의 롤(roll)축 센서 데이터와 기저장된 자이로 센서의 롤축 레퍼런스 데이터를 비교(561)하고, 추출된 자이로 센서의 피치(pitch)축 센서 데이터와 기저장된 자이로 센서의 피치축 레퍼런스 데이터를 비교(562)하고, 추출된 자이로 센서의 요(yaw)축 센서 데이터와 기저장된 자이로 센서의 요축 레퍼런스 데이터를 비교(563)할 수 있다. For example, the behavior recognition unit 450 compares (551) the x-axis sensor data of the extracted acceleration sensor with the x-axis reference data of the previously stored acceleration sensor, and the y-axis sensor data and the pre-stored acceleration of the extracted acceleration sensor. The y-axis reference data of the sensor may be compared (552), and the z-axis sensor data of the extracted acceleration sensor and the z-axis reference data of the previously stored acceleration sensor may be compared (553). Also, the behavior recognition unit 450 compares 561 the roll axis sensor data of the extracted gyro sensor and the roll axis reference data of the pre-stored gyro sensor, and compares the extracted pitch sensor data with the gyro sensor. The pitch axis reference data of the pre-stored gyro sensor may be compared (562), and the yaw axis sensor data of the extracted gyro sensor and the yaw axis reference data of the pre-stored gyro sensor may be compared (563).

이러한 과정을 거쳐 행동 인식부(450)는 각 축별 데이터 간의 정확도 평균을 산출할 수 있다. Through this process, the behavior recognition unit 450 may calculate an average of accuracy between data for each axis.

도 5d는 본 발명의 일 실시예에 따른 특징 구간에 대한 복수의 센서 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도를 분석하는 과정을 설명하기 위한 예시적인 도면이다. 도 5d를 참조하면, 행동 인식부(450)는 도 5c를 통해 특징 구간(513)에 대한 복수의 센서 데이터(540)의 각 축별 데이터의 평균 정확도가 산출되면, 복수의 센서 데이터(540)의 각 축별 데이터와 기저장된 운동 패턴 데이터의 각 축을 비교하여 일치도를 산출할 수 있다. 5D is an exemplary diagram for explaining a process of analyzing similarity between a plurality of sensor data and a plurality of pre-stored operation pattern data for a feature section according to an embodiment of the present invention. Referring to FIG. 5D, when the average accuracy of the data for each axis of the plurality of sensor data 540 for the feature section 513 is calculated through FIG. 5C, the behavior recognition unit 450 displays the plurality of sensor data 540 Conformity can be calculated by comparing each axis data with each axis of the pre-stored motion pattern data.

예를 들어, 사용자가 현재 배영 중인 경우, 행동 인식부(450)는 배영과 기저장된 접영 동작 패턴 데이터를 비교하여 일치도 70%로 산출하고, 배영과 기저장된 자유형 동작 패턴 데이터를 비교하여 일치도를 50%로 산출하고, 배영과 기저장된 배영의 동작 패턴 데이터를 비교하여 일치도를 95%로 산출하고, 배영과 기저장된 평영의 동작 패턴 데이터를 비교하여 일치도를 80%로 산출하고, 배영과 기저장된 걷기의 동작 패턴 데이터를 비교하여 일치도를 20%로 산출할 수 있다. For example, when the user is currently backstroke, the behavior recognition unit 450 compares the backstroke and the pre-stored butterfly motion pattern data and calculates the matching degree as 70%, and compares the backstroke and the pre-stored freestyle motion pattern data to compare the match degree to 50. Calculated as%, compares the backstroke and pre-stored backstroke motion pattern data to calculate 95%, compares the backstroke and pre-stored breaststroke motion pattern data to calculate 80%, backstroke and pre-stored walking By comparing the operation pattern data of, it is possible to calculate the concordance as 20%.

이러한 과정을 거쳐, 행동 인식부(450)는 현재 사용자가 행하는 동작이 '배영'임을 인지할 수 있게 된다. Through this process, the behavior recognition unit 450 may recognize that the current user's action is 'backstroke'.

다시 도 4로 돌아와서, 행동 인식부(450)는 제 1 특징 구간에 대한 데이터를 포함하는 복수의 특징 구간에 대한 데이터에 대해 클러스터링을 수행하여 사용자의 행동을 인식할 수 있다. 사용자의 행동을 인식하는 과정에 대해서는 도 6a 및 도 6b를 통해 상세히 설명하도록 한다. Returning to FIG. 4 again, the behavior recognition unit 450 may recognize a user's behavior by performing clustering on data for a plurality of feature sections including data for the first feature section. The process of recognizing the user's behavior will be described in detail with reference to FIGS. 6A and 6B.

도 6a는 본 발명의 일 실시예에 따른 복수의 특징 구간에 대한 복수의 동작을 도시한 예시적인 도면이다. 6A is an exemplary diagram illustrating a plurality of operations for a plurality of feature sections according to an embodiment of the present invention.

도 6a의 (a)를 참조하면, 행동 인식부(450)는 제 1 특징 구간에 대한 데이터에 해당하는 동작(600)을 인식할 수 있다. 제 1 특징 구간에 대한 데이터에 해당하는 동작(600)은 예를 들어, '배영'일 수 있다. Referring to (a) of FIG. 6A, the behavior recognition unit 450 may recognize the operation 600 corresponding to data for the first feature section. The operation 600 corresponding to the data for the first feature section may be, for example, 'backstroke'.

도 6a의 (b)를 참조하면, 행동 인식부(450)는 제 1 클러스터링을 통해 제 1 특징 구간에 대한 데이터를 복수의 유사 동작군 중 어느 하나의 동작군(610)에 포함되도록 할 수 있다. 예를 들어, 행동 인식부(450)는 제 1 클러스터링을 통해 '배영' 동작을 복수의 유사 동작군 중 수영 동작군(610)에 포함되도록 할 수 있다. 여기서, 수영 동작군(610)은 배영, 평영, 자유형, 잠영, 접영, 걷기, 스트레칭과 같은 수영 동작이 군집화된 것일 수 있다. Referring to (b) of FIG. 6A, the behavior recognition unit 450 may allow the data for the first characteristic section to be included in any one of the plurality of similar operation groups 610 through the first clustering. . For example, the behavior recognition unit 450 may allow the “backstroke” operation to be included in the swimming operation group 610 among the plurality of similar operation groups through the first clustering. Here, the swimming motion group 610 may be a group of swimming motions such as backstroke, breaststroke, freestyle, sleepstroke, butterfly, walking, stretching.

행동 인식부(450)는 제 1 특징 구간에 대한 데이터가 포함된 어느 하나의 유사 동작군(610)에 해당하는 행동을 사용자의 행동으로 인식할 수 있다. 예를 들어, 행동 인식부(450)는 제 1 특징 구간에 대한 데이터가 수영 동작군(610)에 포함되었으므로, 사용자의 행동을 '수영'으로 인식할 수 있다. The behavior recognition unit 450 may recognize an action corresponding to any one of the similar action groups 610 including data on the first characteristic section as a user's action. For example, since the data for the first feature section is included in the swimming action group 610, the action recognition unit 450 may recognize the user's action as 'swimming'.

도 6a의 (c)를 참조하면, 위치 정보 수신부(440)는 웨어러블 디바이스(110)로부터 웨어러블 디바이스(110)의 위치 정보를 수신할 수 있다. 예를 들어, 위치 정보 수신부(410)는 웨어러블 디바이스(110)의 GPS를 통해 측정된 웨어러블 디바이스(110)의 위치 정보(예를 들어, 학교, 집, 회사, 피트니스 센터 등)을 수신할 수 있다. Referring to FIG. 6A (c), the location information receiving unit 440 may receive location information of the wearable device 110 from the wearable device 110. For example, the location information receiver 410 may receive location information (eg, a school, home, company, fitness center, etc.) of the wearable device 110 measured through GPS of the wearable device 110. .

행동 인식부(450)는 웨어러블 디바이스(110)의 위치 정보를 기반으로 제 1 특징 구간에 데이터를 분류된 복수의 유사 동작군에 대해 제 2 클러스터링을 수행하여 복수의 위치 기반 행동군(620)으로 분류할 수 있다. 예를 들어, 웨어러블 디바이스(110)의 위치 정보가 '수영장'을 나타내는 경우, 제 2 클러스터링을 수행하여 '수영장-수영-배영'과 같이 수영 동작군(610)을 위치 정보를 반영하여 위치 기반 행동군(620)으로 분류할 수 있다.The behavior recognition unit 450 performs second clustering on a plurality of similar operation groups classified data in a first characteristic section based on the location information of the wearable device 110 to the plurality of location-based action groups 620 Can be classified. For example, when the location information of the wearable device 110 indicates a 'pool', the second clustering is performed to perform the location-based action by reflecting the location information of the swimming action group 610, such as 'pool-swimming-backstroke' It can be classified as a group (620).

도 6b는 본 발명의 일 실시예에 따른 트리 구조의 위치 기반 행동군을 도시한 예시적인 도면이다. 도 6b를 참조하면, 행동 인식부(450)는 사용자의 동작을 인식하여 소분류로 분류할 수 있다. 6B is an exemplary diagram showing a location-based behavior group of a tree structure according to an embodiment of the present invention. Referring to FIG. 6B, the behavior recognition unit 450 may recognize a user's motion and classify it into small categories.

소분류(630)는 제 1 특징 데이터에 대해 인식된 사용자의 모든 동작을 나타내며, 소분류(630)는 예를 들어, {a1, a2, a3, ..., b1, b2, b3, ..., c1, c2, c3, ..., d1, d2, d3, ..., e1, e2, e3, ..., f1, f2, f3, ..., g1, g2, g3, ..., h1, h2, h3, ..., i1, i2, i3, ..., j1, j2, j3, ..., k1, k2, k3, ..., l1, l2, l3, ...}과 같이 구성될 수 있다. 소분류(630)는 예를 들어, 걷기, 운전하기, 책보기, 시계보기, 식사하기, 뛰기, 접영 등의 사용자의 모든 동작을 포함할 수 있다. The sub-classification 630 represents all operations of the user recognized for the first characteristic data, and the sub-classification 630 is, for example, {a1, a2, a3, ..., b1, b2, b3, ..., c1, c2, c3, ..., d1, d2, d3, ..., e1, e2, e3, ..., f1, f2, f3, ..., g1, g2, g3, ..., h1, h2, h3, ..., i1, i2, i3, ..., j1, j2, j3, ..., k1, k2, k3, ..., l1, l2, l3, ...} It can be configured as follows. The sub-classification 630 may include all actions of a user, such as walking, driving, reading a book, viewing a clock, eating, running, butterfly, and the like.

중분류(640)는 제 1 특징 구간에 대한 데이터가 포함된 어느 하나의 유사 동작군(610)에 해당하는 행동에 기초하여 인식된 사용자의 행동을 나타내며, 중분류(640)는 예를 들어, {A, B, C, D, E, F, G, H, I, J, K, L, ...}과 같이 구성될 수 있다. 여기서, '{a1, a2, a3, ...}'의 집합이 'A'가 되고, '{b1, b2, b3, ...}'의 집합이 'B'가 되고, '{c1, c2, c3, ...}'의 집합이 'C'가 될 수 있다. 예를 들어, 사용자의 동작 중 {접영, 배영, 잠영, 자유형, 걷기, ...}를 포함하는 경우, 이들의 집합으로 사용자의 행동은 '수영'(집합 A)이 인식될 수 있다. 이 때, 일부 행동의 경우 중분류까지만 사용자의 행동이 분류될 수 있다. The middle classification 640 represents the user's behavior recognized based on the behavior corresponding to any one of the similar operation groups 610 including data for the first characteristic section, and the middle classification 640 is, for example, {A , B, C, D, E, F, G, H, I, J, K, L, ...}. Here, the set of '{a1, a2, a3, ...}' becomes' A ', the set of' {b1, b2, b3, ...} 'becomes' B', and '{c1, c2, c3, ...} 'can be' C '. For example, if the user's motion includes {butterfly, backstroke, sleep, freestyle, walking, ...}, the user's action may be recognized as 'swimming' (set A) as a set of these. At this time, in case of some actions, the user's actions may be classified only up to the middle class.

대분류(650)는 웨어러블 디바이스(110)의 위치 정보를 기반으로 분류된 복수의 유사 동작군에 대해 제 2 클러스터링을 수행하여 복수의 유사 동작군이 복수의 위치 기반 행동군으로 분류된 것을 나타내며, 대분류(650)는 예를 들어, {Exercise, Office, House, ...}와 같이 구성될 수 있다. 예를 들어, 웨어러블 디바이스(110)의 위치 정보가 '수영장'을 나타내는 경우, 대분류(650)는 'Exercise(수영장)'-수영(A)-접영/배영/잠영/자유형/걷기(a1, a2, a3, a4)로 분류될 수 있다. The large classification 650 indicates that a plurality of similar operation groups are classified into a plurality of location-based behavior groups by performing second clustering on the plurality of similar operation groups classified based on the location information of the wearable device 110, and the large classification 650 may be configured, for example, {Exercise, Office, House, ...}. For example, if the location information of the wearable device 110 indicates a 'pool', the large category 650 is 'Exercise'-swimming (A)-butterfly / backstroke / submerged / freestyle / walking (a1, a2) , a3, a4).

다시 도 4로 돌아와서, 행동 인식부(450)는 시계열 분석(Time Series Analysis)을 통해 사용자의 동작 및/또는 행동을 실시간으로 분석하여, 시계열 분석 중 DTW(Dynamic Time Warping)을 이용한 행동인지를 분석할 수도 있다. 여기서, DTW란, 시계열 분석 중 보편적으로 이용하는 음성 인식 기술(16,000Hz or 8,000Hz)로서, 속도 및 시간이 다른 두 시퀀스 사이의 유사성을 측정할 수 있다. 일반적으로 끝점 검출을 통해 분석되며, Warping Path를 통해 데이터 간의 유사도가 측정될 수 있다. Returning to FIG. 4 again, the behavior recognition unit 450 analyzes the user's motion and / or behavior in real time through Time Series Analysis, and analyzes whether it is a behavior using Dynamic Time Warping (DTW) during time series analysis. You may. Here, DTW is a speech recognition technology (16,000 Hz or 8,000 Hz) commonly used during time series analysis, and can measure similarity between two sequences having different speeds and times. In general, it is analyzed through endpoint detection, and similarity between data can be measured through warping path.

행동 인식부(450)는 각 동작 또는 행동에 대한 임계값(Threshold)를 설정하여 사용자의 동작 및/또는 행동을 인식할 수 있다. 이 때, 임계값 미만의 데이터에 대해서는 사용자의 동작 또는 행동에 대한 인식을 수행하지 않을 수 있다. The action recognition unit 450 may recognize a user's action and / or action by setting a threshold for each action or action. In this case, the user may not recognize the user's motion or behavior for data below the threshold.

이와 같이, 행동 인식부(450)는 동작을 인식하여 집합적 행동 양식에 의해 사용자의 행동을 판단할 수 있다. 이 때, 행동 인식부(450)는 동작별로 데이터를 최적화하기 위해 머신러닝을 이용할 수 있다. 머신러닝은 데이터의 양이 방대해지므로 머신러닝을 통해 데이터 최적화를 수행하여, 각 사용자의 동작 및 행동 데이터를 저장하고, 이를 분석 및 비교하여 데이터를 최적화할 수 있다. 예를 들어, 사용자가 피트니스 운동 중 바이셉스 컬을 수행 중인 경우, 사용자1, 사용자2, 사용자3, ? 등의 데이터가 존재하면, 복수의 사용자들의 데이터를 분석하여 가장 최적의 데이터를 추출할 수 있다. In this way, the behavior recognition unit 450 recognizes an operation and determines a user's behavior by a collective behavioral pattern. At this time, the behavior recognition unit 450 may use machine learning to optimize data for each operation. Since machine learning increases the amount of data, it is possible to optimize data by performing data optimization through machine learning, storing each user's behavior and behavior data, and analyzing and comparing them. For example, if the user is performing biceps curl during a fitness workout, User1, User2, User3,? If such data exists, the data of a plurality of users may be analyzed to extract the most optimal data.

행동 인식부(450)는 하나의 웨어러블 디바이스(110)로부터 수집한 센서 데이터만을 이용하지 않고, 복수의 웨어러블 디바이스(110)를 통해 센서 데이터를 수집하여 사용자의 행동을 인식할 수 있다. 복수의 웨어러블 디바이스(110)를 이용함으로써, 하나의 웨어러블 디바이스(110)로부터 측정된 센서 데이터를 이용할 때보다, 복수의 웨어러블 디바이스(110)로부터 측정된 센서 데이터를 조합하여 이용함으로써, 높은 정확도로 사용자의 행동을 인식할 수 있다. The behavior recognition unit 450 may recognize the user's behavior by collecting sensor data through a plurality of wearable devices 110 without using only sensor data collected from one wearable device 110. By using a plurality of wearable devices 110, a user with high accuracy is used by combining sensor data measured from a plurality of wearable devices 110, rather than using sensor data measured from a single wearable device 110. Can recognize the behavior of

행동 인식부(450)는 사용자의 행동이 인식되지 않은 경우, 다양한 방법을 이용하여 사용자의 행동을 분석 및 예측함으로써, 사용자의 행동을 인식할 수 있다. If the user's behavior is not recognized, the behavior recognition unit 450 may recognize the user's behavior by analyzing and predicting the user's behavior using various methods.

예를 들어, 사용자의 동작 인식 중 기저장되지 않은 동작 패턴에 해당하는 동작이 인식된 경우, 피드백 전송부(460)에서 해당 동작에 대해 사용자에게 피드백을 전송하여 사용자로부터 직접 해당 피드백에 대한 입력으로 '수영'을 입력받으면, 행동 인식부(450)는 '수영'과 유사한 동작 데이터가 있는지를 비교하여 사용자의 동작 및 행동을 인식할 수 있다. For example, when a motion corresponding to an unsaved motion pattern is recognized during the user's motion recognition, the feedback transmission unit 460 transmits feedback to the user about the motion to directly input the corresponding feedback from the user. When 'Swimming' is input, the behavior recognition unit 450 may recognize the user's motion and behavior by comparing whether there is motion data similar to 'Swimming'.

다른 예를 들어, 행동 인식부(450)는 사용자의 동작이 '배영-걷기-잠영-자유형-걷기-걷기-?-자유형-걷기'의 순으로 인식된 경우, 사용자의 머신러닝을 통해 사용자의 행동을 인식할 수 있다. 이 때, ''에 해당하는 가까운 행동 또는 유사 동작이 존재하지 않으면, 행동 인식부(450)는 해당 데이터를 포함하여 사용자의 행동을 '수영'으로 인식할 수 있다. For another example, when the user's motion is recognized in the order of 'backstroke-walk-sleep-freestyle-walk-walk-?-Freestyle-walk', the user's machine learning is performed through the user's machine learning. Behavior can be recognized. At this time, if there is no close action or similar action corresponding to '', the action recognition unit 450 may recognize the user's action as 'swimming' by including the corresponding data.

행동 인식부(450)는 저장부(410)에서 사용자의 행동이 소정의 시간 내에 행해진 제 1 행동, 제 2 행동, 제 3 행동을 포함하는 행동이 시간 순서에 따라 저장된 경우, 제 1 행동, 제 2 행동, 제 3 행동 각각의 연관성을 판단하고, 각각의 연관성에 기초하여 제 1 행동, 제 2 행동, 제 3 행동 중 어느 하나의 행동을 삭제할 수 있다. 예를 들어, 사용자가 소정의 시간 동안 축구를 하였다고 가정하자. 행동 인식부(450)는 복수의 특징 데이터에 기초하여 사용자의 제 1 행동-축구, 제 2 행동-테니스, 제 3 행동-축구로 인식한 경우, 제 1 행동, 제 2 행동, 제 3 행동 각각의 연관성을 판단할 수 있다. 이 때, 행동 인식부(450)는 사용자가 제 1 행동-축구를 종료한 이후에, 제 2 행동-테니스를 한 것으로 판단할 수 있다. 그러나 제 3 행동-축구가 다시 인식되었으므로, 사용자는 계속 축구를 수행한 것으로 판단하여 연관성이 떨어지는 테니스를 삭제할 수 있다. The behavior recognizing unit 450 may store the first behavior, the first behavior, and the first behavior, the second behavior, and the third behavior when the user's behavior in the storage 410 is performed in a predetermined time. The association of each of the second action and the third action may be determined, and one of the first action, the second action, and the third action may be deleted based on each relationship. For example, suppose the user played soccer for a predetermined time. When the user recognizes the first action-football, the second action-tennis, and the third action-football of the user based on the plurality of feature data, the action recognition unit 450 may respectively perform the first action, the second action, and the third action You can judge the association. At this time, the action recognition unit 450 may determine that the user has performed the second action-tennis after the first action-football is finished. However, since the third action-football has been recognized again, the user may determine that he has continued playing football and delete the less relevant tennis.

피드백 전송부(460)는 인식된 행동에 대한 피드백을 웨어러블 디바이스(110) 또는 사용자 단말(130) 중 적어도 하나로 전송할 수 있다. 피드백은 시간대별 사용자의 행동 이력 및 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함할 수 있다. The feedback transmitting unit 460 may transmit feedback on the recognized behavior to at least one of the wearable device 110 or the user terminal 130. The feedback may include at least one of action information of at least one action included in the user's action history, a user's action history for each time period, and meaningful action information included in the at least one action.

시간대별 사용자의 행동 이력은 예를 들어, 12:00~12:30/점심식사, 12:30~13:00/운전, 13:00~14:00/운동, 14:00~16:00/공부 등과 같이 하룻동안 사용자가 행한 행동에 대한 이력을 포함할 수 있다.For example, the user's action history for each time period is 12: 00 ~ 12: 30 / lunch, 12: 30 ~ 13: 00 / driving, 13: 00 ~ 14: 00 / exercise, 14: 00 ~ 16: 00 / It may include a history of actions performed by the user for one day, such as studying.

사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보는 예를 들어, 사용자가 행한 행동이 운동에 해당하는 경우, 운동과 관련된 상세 피드백으로 운동명, 운동 횟수, 운동 시간 및 실시간 소모 칼로리량, 운동 정확도 중 적어도 하나를 포함하는 동적 피드백 및 운동 방법, 운동 부위, 운동 강도 및 랭킹 중 적어도 하나를 포함하는 정적 피드백을 포함할 수 있다. 구체적으로, 사용자가 '축구'를 한 경우, 피드백 전송부(460)는 뛴 거리, 킥 횟수, 걷기 시간, 쉬는 시간 등을 피드백으로 전송할 수 있으며, 사용자가 '테니스'를 한 경우, 뛴 거리, 스윙횟수 등을 피드백으로 전송할 수 있다. The action information of at least one action included in the user's action history includes, for example, the action name, the number of workouts, the time of exercise, and the amount of calories burned in real time when the action performed by the user corresponds to the workout. , Dynamic feedback including at least one of exercise accuracy, and static feedback including at least one of an exercise method, an exercise site, exercise intensity, and ranking. Specifically, when the user has played 'football', the feedback transmitting unit 460 may transmit the skipped distance, the number of kicks, the walking time, the resting time, etc. as feedback, and when the user has 'tennis', the feedback distance, The number of swings and the like can be transmitted as feedback.

랭킹은 사용자로 하여금 자신의 신체 조건(예를 들어, 나이, 키, 몸무게, 국가, 성별, 체지방률, 기후, 인종 등)에 기초하여 자신이 수행중인 운동의 수준(즉, 타인과의 비교)을 파악할 수 있도록 할 수 있다. Ranking allows users to determine the level of exercise they are performing (i.e., compare to others) based on their physical conditions (e.g. age, height, weight, country, gender, body fat percentage, climate, race, etc.). You can make it grasp.

운동 정확도는 사용자의 움직임에 기초하여 운동 패턴의 유사도를 이용하여 정확도를 계산될 수 있다. 또한, 운동 정확도를 통해 사용자의 자세를 3차원 좌표로 변환하여 사용자의 자세에 대한 코칭을 제공할 수도 있다. 예를 들어, 운동 정확도을 이용하여 각 센서의 축별 레퍼런스 데이터와 사용자의 특징 구간에 대한 센서 데이터(실시간 데이터) 간의 좌표값의 비교를 통해 사용자의 잘못된 자세(예를 들어, 손목 꺾임, 몸의 쏠림 등)를 실시간으로 코칭할 수 있다. Movement accuracy may be calculated based on the user's movement using the similarity of movement patterns. In addition, coaching for the user's posture may be provided by converting the user's posture into 3D coordinates through exercise accuracy. For example, by comparing the coordinate values between reference data for each axis of each sensor and sensor data (real-time data) for a user's characteristic section using exercise accuracy, a user's wrong posture (for example, a wrist bend, a body tilt, etc.) ) In real time.

소모 칼로리량은 쿼터니언 변환 후, 움직임의 변위량에 따라 칼로리가 계산될 수 있다. 이 때, 칼로리는 성별, 나이, 체중, 심박수, 시간에 따른 활동 레벨에 기초하여 계산될 수 있다. 활동 레벨은 쿼터니언 변위량과 운동 부위 레벨에 따라 산출될 수 있다. 예를 들어, 소모 칼로리량은 특징 구간에 대한 센서 데이터가 3차원 좌표 또는 쿼터니언으로 변환된 후, 움직임의 변위량에 따라 소모 칼로리량이 계산될 수 있다. 소모 칼로리량은 예를 들어, 수학식 1을 통해 도출될 수 있다.The calories burned may be calculated according to the displacement amount of movement after the quaternion conversion. At this time, calories can be calculated based on the activity level according to gender, age, weight, heart rate, and time. The activity level can be calculated according to the amount of quaternion displacement and the level of the exercise area. For example, the amount of calories burned may be calculated according to the displacement amount of motion after the sensor data for the feature section is converted into 3D coordinates or quaternions. The calorie consumption can be derived, for example, through Equation 1.

Figure 112018106984179-pat00001
Figure 112018106984179-pat00001

(여기서, T = 1회 시간, Activity Level = ((쿼터니언(움직임) 변위량) * (운동 부위 레벨(판별운동명)))이며, 운동 부위 레벨은 MET(Metabolic Equivalent Task) 수치와 관련있음) (Here, T = 1 time, Activity Level = ((quaternion (movement) displacement)) * (exercise level (distinguished motion name))), and exercise area level is related to the Metabolic Equivalent Task (MET) value)

쿼터니언 변위량은 사용자의 움직임에 해당하고, 변위량은 사용자의 웨어러블 디바이스(110)가 움직인 거리를 의미한다. 소모 칼로리량은 사용자가 착용한 웨어러블 디바이스(110)의 움직인 거리를 측정하고, 기존 칼로리 계산 공식에 쿼터니언 변위량을 변수로 하여 계산될 수 있다. 여기서, 소모 칼로리량은 모든 운동에서 평균을 '1'로 하고, 변위량이 적은 운동의 경우 1보다 낮게, 변위량이 큰 운동의 경우 1보다 크게 정의하여 계산될 수 있다. 이 때, 소모 칼로리량은 운동 횟수에 따라 변화되며, 예를 들어, 팔운동의 경우, 근육의 움직임이 전신운동보다 낮기 때문에 활동 레벨이 낮게 설정되며, 전신 운동의 경우, 활동 레벨이 높게 설정될 수 있다.The quaternion displacement amount corresponds to the user's movement, and the displacement amount means the distance the user's wearable device 110 moves. The calories burned may be calculated by measuring the moving distance of the wearable device 110 worn by the user, and using the quaternion displacement as a variable in the existing calorie calculation formula. Here, the amount of calories burned can be calculated by defining the average as '1' in all exercises, and defining a value lower than 1 for a exercise with a small displacement and larger than 1 for a exercise with a large displacement. At this time, the amount of calories burned is changed according to the number of workouts. For example, in the case of arm exercise, the activity level is set low because the movement of the muscle is lower than that of the whole body exercise. You can.

운동 강도는 주, 월, 분기 단위로 사용자의 운동량이 파악되면, 운동을 수행한 비율에 따라 운동 강도가 피드백으로 제공될 수 있다. 운동 가이드는 사용자의 운동 자세에 대한 정확도가 계산되어 운동 자세에 대한 가이드를 피드백으로 웨어러블 디바이스(110) 또는 사용자 단말(130)로 제공할 수 있다. 사용자의 운동 데이터를 머신러닝을 통해 분석함으로써, 사용자에게 운동 자세를 가이드하고, 사용자에게 적합한 운동을 추천하고, 사용자가 수행 중인 운동의 운동 강도를 추천할 수 있다. 또한, 운동별로 각각의 칼로리 소모량을 측정하여 사용자에게 제공할 수 있다. When the user's exercise amount is grasped in units of week, month, and quarter, the exercise intensity may be provided as a feedback according to a ratio of performing the exercise. The exercise guide may calculate the accuracy of the user's exercise posture and provide the guide for the exercise posture to the wearable device 110 or the user terminal 130 as feedback. By analyzing the user's exercise data through machine learning, a user can guide an exercise posture to the user, recommend a suitable exercise to the user, and recommend the exercise intensity of the exercise the user is performing. In addition, each calorie consumption for each exercise can be measured and provided to the user.

이를 통해, 웨어러블 디바이스(110)를 착용한 사용자는 자신이 수행한 행동에 대한 피드백을 웨어러블 디바이스(110)의 디스플레이를 통해 직관적으로 확인할 수 있다. Through this, the user who wears the wearable device 110 can intuitively check the feedback on the actions performed by the wearable device 110 through the display of the wearable device 110.

또한, 피드백 전송부(460)는 사용자와 비슷한 특성(예를 들어, 키, 나이, 직업, 몸무게, 국가, 성별, 체지방률, 기후, 인종, 지역 등)의 다른 사용자와 비교한 피드백을 전송할 수 있다. 예를 들어, 피드백 전송부(460)는 "당신은 현재 회사에서 8시간, 집에서 4시간, 수면 8시간, 출퇴근 4시간을 보내고 있습니다. 이는, 당신과 비슷한 연령대의 사람들에 비해 평균 회사에서 보내는 시간 80%, 출퇴근 시간 250%, 집에서 시간 60%, 수면 시간 120%로 행동하고 계십니다. 따라서, 출퇴근 시간의 감소가 요구됩니다."와 같은 피드백을 전송할 수 있다. 다른 예를 들어, 피드백 전송부(460)는 다른 사용자들에게 추천 받은 행동에 대한 피드백을 웨어러블 디바이스(110)로 전송할 수 있다. 이를 통해, 다른 사용자들이 추천한 행동을 사용자에게 추천함으로써, 사용자로 하여금 좋은 행동을 할 수 있도록 유도할 수 있다. In addition, the feedback transmitting unit 460 may transmit feedback compared with other users having characteristics similar to the user (eg, height, age, occupation, weight, country, gender, body fat percentage, climate, race, region, etc.). . For example, the feedback transmitting unit 460 says, "You are currently spending 8 hours at work, 4 hours at home, 8 hours of sleep, and 4 hours of commute. You're acting with 80% of the time, 250% of the commute time, 60% of the time at home, and 120% of your sleep time, so you need to reduce your commute time. " For another example, the feedback transmission unit 460 may transmit feedback on actions recommended by other users to the wearable device 110. Through this, by recommending the actions recommended by other users to the user, it is possible to induce the user to perform a good action.

적어도 하나의 행동에 포함된 유의미한 동작 정보는 예를 들어, 스윙 자세, 축구 뛴 거리, 운전시간, 사무실에서 앉아있던 시간, 화장실 이용 여부, 헬스 운동 횟수, 운동인지, 이동 거리 등을 포함할 수 있다. Significant motion information included in the at least one action may include, for example, swing posture, soccer distance, driving time, time sitting in the office, use of the toilet, number of fitness workouts, exercise awareness, distance traveled, and the like. .

이 때, 인식된 사용자의 행동이 부정적 행동을 포함하는 경우, 별도의 주의 피드백이 포함될 수도 있다. 예를 들어, 사용자가 하룻동안 흡연을 10회한 경우, "오늘 하루 흡연을 10회 하셨어요. 건강을 위해 조금 줄이는 편이 좋겠어요."와 같은 주의 피드백이 제공될 수 있다. At this time, if the recognized user's behavior includes negative behavior, a separate attention feedback may be included. For example, if a user has smoked 10 times a day, cautionary feedback may be provided, such as, "You smoked 10 times a day today, and you'd better reduce it for health."

피드백 전송부(460)는 행동 인식부(440)에서 사용자의 행동의 인식 시, 예측하지 못한 동작이 인식된 경우, 해당 동작에 대해 사용자에게 피드백을 전송할 수 있다. 이 때, 사용자로부터 직접 해당 피드백에 대한 입력받을 수 있다. The feedback transmission unit 460 may transmit feedback to the user about the corresponding operation when an unexpected operation is recognized when the user's behavior is recognized by the behavior recognition unit 440. At this time, the feedback can be directly input from the user.

등록부(470)는 기저장된 동작 패턴 데이터와 제 1 특징 구간에 대한 데이터와 기저장된 매칭되는 동작 패턴 데이터가 존재하지 않는 경우, 등록부(470)는 사용자로부터 해당 동작 패턴 데이터에 대한 입력을 수신할 수 있다. If there is no pre-stored motion pattern data and data for the first characteristic section and pre-stored matching motion pattern data, the register 470 may receive an input for the corresponding motion pattern data from a user. have.

또는, 등록부(470)는 사용자로부터 별도의 동작 패턴 및 동작명을 입력받고, 입력받은 동작 패턴 데이터 및 동작명을 데이터베이스에 저장하여 동작 데이터로 등록할 수 있다. Alternatively, the registration unit 470 may receive a separate operation pattern and operation name from a user, and store the received operation pattern data and operation name in a database to register as operation data.

이러한 과정을 통해 사용자로부터 운동 동작과 같은 동작 패턴을 입력받아 사용자가 자신만의 운동을 생성하도록 할 수도 있다. 또한, 생성된 운동은 다른 사용자와 공유될 수도 있다. Through this process, an operation pattern such as an exercise motion may be input from the user, and the user may generate his own motion. In addition, the generated exercise may be shared with other users.

도 7은 본 발명의 일 실시예에 따른 행동 인식 서버에서 행동에 대한 피드백을 제공하는 방법의 순서도이다. 도 7에 도시된 행동 인식 서버(120)에서 행동에 대한 피드백을 제공하는 방법은 도 1 내지 도 6b에 도시된 실시예에 따른 행동 피드백 제공 시스템(1)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6b에 도시된 실시예에 따른 행동 인식 서버(120)에서 행동에 대한 피드백을 제공하는 방법에도 적용된다. 7 is a flowchart of a method for providing feedback on a behavior in a behavior recognition server according to an embodiment of the present invention. The method for providing feedback on the behavior in the behavior recognition server 120 illustrated in FIG. 7 includes steps processed in time series by the behavior feedback providing system 1 according to the embodiment illustrated in FIGS. 1 to 6B. do. Therefore, even if it is omitted below, it is also applied to a method of providing feedback on an action in the action recognition server 120 according to the embodiment shown in FIGS. 1 to 6B.

단계 S710에서 행동 인식 서버(120)는 웨어러블 디바이스(110)에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 웨어러블 디바이스로부터 수신할 수 있다. In step S710, the behavior recognition server 120 may receive a plurality of sensor data measured for a predetermined time by a plurality of sensors embedded in the wearable device 110 from the wearable device.

단계 S720에서 행동 인식 서버(120)는 센서 데이터로부터 적어도 둘 이상의 특이점을 검출할 수 있다. In step S720, the behavior recognition server 120 may detect at least two singularities from the sensor data.

단계 S730에서 행동 인식 서버(120)는 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식할 수 있다. In step S730, the behavior recognition server 120 may recognize the user's behavior based on the similarity between the data for the first feature section including at least two singularities and the plurality of pre-stored motion pattern data.

단계 S740에서 행동 인식 서버(120)는 인식된 행동에 대한 피드백을 웨어러블 디바이스(110) 또는 사용자 단말(130) 중 적어도 하나로 전송할 수 있다. In step S740, the behavior recognition server 120 may transmit feedback about the recognized behavior to at least one of the wearable device 110 or the user terminal 130.

상술한 설명에서, 단계 S710 내지 S740은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S710 to S740 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order between the steps may be switched.

도 1 내지 도 7을 통해 설명된 웨어러블 디바이스 및 서버에서 행동에 대한 피드백을 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 7을 통해 설명된 웨어러블 디바이스 및 서버에서 행동에 대한 피드백을 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. The method for providing feedback on behavior in the wearable device and the server described with reference to FIGS. 1 to 7 is also implemented in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by a computer. Can be. In addition, the method for providing feedback on actions in the wearable device and the server described with reference to FIGS. 1 to 7 may also be implemented in the form of a computer program stored in a medium executed by a computer.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration only, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

110: 웨어러블 디바이스
120: 서버
130: 사용자 단말
210: 센서 데이터 수집부
220: 전송부
230: 피드백 수신부
240: 피드백 출력부
410: 저장부
420: 센서 데이터 수신부
430: 특이점 검출부
440: 행동 인식부
450: 위치 정보 수신부
460: 피드백 전송부
470: 등록부
110: wearable device
120: server
130: user terminal
210: sensor data collection unit
220: transmission unit
230: feedback receiver
240: feedback output
410: storage
420: sensor data receiving unit
430: singularity detection unit
440: behavior recognition unit
450: location information receiving unit
460: feedback transmission unit
470: Register

Claims (19)

행동에 대한 피드백을 제공하는 서버에 있어서,
웨어러블 디바이스에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 상기 웨어러블 디바이스로부터 수신하는 센서 데이터 수신부;
상기 센서 데이터로부터 적어도 둘 이상의 특이점을 검출하는 특이점 검출부;
상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식하는 행동 인식부; 및
상기 인식된 행동에 대한 피드백을 웨어러블 디바이스 또는 사용자 단말 중 적어도 하나로 전송하는 피드백 전송부를 포함하되,
상기 특이점 검출부는 데이터 퓨전(Data fusion)을 통해 상기 수집된 복수의 센서 데이터로부터 상기 적어도 둘 이상의 특이점을 포함하는 센서 퓨전 데이터를 검출하고, 상기 센서 퓨전 데이터로부터 상기 제 1 특징 구간에 대한 데이터를 추출하는 것인, 행동 인식 서버.
In the server that provides feedback on actions,
A sensor data receiver configured to receive a plurality of sensor data measured for a predetermined time by a plurality of sensors embedded in a wearable device from the wearable device;
A singularity detection unit that detects at least two or more singularities from the sensor data;
A behavior recognition unit recognizing a user's behavior based on the similarity between the data for the first feature section including the at least two singularities and a plurality of pre-stored motion pattern data; And
It includes a feedback transmission unit for transmitting the feedback for the recognized behavior to at least one of the wearable device or the user terminal,
The singularity detection unit detects sensor fusion data including the at least two singularities from the collected plurality of sensor data through data fusion, and extracts data for the first feature section from the sensor fusion data. That is, behavior recognition server.
제 1 항에 있어서,
상기 특이점 검출부는 상기 센서 데이터로부터 피크값, 밸리, 제로 크로싱, 그래프의 넓이, 곡률, 시간, 각도, 가속도, 거리 및 궤도 중 적어도 하나에 기초하여 상기 적어도 둘 이상의 특이점을 검출하는 것인, 행동 인식 서버.
The method of claim 1,
The singularity detection unit detects the at least two singularities based on at least one of a peak value, a valley, a zero crossing, a graph area, a curvature, a time, an angle, an acceleration, a distance, and an orbit from the sensor data. server.
제 1 항에 있어서,
상기 행동 인식부는 머신러닝을 이용하여 상기 제 1 특징 구간에 대한 데이터와 상기 기저장된 복수의 동작 패턴 데이터 간의 유사도를 분석하고, 상기 분석된 유사도에 기초하여 상기 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식하는 것인, 행동 인식 서버.
The method of claim 1,
The behavior recognition unit analyzes the similarity between the data for the first feature section and the plurality of pre-stored motion pattern data using machine learning, and corresponds to the data for the first feature section based on the analyzed similarity. A behavior recognition server that recognizes motion.
제 3 항에 있어서,
상기 복수의 동작 패턴 각각에 대응하는 동작 데이터를 데이터베이스에 저장하는 저장부
를 더 포함하는 것인, 행동 인식 서버.
The method of claim 3,
A storage unit that stores motion data corresponding to each of the plurality of motion patterns in a database
It further includes, behavior recognition server.
제 3 항에 있어서,
상기 행동 인식부는,
상기 제 1 특징 구간에 대한 데이터를 포함하는 복수의 특징 구간에 대한 데이터에 대해 제 1 클러스터링을 수행하여 상기 복수의 특징 구간에 대한 데이터를 복수의 유사 동작군으로 군집화하고,
상기 제 1 특징 구간에 대한 데이터가 포함된 어느 하나의 유사 동작군에 해당하는 행동을 상기 사용자의 행동으로 인식하는 것인, 행동 인식 서버.
The method of claim 3,
The behavior recognition unit,
Clustering the data for the plurality of feature sections into a plurality of similar operation groups by performing first clustering on the data for the plurality of feature sections including the data for the first feature section,
A behavior recognition server that recognizes an action corresponding to any one of the similar operation groups including data for the first feature section as the user's behavior.
제 4 항에 있어서,
상기 웨어러블 디바이스로부터 상기 웨어러블 디바이스의 위치 정보를 수신하는 위치 정보 수신부
를 더 포함하는 것인, 행동 인식 서버.
The method of claim 4, wherein
Location information receiving unit for receiving the location information of the wearable device from the wearable device
It further includes, behavior recognition server.
제 5 항에 있어서,
상기 행동 인식부는 상기 웨어러블 디바이스의 위치 정보를 기반으로 상기 분류된 복수의 유사 동작군에 대해 제 2 클러스터링을 수행하여 상기 복수의 유사 동작군을 복수의 위치 기반 행동군으로 분류하는 것인, 행동 인식 서버.
The method of claim 5,
The behavior recognition unit classifies the plurality of similar operation groups into a plurality of location-based action groups by performing a second clustering on the classified plurality of similar operation groups based on the location information of the wearable device. server.
제 4 항에 있어서,
상기 저장부는 상기 인식된 사용자의 행동을 시간 순서에 따라 저장하고,
상기 저장된 행동은 소정의 시간 내에 행해진 제 1 행동, 제 2 행동, 제 3 행동을 포함하고,
상기 행동 인식부는 상기 제 1 행동, 제 2 행동, 제 3 행동 각각의 연관성을 판단하고, 상기 각각의 연관성에 기초하여 상기 제 1 행동, 제 2 행동, 제 3 행동 중 어느 하나의 행동을 삭제하는 것인, 행동 인식 서버.
The method of claim 4, wherein
The storage unit stores the recognized user's actions in chronological order,
The stored action includes a first action, a second action, and a third action performed within a predetermined time,
The behavior recognition unit determines the association between each of the first behavior, the second behavior, and the third behavior, and deletes any one of the first behavior, the second behavior, and the third behavior based on the association. Is, a behavioral awareness server.
제 1 항에 있어서,
상기 피드백은 시간대별 상기 사용자의 행동 이력 및 상기 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 상기 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함하는 것인, 행동 인식 서버.
The method of claim 1,
The feedback includes at least one of action information of at least one action included in the action history of the user and the action history of the user, and at least one of meaningful action information included in the at least one action by time zone. Recognition server.
서버에서 수행되는 행동에 대한 피드백을 제공하는 방법에 있어서,
웨어러블 디바이스에 내장된 복수의 센서에 의해 소정 시간 동안 측정된 복수의 센서 데이터(Sensor Data)를 상기 웨어러블 디바이스로부터 수신하는 단계;
상기 센서 데이터로부터 적어도 둘 이상의 특이점을 검출하는 단계;
상기 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 사용자의 행동을 인식하는 단계; 및
상기 인식된 행동에 대한 피드백을 웨어러블 디바이스 또는 사용자 단말 중 적어도 하나로 전송하는 단계를 포함하되,
상기 특이점을 검출하는 단계는,
데이터 퓨전(Data fusion)을 통해 상기 수집된 복수의 센서 데이터로부터 상기 적어도 둘 이상의 특이점을 포함하는 센서 퓨전 데이터를 검출하는 단계; 및
상기 센서 퓨전 데이터로부터 상기 제 1 특징 구간에 대한 데이터를 추출하는 단계를 포함하는 것인, 행동 인식 방법.
In the method of providing feedback on the actions performed on the server,
Receiving a plurality of sensor data measured for a predetermined time by a plurality of sensors embedded in a wearable device from the wearable device;
Detecting at least two singularities from the sensor data;
Recognizing a user's action based on the similarity between the data for the first feature section including the at least two singularities and a plurality of pre-stored motion pattern data; And
And transmitting feedback on the recognized behavior to at least one of a wearable device or a user terminal,
The step of detecting the singularity,
Detecting sensor fusion data including the at least two singularities from the collected plurality of sensor data through data fusion; And
And extracting data for the first feature section from the sensor fusion data.
제 10 항에 있어서,
상기 특이점을 검출하는 단계는, 상기 센서 데이터로부터 피크값, 밸리, 제로 크로싱, 그래프의 넓이, 곡률, 시간, 각도, 가속도, 거리 및 궤도 중 적어도 하나에 기초하여 상기 적어도 둘 이상의 특이점을 검출하는 단계를 포함하는 것인, 행동 인식 방법.
The method of claim 10,
The detecting of the singularity may include detecting at least two singularities based on at least one of a peak value, a valley, a zero crossing, an area of a graph, a curvature, a time, an angle, an acceleration, a distance, and an orbit from the sensor data. That includes, behavior recognition method.
제 10 항에 있어서,
상기 행동을 인식하는 단계는, 머신러닝을 이용하여 상기 제 1 특징 구간에 대한 데이터와 상기 기저장된 복수의 동작 패턴 데이터 간의 유사도를 분석하고, 상기 분석된 유사도에 기초하여 상기 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식하는 단계를 포함하는 것인, 행동 인식 방법.
The method of claim 10,
The step of recognizing the behavior may analyze the similarity between the data for the first feature section and the plurality of pre-stored motion pattern data using machine learning, and based on the analyzed similarity. And recognizing a motion corresponding to the data.
제 12 항에 있어서,
상기 복수의 동작 패턴 각각에 대응하는 동작 데이터를 데이터베이스에 저장하는 단계
를 더 포함하는 것인, 행동 인식 방법.
The method of claim 12,
Storing operation data corresponding to each of the plurality of operation patterns in a database
It further comprises, behavior recognition method.
제 13 항에 있어서,
상기 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식하는 단계는,
상기 제 1 특징 구간에 대한 데이터를 포함하는 복수의 특징 구간에 대한 데이터에 대해 제 1 클러스터링을 수행하여 상기 복수의 특징 구간에 대한 데이터를 복수의 유사 동작군으로 군집화하는 단계; 및
상기 제 1 특징 구간에 대한 데이터가 포함된 어느 하나의 유사 동작군에 해당하는 행동을 상기 사용자의 행동으로 인식하는 단계를 포함하는 것인, 행동 인식 방법.
The method of claim 13,
Recognizing the operation corresponding to the data for the first feature section,
Clustering data for the plurality of feature sections into a plurality of similar operation groups by performing first clustering on data for a plurality of feature sections including data for the first feature section; And
And recognizing an action corresponding to any one of the similar action groups including data for the first feature section as the action of the user.
제 14 항에 있어서,
상기 웨어러블 디바이스로부터 상기 웨어러블 디바이스의 위치 정보를 수신하는 단계
를 더 포함하는 것인, 행동 인식 방법.
The method of claim 14,
Receiving location information of the wearable device from the wearable device
It further comprises, behavior recognition method.
제 15 항에 있어서,
상기 제 1 특징 구간에 대한 데이터에 해당하는 동작을 인식하는 단계는, 상기 웨어러블 디바이스의 위치 정보를 기반으로 상기 분류된 복수의 유사 동작군에 대해 제 2 클러스터링을 수행하여 상기 복수의 유사 동작군을 복수의 위치 기반 행동군으로 분류하는 것인, 행동 인식 방법.
The method of claim 15,
The step of recognizing an operation corresponding to the data for the first feature section is performed by performing a second clustering on the classified plurality of similar operation groups based on the location information of the wearable device to perform the plurality of similar operation groups. A method of recognizing behavior, which is classified into a plurality of location-based behavior groups.
제 16 항에 있어서,
상기 데이터베이스에 저장하는 단계는, 상기 인식된 사용자의 행동을 시간 순서에 따라 저장하는 단계를 포함하고,
상기 저장된 행동은 소정의 시간 내에 행해진 제 1 행동, 제 2 행동, 제 3 행동을 포함하고,
상기 인식된 사용자의 행동을 시간 순서에 따라 저장하는 단계는, 상기 제 1 행동, 제 2 행동, 제 3 행동 각각의 연관성을 판단하는 단계; 상기 각각의 연관성에 기초하여 상기 제 1 행동, 제 2 행동, 제 3 행동 중 어느 하나의 행동을 삭제하는 단계를 포함하는 것인, 행동 인식 방법.
The method of claim 16,
The step of storing in the database includes storing the recognized user's actions according to a time sequence,
The stored action includes a first action, a second action, and a third action performed within a predetermined time,
The step of storing the recognized user's actions in chronological order may include determining a correlation between each of the first action, the second action, and the third action; And deleting one of the first action, the second action, and the third action based on each association.
제 10 항에 있어서,
상기 피드백은 시간대별 상기 사용자의 행동 이력 및 상기 사용자의 행동 이력에 포함된 적어도 하나의 행동에 대한 행동 정보, 상기 적어도 하나의 행동에 포함된 유의미한 동작 정보 중 적어도 하나 이상을 포함하는 것인, 행동 인식 방법.
The method of claim 10,
The feedback includes at least one of action information of at least one action included in the action history of the user and the action history of the user, and at least one of meaningful action information included in the at least one action by time zone. Recognition method.
웨어러블 디바이스에서 행동에 대한 피드백을 제공하는 방법에 있어서,
상기 웨어러블 디바이스에 내장된 복수의 센서에 의해 측정된 복수의 센서 데이터(Sensor Data)를 수집하는 단계;
상기 수집된 복수의 센서 데이터(Sensor Data)를 행동 인식 서버로 전송하는 단계;
상기 행동 인식 서버로부터 상기 복수의 센서 데이터에 기초하여 인식된 사용자의 행동에 대한 피드백을 수신하는 단계 및
상기 사용자의 행동은 적어도 둘 이상의 특이점을 포함하는 제 1 특징 구간에 대한 데이터와 기저장된 복수의 동작 패턴 데이터 간의 유사도에 기초하여 인식되고,
상기 적어도 둘 이상의 특이점은 상기 복수의 센서데이터로부터 검출되는 것이되,
데이터 퓨전(Data fusion)을 통해 상기 수집된 복수의 센서 데이터로부터 상기 적어도 둘 이상의 특이점을 포함하는 센서 퓨전 데이터가 검출되고, 상기 센서 퓨전 데이터로부터 상기 제 1 특징 구간에 대한 데이터가 추출되는 것인, 행동 인식 방법.
In the method of providing feedback on the behavior in the wearable device,
Collecting a plurality of sensor data measured by a plurality of sensors embedded in the wearable device;
Transmitting the collected plurality of sensor data to a behavior recognition server;
Receiving feedback on the behavior of the recognized user based on the plurality of sensor data from the behavior recognition server and
The user's behavior is recognized based on the similarity between data for a first feature section including at least two singularities and a plurality of pre-stored motion pattern data,
The at least two singularities are detected from the plurality of sensor data,
Sensor fusion data including the at least two singularities is detected from the collected plurality of sensor data through data fusion, and data for the first feature section is extracted from the sensor fusion data. How to recognize behavior.
KR1020180130283A 2017-10-27 2018-10-29 Method and wearable device for providing feedback on action KR102089002B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020170141523 2017-10-27
KR20170141522 2017-10-27
KR20170141523 2017-10-27
KR1020170141522 2017-10-27

Publications (2)

Publication Number Publication Date
KR20190047648A KR20190047648A (en) 2019-05-08
KR102089002B1 true KR102089002B1 (en) 2020-03-13

Family

ID=66580527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180130283A KR102089002B1 (en) 2017-10-27 2018-10-29 Method and wearable device for providing feedback on action

Country Status (1)

Country Link
KR (1) KR102089002B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220132103A (en) 2021-03-22 2022-09-30 유에프유헬스(주) Healthcare Data Providing System and Method Using Wearable Device
KR20230070849A (en) 2021-11-15 2023-05-23 울산과학기술원 Prediction apparatus using CSI pattern change and standard deviation and method thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102245204B1 (en) * 2019-05-29 2021-04-27 서울대학교산학협력단 Spinal motion analysis system and Spinal motion analysis method
US11574174B2 (en) 2020-06-19 2023-02-07 Micron Technology, Inc. Wearable electronic device with built-in intelligent monitoring implemented using deep learning accelerator and random access memory
US11574100B2 (en) * 2020-06-19 2023-02-07 Micron Technology, Inc. Integrated sensor device with deep learning accelerator and random access memory
KR102433828B1 (en) * 2020-08-20 2022-08-18 부산대학교 산학협력단 Pain Behavior Monitoring System and Method for Managing Pain using the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2015532841A (en) 2012-09-07 2015-11-16 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニアThe Regents Of The University Of California Multi-sensor wireless abdominal monitoring device, system and method
US20150374280A1 (en) 2013-02-06 2015-12-31 Corehab S.R.L. Belt for guiding the activation of the core muscles
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
US20160325143A1 (en) * 2014-09-23 2016-11-10 Fitbit, Inc. Hybrid angular motion sensors
KR101733746B1 (en) * 2015-10-26 2017-05-08 주식회사 스탠딩에그 User context based motion counting method, sensor device and wearable device performing the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082742A (en) * 2016-01-07 2017-07-17 국민대학교산학협력단 Physical Movement Judgment by Using Multi-Modal Sensor and System thereof
KR101782247B1 (en) * 2016-02-15 2017-09-26 부산외국어대학교 산학협력단 Weight Training System Base of Information and Communications Technology
KR20180064885A (en) * 2016-12-06 2018-06-15 동서대학교산학협력단 Exercise management system using wearable device, and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2015532841A (en) 2012-09-07 2015-11-16 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニアThe Regents Of The University Of California Multi-sensor wireless abdominal monitoring device, system and method
US20150374280A1 (en) 2013-02-06 2015-12-31 Corehab S.R.L. Belt for guiding the activation of the core muscles
US20160325143A1 (en) * 2014-09-23 2016-11-10 Fitbit, Inc. Hybrid angular motion sensors
JP2016097228A (en) * 2014-11-26 2016-05-30 株式会社日立システムズ Behavior classification system, behavior classification device, and behavior classification method
KR101733746B1 (en) * 2015-10-26 2017-05-08 주식회사 스탠딩에그 User context based motion counting method, sensor device and wearable device performing the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220132103A (en) 2021-03-22 2022-09-30 유에프유헬스(주) Healthcare Data Providing System and Method Using Wearable Device
KR20230070849A (en) 2021-11-15 2023-05-23 울산과학기술원 Prediction apparatus using CSI pattern change and standard deviation and method thereof

Also Published As

Publication number Publication date
KR20190047648A (en) 2019-05-08

Similar Documents

Publication Publication Date Title
KR102089002B1 (en) Method and wearable device for providing feedback on action
Quaid et al. Wearable sensors based human behavioral pattern recognition using statistical features and reweighted genetic algorithm
Antar et al. Challenges in sensor-based human activity recognition and a comparative analysis of benchmark datasets: A review
de la Concepción et al. Mobile activity recognition and fall detection system for elderly people using Ameva algorithm
Zhang et al. RGB-D-based action recognition datasets: A survey
Mortazavi et al. Determining the single best axis for exercise repetition recognition and counting on smartwatches
JP7005482B2 (en) Multi-sensor event correlation system
CN106445101A (en) Method and system for identifying user
US11253747B2 (en) Automated activity detection and tracking
Liu et al. Opportunities and challenges of wireless human sensing for the smart IoT world: A survey
Ye et al. An instance-based physical violence detection algorithm for school bullying prevention
Fan et al. A new approach for smoking event detection using a variational autoencoder and neural decision forest
WO2019116658A1 (en) Information processing device, information processing method, and program
Kang et al. The gesture recognition technology based on IMU sensor for personal active spinning
Guo et al. When your wearables become your fitness mate
Zheng et al. L-sign: Large-vocabulary sign gestures recognition system
KR102108180B1 (en) Method and wearable device for providing feedback on exercise
Faye et al. A two-level approach to characterizing human activities from wearable sensor data
Bayındır A survey of people-centric sensing studies utilizing mobile phone sensors
CN114341947A (en) System and method for exercise type recognition using wearable devices
Mallol-Ragolta et al. Outer product-based fusion of smartwatch sensor data for human activity recognition
Hsu et al. Posture recognition with G-sensors on smart phones
Sharma et al. AgriAcT: Agricultural Activity Training using multimedia and wearable sensing
Seo et al. Accurate position and orientation independent step counting algorithm for smartphones
Gjoreski Context-based Reasoning in Ambient Intelligence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant