KR102012804B1 - Method, apparatus and computer program for recognition of a user activity - Google Patents

Method, apparatus and computer program for recognition of a user activity Download PDF

Info

Publication number
KR102012804B1
KR102012804B1 KR1020180003663A KR20180003663A KR102012804B1 KR 102012804 B1 KR102012804 B1 KR 102012804B1 KR 1020180003663 A KR1020180003663 A KR 1020180003663A KR 20180003663 A KR20180003663 A KR 20180003663A KR 102012804 B1 KR102012804 B1 KR 102012804B1
Authority
KR
South Korea
Prior art keywords
model
weight
data
behavior
user
Prior art date
Application number
KR1020180003663A
Other languages
Korean (ko)
Other versions
KR20190085604A (en
Inventor
이승룡
허태호
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020180003663A priority Critical patent/KR102012804B1/en
Publication of KR20190085604A publication Critical patent/KR20190085604A/en
Application granted granted Critical
Publication of KR102012804B1 publication Critical patent/KR102012804B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • H04M1/72519

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 실시예를 따르는 센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법은, 사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계; 서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하는 단계; 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 별로 피처를 추출하여 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 대해 사용자 행위를 추정하는 단계를 포함하는 것을 특징으로 한다. According to an embodiment of the present disclosure, a method of recognizing a user's behavior using sensing data may include generating sensing data in a user smartphone and a wearable device; In the server, the sensing data is collected and the collected data is applied to a machine learning framework, so that a first model of the smart phone generated data, a second model of the wearable device generated data, and the smart phone generated data Generating a third model integrating the wearable device generation data; And extracting a feature for each of the first model, the second model, and the third model to estimate user behavior for each of the first model, the second model, and the third model.

Description

사용자 행위를 인지하는 방법, 장치 및 컴퓨터 프로그램 {METHOD, APPARATUS AND COMPUTER PROGRAM FOR RECOGNITION OF A USER ACTIVITY}METHOD, APPARATUS AND COMPUTER PROGRAM FOR RECOGNITION OF A USER ACTIVITY}

본 발명은 스마트폰 등의 모바일 디바이스 및/또는 스마트워치 등의 웨어러블 디아비스 등 사용자 디바이스로부터 수집한 센서 데이터를 이용하여 사용자의 행위를 인지하는 방법에 대한 것이다. 보다 구체적으로 본 발명은 수집된 센서 정보로부터 해당 사용자의 행위를 보다 정확하게 인지하기 위하여 머신러닝 프레임워크를 적용하기 위한 복수의 모델에 가중치를 부여하고, 가중치가 부여된 복수의 모델을 통합한 통합 모델링 데이터로부터 사용자 행위를 판단하는 방법에 대한 발명이다. The present invention relates to a method of recognizing a user's behavior using sensor data collected from a mobile device such as a smart phone and / or a user device such as wearable diabis such as a smart watch. More specifically, the present invention weights a plurality of models for applying the machine learning framework to more accurately recognize a user's behavior from collected sensor information, and integrates a plurality of weighted models. An invention is directed to a method of determining user behavior from data.

최근 사물인터넷 기술의 급격한 발전에 따라, 수집된 IoT 데이터로부터 특정 사용자의 행위 인지를 포함하여 보다 정확하게 상황을 인지할 수 있는 컴퓨팅 기술이 개발되고 있다. Recently, with the rapid development of the IoT technology, a computing technology capable of more accurately recognizing a situation including recognition of a specific user's behavior from collected IoT data has been developed.

상황 인지 기술은 사용자의 행동과 움직임을 사람의 개입 없이 수학적으로 보다 정확하게 파악하는 것을 목표로 하는 기술로서, 일반적으로 카메라를 이용한 영상, 가속도 등의 센서를 몸에 부착하는 관성 센서, 그리고 주변 사물의 압력, 동작 센서 등을 이용한 사물 센서 등을 이용하여 대량의 데이터를 수집하고 수집된 데이터를 머신러닝 프레임워크에 적용하여 추정 결과를 도출하도록 구현될 수 있다. Situational Awareness Technology aims to more accurately grasp user's actions and movements mathematically without human involvement. In general, inertial sensors that attach sensors such as images, accelerations, etc. It can be implemented to collect a large amount of data using a thing sensor using a pressure, a motion sensor and the like and to apply the collected data to the machine learning framework to derive an estimation result.

이중에서 카메라를 이용한 영상 데이터와 사물 센서를 이용한 센서 데이터를 수집하기 위해서는 카메라 또는 압력 센서, 동작 센서 기기들이 임의의 공간에 설치되어 있어야 한다. 즉, 카메라 또는 사물 센서 기반의 행위 인지를 위해서는 카메라 또는 사물 센서가 미리 설치된 공간 내에서만 행위 인지가 가능하다. 그러나 관성 센서는 사람의 몸에 부착할 수 있기 때문에 장소에 구애받지 않고, 해당 사용자의 행위를 인지할 수 있는 장점이 있다. Among them, in order to collect image data using a camera and sensor data using an object sensor, cameras, pressure sensors, and motion sensor devices should be installed in an arbitrary space. That is, in order to recognize a camera or object sensor-based action, the action may be recognized only in a space where the camera or object sensor is installed in advance. However, because the inertial sensor can be attached to the body of the person, regardless of the location, there is an advantage that can recognize the user's behavior.

나아가 관성 센서를 기반으로 사용자 데이터를 수집하면, 다수의 센서를 신체 요소 부위에 부착하여 보다 정확하게 사용자의 행위 및/또는 상황을 인지할 수 있는 데이터가 수집될 수 있는 장점이 있다. 그러나 이를 실제 사용자에게 적용하면, 다수의 센서를 사용자에게 부착하게 되어 사용자의 움직임이 불편하게 되기 때문에 사용자 편의성이 떨어지는 문제가 있다. Furthermore, when collecting user data based on an inertial sensor, data may be collected to attach a plurality of sensors to a body element part to more accurately recognize a user's behavior and / or situation. However, if this is applied to a real user, a plurality of sensors are attached to the user, which makes the user's movement inconvenient, thereby decreasing user convenience.

따라서 사용자의 신체에 센서를 직접 부착하지는 않으나, 다양한 센서를 갖추고 사용자와 일반적으로 최근거리에 위치하게 되는 스마트폰을 이용하여 행위 인지를 위한 데이터를 수집하는 방법을 고려할 수 있다. 스마트폰은 다양한 센서는 물론 연산 능력까지 갖추고 있으며, 사용자 편의성이 높은 장점이 있다. Therefore, although a sensor is not directly attached to a user's body, a method of collecting data for behavior recognition may be considered by using a smartphone equipped with various sensors and generally located at a recent distance from the user. Smartphones are equipped with a variety of sensors as well as computing power, has the advantage of high user convenience.

그러나 스마트폰만을 이용한 데이터 수집의 경우, 단일 기기만으로 다양한 행위가 가능한 신체 부위의 각 특징을 반영하는 데이터를 수집할 수 없는 한계가 있어, 스마트폰과 함께 등장한 스마트 워치 등의 웨어러블 스마트 디바이스를 고려할 수 있다. However, in the case of data collection using only a smartphone, there is a limitation in that it is impossible to collect data reflecting each characteristic of a body part that can perform various actions using only a single device, so that a wearable smart device such as a smart watch appeared with a smartphone can be considered. have.

스마트워치는 밴드 형태의 디자인을 채택하여 사용자의 손목에 착용될 수 있으나, 이 역시 신체 부위의 각 특징을 반영하는 데이터를 수집하기에는 역부족일 수 있다. The smart watch may be worn on the user's wrist by adopting a band-shaped design, but this may also be insufficient to collect data reflecting each feature of a body part.

따라서 본 발명은 스마트폰 및 스마트워치 등의 웨어러블 디바이스 양자를 이용하여 센싱 데이터를 수집하고, 독립된 각각의 기기로부터 수집된 데이터 및 각각의 기기로부터 수집된 데이터를 통합하여 추정할 수 있는 사용자 행위를 보다 높은 신뢰도로 제공하는 것을 목적으로 한다. Therefore, the present invention collects the sensing data using both wearable devices such as a smart phone and a smart watch, and the user behavior that can be estimated by integrating and estimating the data collected from each independent device and the data collected from each device. It aims at providing with high reliability.

이를 위해 본 발명의 실시예를 따르면 단일의 스마트폰, 단일의 스마트워치, 나아가 스마트폰 및 스마트워츠 통합의 세 가지 인지 모델을 생성하고, 각각의 모델에 대한 가중치 부여 및 통합을 통해 보다 높은 신뢰도의 사용자 행위 인지 기술을 제공할 수 있다.To this end, according to an embodiment of the present invention, three cognitive models of a single smart phone, a single smart watch, and further, smart phone and smart water integration are generated, and weighting and integration of each model are used to achieve higher reliability. User behavior awareness technology can be provided.

본 발명은 상기와 같은 문제를 해결하는 것을 목적으로 한다. 보다 구체적으로 본 발명은, 스마트폰 및/또는 스마트워치로부터 수집된 센싱 데이터를 이용하여 해당 사용자의 행위를 보다 높은 신뢰도로 추정할 수 있는 프레임워크를 제공하는 것을 목적으로 한다. An object of the present invention is to solve the above problems. More specifically, an object of the present invention is to provide a framework capable of estimating a user's behavior with higher reliability by using sensing data collected from a smart phone and / or a smart watch.

본 발명의 실시예를 따르는 센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법은, 사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계; 서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하는 단계; 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 별로 피처를 추출하여 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 대해 사용자 행위를 추정하는 단계를 포함하는 것을 특징으로 한다. According to an embodiment of the present disclosure, a method of recognizing a user's behavior using sensing data may include generating sensing data in a user smartphone and a wearable device; In the server, the sensing data is collected and the collected data is applied to a machine learning framework, so that a first model of the smart phone generated data, a second model of the wearable device generated data, and the smart phone generated data Generating a third model integrating the wearable device generation data; And extracting a feature for each of the first model, the second model, and the third model to estimate user behavior for each of the first model, the second model, and the third model.

나아가, 상기 사용자 행위를 추정하는 단계 이후에, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하는 단계; 및 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계를 포함할 수 있다. Furthermore, after estimating the user behavior, generating a weight table for applying to each of the first model, the second model and the third model; And applying the weight table to user behavior estimated through the first model, the second model, and the third model.

나아가, 상기 가중치 테이블을 생성하는 단계는, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하는 단계; 상기 추정된 행위 중, 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하는 단계; 및 행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 단계를 포함할 수 있다. Furthermore, the generating of the weight table may include applying the same first weight to each of the behaviors estimated by the first model, the second model, and the third model; Among the estimated actions, applying a second weight higher than the first weight to an action equal to or less than a predetermined accuracy, and applying a third weight lower than the first weight to an action equal to or greater than a preset accuracy; And setting the weight to 0 for an action estimated through a device unrelated to the action and increasing the weight of the action estimated only through a specific device.

나아가 상기 가중치 테이블을 적용하는 단계 이후에, 상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함할 수 있다. Furthermore, after the applying of the weight table, the method may include comparing priorities for actions having the same weight.

한편, 본 발명의 실시예를 따르는 센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법은, 사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계; 서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하는 단계; 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계; 및 상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함할 수 있다. On the other hand, a method for recognizing a user's behavior using the sensing data according to an embodiment of the present invention, generating the sensing data in the user smart phone and wearable device; In the server, the sensing data is collected and the collected data is applied to a machine learning framework, so that a first model of the smart phone generated data, a second model of the wearable device generated data, and the smart phone generated data And generating a third model integrating the wearable device generation data, extracting features for each model, and estimating user behavior for each of the models; Generate a weight table for applying to each of the first model, the second model and the third model, the weight table to the user behavior estimated through the first model, the second model and the third model Applying; And comparing priorities for actions having the same weight.

나아가, 본 발명의 실시예를 따르는 사용자 행위를 인지하는 시스템은, 적어도 하나 이상의 센서를 포함하는 사용자 스마트폰; 적어도 하나 이상의 센서를 포함하며, 상기 사용자에 부착된 웨어러블 디바이스; 상기 스마트폰 및 웨어러블 디바이스에서 생성된 센싱 데이터를 수집하여 처리하는 데이터 처리 서버; 및 상기 데이터 처리 서버에서 처리된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하며, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 행위 인지 서버를 포함하는 것을 특징으로 한다. Furthermore, a system for recognizing user behavior according to an embodiment of the present invention includes: a user smartphone including at least one sensor; A wearable device including at least one sensor and attached to the user; A data processing server for collecting and processing sensing data generated by the smart phone and the wearable device; And applying the data processed by the data processing server to a machine learning framework, to generate a first model of the smartphone generated data, a second model of the wearable device generated data, and the smartphone generated data and the wearable device. A weight table for generating a third model integrating the generated data, extracting features for each model, estimating user behavior for each of the models, and applying the same to each of the first model, the second model, and the third model. And a behavior recognition server for applying the weight table to the user behavior estimated through the first model, the second model, and the third model.

본 발명에 따르면, 사람의 개입없이 컴퓨터가 사용자의 행위를 보다 정확하게 인지할 수 있는 효과가 있다.According to the present invention, there is an effect that the computer can more accurately recognize the user's actions without human intervention.

도 1은 본 발명의 실시예를 따라 스마트폰과 스마트워치로부터 센싱 데이터를 수집하고, 이를 머신러닝 프레임워크에 적용하는 시스템 구성도
도 2는 본 발명의 실시예를 따라 사용자의 행위를 인지하는 과정을 설명하기 위한 순서도
도 3은 센서 데이터를 수집하고 모델링하기 위한 전처리 과정을 설명하기 위한 순서도
1 is a system configuration of collecting the sensing data from the smart phone and smart watch according to an embodiment of the present invention, and applying it to the machine learning framework
2 is a flowchart illustrating a process of recognizing a user's behavior according to an embodiment of the present invention.
3 is a flowchart illustrating a preprocessing process for collecting and modeling sensor data.

본 발명은 이하에 기재되는 실시예들의 설명 내용에 한정되는 것은 아니며, 본 발명의 기술적 요지를 벗어나지 않는 범위 내에서 다양한 변형이 가해질 수 있음은 자명하다. 그리고 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 널리 알려져 있고 본 발명의 기술적 요지와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. It is apparent that the present invention is not limited to the description of the embodiments described below, and various modifications may be made without departing from the technical gist of the present invention. In describing the embodiments, descriptions of technical contents which are widely known in the technical field to which the present invention belongs and are not directly related to the technical gist of the present invention will be omitted.

한편, 첨부된 도면에서 동일한 구성요소는 동일한 부호로 표현된다. 그리고 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시될 수도 있다. 이는 본 발명의 요지와 관련이 없는 불필요한 설명을 생략함으로써 본 발명의 요지를 명확히 설명하기 위함이다. On the other hand, the same components in the accompanying drawings are represented by the same reference numerals. In the accompanying drawings, some components may be exaggerated, omitted, or schematically illustrated. This is to clarify the gist of the present invention by omitting unnecessary description that is not related to the gist of the present invention.

도 1은 본 발명의 실시예를 따라 스마트폰과 스마트워치로부터 센싱 데이터를 수집하고, 이를 머신러닝 프레임워크에 적용하는 행위 인지 시스템의 구성도이다. 1 is a block diagram of a behavior recognition system collecting sensing data from a smart phone and a smart watch and applying the same to a machine learning framework according to an embodiment of the present invention.

본 발명의 실시예를 따르는 행위 인지 시스템은 도 1에 도시된 바와 같이, 스마트폰 (10), 웨어러블 디바이스 (20), 센싱 데이터 수집 및 처리 서버 (40), 수집된 데이터를 이용하여 행위를 추정하는 행위 인지 서버 (50) 및 행위 인지 결과를 이용하여 서비스를 제공하는 서버 (60)를 포함하여 구성될 수 있다. In the behavior recognition system according to the embodiment of the present invention, as shown in FIG. 1, the smartphone 10, the wearable device 20, the sensing data collection and processing server 40, and the collected data are estimated. It may be configured to include a server 60 for providing a service using the behavior recognition server 50 and the behavior recognition result.

본 발명의 실시예를 따르는 스마트폰 (10)은 포함된 센서를 이용하여 수집된 센싱 데이터를 센싱 데이터 수집, 처리 서버 (40)로 전송하는 기능을 수행할 수 있다. 이를 위해 스마트폰 (10)은 측정 대상으로부터 특정 정보에 대한 물리적인 양, 예를 들어 위치, 움직임, 밝기 등을 측정하여 전기적인 신호로 변환하기 위한 센서를 포함하여 구성될 수 있다. The smartphone 10 according to an embodiment of the present invention may perform a function of transmitting the collected sensing data to the sensing data collection and processing server 40 using the included sensor. To this end, the smartphone 10 may include a sensor for measuring a physical quantity of specific information, for example, position, motion, brightness, etc., from a measurement target and converting the measured amount into an electrical signal.

스마트폰에 포함될 수 있는 센서는 가속 센서, 중력 센서, 자이로 센서, 온도 센서, 압력 센서, 조도 센서, 근접 센서, GPS 센서, 지자기 센서, 방향 센서 등을 예시할 수 있다. Sensors that may be included in a smartphone may exemplify an acceleration sensor, a gravity sensor, a gyro sensor, a temperature sensor, a pressure sensor, an illuminance sensor, a proximity sensor, a GPS sensor, a geomagnetic sensor, a direction sensor, and the like.

보다 구체적으로 자이로 센서는 X, Y, Z 축에 대한 회전속도를 측정하여 이를 통해 스마트폰의 기울임 정도나 회전 등에 대한 정보를 확인할 수 있는 데이터를 생성할 수 있으며, 온도센서는 스마트폰 외부의 온도 데이터를 측정할 수 있다. 나아가 압력 센서는 기압 측정 데이터, 조도 센서는 주변 조도 측정 데이터, 근접 센서는 물리적인 접촉 없이 측정 대상의 존재 여부와 스크린까지의 거리를 측정한 데이터를 생성할 수 있다. 나아가 GPS 센서는 GPS 위성을 활용하여 해당 시점의 시간 및 위치에 대한 데이터를 생성할 수 있으며, 지자기 센서는 지구 자기장을 이용해 방위각을 측정한 데이터, 방향 센서는 회전각을 측정하여 중력 센서 및 지자기 센서 등과 함께 위치 정보를 제공하는 데이터를 생성할 수 있다. More specifically, the gyro sensor measures the rotational speed of the X, Y, and Z axes, thereby generating data that can be used to check information on the degree of tilting or rotation of the smartphone, and the temperature sensor is a temperature outside the smartphone. Data can be measured. In addition, the pressure sensor can generate barometric pressure measurement data, the illuminance sensor can measure ambient illuminance measurement data, and the proximity sensor can measure the presence of the measurement object and the distance to the screen without physical contact. Furthermore, GPS sensors can use GPS satellites to generate data on the time and location of the point in time, geomagnetic sensors measure the azimuth angle using the Earth's magnetic field, and orientation sensors measure the rotation angle, gravity sensors and geomagnetic sensors. Together with the location information may be generated.

한편 도 1은 스마트폰 (10)을 예시하고 있지만, 이는 예시에 불과하며 본 발명은 이에 한정하여 해석될 수 없다. 즉, 본 발명의 실시예를 따르는 스마트폰 (10)은 일반적으로 사용자가 항상 휴대할 수 있으며, 소정의 센서를 포함하는 모바일 디바이스를 포괄하는 의미로 해석되어야 한다. 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera 중 적어도 하나를 포함할 수 있다. Meanwhile, FIG. 1 illustrates a smartphone 10, but this is only an example and the present invention may not be limited thereto. That is, the smartphone 10 according to the embodiment of the present invention is generally portable by the user and should be interpreted to encompass a mobile device including a predetermined sensor. For example, smartphones, tablet personal computers, mobile phones, video phones, e-book readers, desktop personal computers, laptop PCs a personal computer, a netbook computer, a workstation, a server, a personal digital assistant, a portable multimedia player, a MP3 player, a mobile medical device, and a camera. have.

도 1에 예시된 웨어러블 디바이스 (20) 역시 포함된 센서를 이용하여 수집된 센싱 데이터를 센싱 데이터 수집, 처리 서버 (40)로 전송하는 기능을 수행할 수 있다. 이를 위해 웨어러블 디바이스 (20)은 다양한 센서를 포함하여 구성될 수 있다. The wearable device 20 illustrated in FIG. 1 may also perform a function of transmitting the collected sensing data to the sensing data collection and processing server 40 using the included sensor. To this end, the wearable device 20 may be configured to include various sensors.

보다 구체적으로, 웨어러블 디바이스 (20)는 스마트폰 (10)과 같이 가속 센서, 중력 센서, 자이로 센서, 온도 센서, 압력 센서, 조도 센서, 근접 센서, GPS 센서, 지자기 센서, 방향 센서 등을 탑재할 수 있으며, 나아가 사용자의 신체에 부착되는 특성을 이용할 수 있는 심박동수 모니터 센서, 산소 측정 센서, 피부 전도 센서, 피부 온도 센서 등을 탑재할 수 있다. More specifically, the wearable device 20 may be equipped with an acceleration sensor, a gravity sensor, a gyro sensor, a temperature sensor, a pressure sensor, an illuminance sensor, a proximity sensor, a GPS sensor, a geomagnetic sensor, a direction sensor, and the like as the smartphone 10. In addition, a heart rate monitor sensor, an oxygen measurement sensor, a skin conduction sensor, a skin temperature sensor, and the like, which can utilize characteristics attached to a user's body, may be mounted.

심박동수 모니터 센서는 예를 들어 광학 혈류 정보를 센싱할 수 있으며, 산소 측정 센서는 사용자 혈액의 산소를 측정하여 정확한 맥박수를 파악할 수 있는 데이터를 생성할 수 있다. 나아가 피부 전도 센서는 피부의 전류 반응, 예를 들어 사용자가 얼마나 땀을 흘리지는 여부를 측정할 수 있는 데이터를 생성할 수 있으며, 이를 통해 신체 활동 강도를 파악하고, 칼로리 소비 수치를 계산하는데 활용될 수 있다. The heart rate monitor sensor may sense optical blood flow information, for example, and the oxygen measurement sensor may measure data of oxygen of a user's blood and generate data to determine an accurate pulse rate. Furthermore, the skin conduction sensor can generate data to measure the skin's current response, e.g. how sweaty the user is, which can be used to determine the intensity of physical activity and to calculate calories burned. Can be.

도 1의 예에서 웨어러블 디바이스 (20)는 예를 들어 스마트워치일 수 있으나, 본 발명은 이에 한정하여 해석될 수 없다. 본 발명의 실시예를 따르는 웨어러블 디바이스는 액세서리형, 예를 들어 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형, 예를 들어 스킨 패드(skin pad) 또는 문신, 또는 생체 이식형, 예를 들어 implantable circuit 중 적어도 하나를 포함할 수 있다. In the example of FIG. 1, the wearable device 20 may be, for example, a smart watch, but the present invention is not limited thereto. Wearable devices according to embodiments of the invention may be accessory, such as watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), textiles, or clothing integral types. (Eg, electronic garments), body-attached, for example, skin pads or tattoos, or bio-implantable, for example, implantable circuits.

다른 실시예에서, 웨어러블 디바이스(20)는 각종 의료기기, 예를 들어 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기를 포함할 수 있다.In another embodiment, the wearable device 20 may include a variety of medical devices, such as various portable medical measuring devices (such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), and magnetic resonance (MRI). imaging, computed tomography (CT), imager, or ultrasound.

도 1에 도시된 센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/ 또는 웨어러블 디바이스 (20)를 통해 생성된 센싱 데이터를 수집하고, 이를 전처리하는 역할을 수행할 수 있다. The sensing data collection and processing server 40 illustrated in FIG. 1 may collect sensing data generated through the smart phone 10 and / or the wearable device 20 and preprocess the sensing data.

도 1의 예에서, 센싱 데이터 수집, 처리 서버 (40) 및 행위 인지 서버 (50)는 별개의 장치인 것으로 도시되어 있지만, 이는 예시에 불과하다. 즉, 본 발명의 실시예를 따르는 센싱 데이터 수집, 처리 서버 (40) 및 행위 인지 서버 (50)는 물리적으로 하나 이상의 하드웨어 장치일 수 있으며, 가상화된 소프트웨어 일 수도 있다. In the example of FIG. 1, sensing data collection, processing server 40 and behavior awareness server 50 are shown as separate devices, but this is merely illustrative. In other words, the sensing data collection, processing server 40 and behavior recognition server 50 according to an embodiment of the present invention may be physically one or more hardware devices, or may be virtualized software.

센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/또는 웨어러블 디바이스 (20)가 전송한 센싱 데이터를 수신하고, 버퍼 메모리에 저장할 수 있다. 나아가 버퍼로부터 센싱 데이터를 차례로 로딩하면서, 이를 전처리할 수 있다. The sensing data collection and processing server 40 may receive the sensing data transmitted by the smart phone 10 and / or the wearable device 20 and store it in a buffer memory. Furthermore, the sensing data can be loaded sequentially from the buffer and preprocessed.

센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/또는 웨어러블 디바이스 (20)로부터 다양한 종류의 인터페이스 프로토콜을 통해 센싱 데이터를 수집할 수 있다. 예를 들어 인터페이스 프로토콜로는 FTP(File Transfer Protocol), HTTP(Hyper Text Transfer Protocol), TCP/IP(Transmission Control Protocol/Internet Protocol) 등을 고려할 수 있다. The sensing data collection and processing server 40 may collect sensing data from the smartphone 10 and / or the wearable device 20 through various types of interface protocols. For example, the interface protocol may include File Transfer Protocol (FTP), Hyper Text Transfer Protocol (HTTP), Transmission Control Protocol / Internet Protocol (TCP / IP), and the like.

수집된 센싱 데이터는 필요에 따라 버퍼에 저장될 수 있으며, 버퍼에서 차례로 로딩되어, 전처리 프로세싱이 수행되어 전처리된 센싱 데이터가 생성될 수 있다. 전처리된 센싱 데이터는 필요에 따라 저장부에 저장되거나 사용자 행위 인지 결과를 처리하기 위한 행위 인지 서버 (50)에 전달될 수 있다. The collected sensing data may be stored in a buffer as needed, and may be sequentially loaded from the buffer, and preprocessing may be performed to generate preprocessed sensing data. The pre-processed sensing data may be stored in the storage or transmitted to the action recognition server 50 for processing a user action recognition result as necessary.

본 발명의 실시예를 따르는 행위 인지 서버 (50)는 머신러닝 프레임 워크를 포함할 수 있다. 나아가 센싱 데이터에 머신 러닝 프레임워크를 적용하여 사용자의 행위를 추정하기 위해 머신 러닝 모델을 생성하고, 수집된 데이터에 생성된 모델을 학습하여 사용자의 행위를 추정하는 기능을 수행할 수 있다. Behavioral awareness server 50 according to an embodiment of the present invention may include a machine learning framework. Furthermore, by applying a machine learning framework to sensing data, a machine learning model may be generated to estimate user's behavior, and the model generated on the collected data may be learned to estimate a user's behavior.

보다 구체적으로 본 발명의 행위 인지 서버 (50)는 스마트폰 (10)으로부터 생성된 데이터를 학습하기 위한 제 1 모델, 웨어러블 디바이스 (20)로부터 생성된 데이터를 학습하기 위한 제 2 모델, 스마트폰 (10)으로부터 생성된 데이터 및 웨어러블 디바이스 (20)로부터 생성된 데이터를 통합하여 학습하기 위한 제 3 모델을 생성할 수 있다. 행위 인지 서버 (50)는 상기 제 1 모델, 제 2 모델, 제 3 모델을 각각 적어도 하나 이상 생성할 수 있다.More specifically, the behavior recognition server 50 of the present invention includes a first model for learning data generated from the smartphone 10, a second model for learning data generated from the wearable device 20, a smartphone ( The third model for learning by integrating the data generated from 10 and the data generated from the wearable device 20 may be generated. The behavior recognition server 50 may generate at least one of the first model, the second model, and the third model, respectively.

상기 실시예에서 스마트폰으로부터 생성된 데이터에 적용되는 모델, 웨어러블 디바이스로부터 생성된 데이터에 적용되는 모델, 상기 데이터들에 통합하여 적용되는 모델을 각각 별개로 구성하는 이유는 사용자의 몸에 스마트폰 및 스마트 워치가 부착되는 위치가 다르기 때문에 각 센서는 행위에 따라 인지 가능한 행위와 인지 불가능한 행위가 존재하기 때문이다. In the above embodiment, the model applied to the data generated from the smartphone, the model applied to the data generated from the wearable device, and the reason for separately configuring the model applied to the data are separately configured in the user's body. Because the location where the smart watch is attached is different, each sensor has a perceivable behavior and an unrecognizable behavior according to the behavior.

예를 들어 “먹기”행위의 경우, 팔 부위에 센서가 위치하지 않는 이상 행위의 인지가 불가능하다. 따라서 본 발명의 실시예를 따르면 행위 인지 신뢰도를 높이기 위하여 스마트폰 및 스마트워치 각 기기별 모델 및 두 디바이스의 데이터를 모두 사용하는 통합 모델을 생성하여 사용자의 행위를 인지할 수 있다. For example, in the case of “eating” behavior, the behavior cannot be recognized unless the sensor is located at the arm. Therefore, according to an exemplary embodiment of the present invention, in order to increase the reliability of behavior recognition, a user model may be recognized by generating an integrated model using data of both devices and models of smartphones and smart watches.

제 1 모델은 예를 들어, 스마트폰의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있으며, 제 2 모델은 웨어러블 디바이스의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있다. 나아가 제 3 모델은 스마트폰 및 웨어러블 디바이스의 가속도 센서, 자이로 센서의 데이터를 사용하여 생성될 수 있다. For example, the first model may be generated using data of the acceleration sensor and the gyro sensor of the smartphone, and the second model may be generated using the data of the acceleration sensor and the gyro sensor of the wearable device. Furthermore, the third model may be generated using data of an acceleration sensor and a gyro sensor of a smartphone and a wearable device.

상기 제 1 모델은 사용자의 전반적인 움직임으로 인지 가능한 행위를 인지하며, 제 2 모델은 사용자의 팔 동작으로 인지 가능한 행위를 인지하며, 나아가 제 3 모델은 전체 행위 인지의 최종 신뢰도를 높이기 위해 사용되며 나아가 각 모델에 적용될 수 있는 가중치를 구하는 기준으로 사용될 수 있다.The first model recognizes a behavior that can be perceived by the user's overall movement, the second model recognizes a behavior that can be recognized by the user's arm movement, and the third model is used to increase the final reliability of perception of the overall behavior. Can be used as a criterion for calculating the weight that can be applied to each model.

본 발명의 실시예를 따르는 제 1 모델, 제 2 모델, 제 3 모델은 종래의 데이터 마이닝을 통한 행위 인지 기법에 따라 생성될 수 있다. 각 모델의 특징값은 수집된 데이터로부터 Matlab의 피처 선택 기능을 통해 선정할 수 있으며, 시간 도메인 (Time Domain)에서 주로 사용되는 특징을 사용할 수 있다. The first model, the second model, and the third model according to the embodiment of the present invention may be generated according to a behavior recognition technique through conventional data mining. The feature values of each model can be selected from the collected data through Matlab's feature selection function, and the features that are mainly used in the time domain can be used.

예를 들어 제 1 모델 및 제 2 모델은 42개의 특징을 사용하며, 제 3 모델은 총 49개의 특징을 사용할 수 있다. 보다 구체적으로 특징 값으로 평균(Mean), 최대값 (Max), 최소값 (Min), 표준 편차 (Standard deviation), 사분위수 (Quartile), 절대 평균 (Absolute mean), 절대 중간(Absolute median), 기하 평균(Geometric mean) 등 8개의 특징값이 사용될 수 있다. For example, the first model and the second model may use 42 features, and the third model may use 49 features in total. More specifically, the feature values include Mean, Max, Min, Min, Standard deviation, Quartile, Absolute mean, Absolute median, and Geometry. Eight feature values, such as the geometric mean, can be used.

각 특징에 사용된 수식은 아래의 수학식을 참고할 수 있다. For the formula used for each feature, refer to the following formula.

[수학식 1][Equation 1]

Figure 112018003342397-pat00001
Figure 112018003342397-pat00001

? 도 1의 행위 인지 서버 (50)는 스마트폰 생성 데이터, 웨어러블 디바이스 생성 데이터, 스마트폰과 웨어러블 디바이스에서 생성된 데이터에 통합하여 적용하기 위한 각각의 모델을 생성할 수 있다. 나아가 각각의 모델에 해당 데이터를 적용하여 피쳐를 추출하고, 추출된 피쳐를 이용하여 추정된 사용자 행위 및/또는 추출된 피쳐 자체에 가중치를 부여할 수 있다. ? The behavior recognition server 50 of FIG. 1 may generate respective models for integrating and applying the smartphone generation data, the wearable device generation data, and the data generated by the smartphone and the wearable device. Furthermore, the feature may be applied to each model to extract a feature, and the weighted weight may be applied to the estimated user behavior and / or the extracted feature itself using the extracted feature.

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 각 모델에 적용하기 위한 가중치 테이블을 각각 생성할 수 있다. 예를 들어 의사 결정 시스템에서 일반적으로 사용되며, 오인지 되는 행위를 보정할 수 있는 가중 투표 (Weighted Voting) 기반 알고리즘을 사용하여 가중치 테이블을 작성할 수 있다. More specifically, the behavior recognition server 50 according to the embodiment of the present invention may generate a weight table for applying to each model, respectively. For example, a weight table can be created using a weighted voting-based algorithm that is commonly used in decision-making systems and can compensate for misperceived behavior.

가중 투표 기법을 사용한 의사 결정 시스템은 가중치를 어떻게 적용하느냐에 따라 행위 인지 결과가 상이해질 수 있기 때문에 가중치에 대한 기준을 정하는 것이 중요하다.It is important to set weighting criteria because decision-making systems using weighted voting techniques can have different behavioral perceptions depending on how weights are applied.

예를 들어 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 첫째로 각 행위에 대해 2의 가중치를 부여할 수 있다. 둘째로 각 모델의 오프라인 테스트 (Offline test) 결과에 따라 정확도가 낮은 행위 (예를 들어 정확도 80% 이하)에 3의 가중치를 부여할 수 있다. 세 번째로 정확도가 높은 행위 (예를 들어 정확도 90% 이상)는 1의 weight를 부여할 수 있다. For example, the behavior recognition server 50 according to an embodiment of the present invention may first assign a weight of two to each behavior. Second, depending on the results of the offline test of each model, a weight of 3 can be assigned to a low-precision behavior (eg, less than 80% accuracy). The third most accurate behavior (e.g. greater than 90% accuracy) can be given a weight of 1.

나아가, 네번째로 행위와 관련 없는 것으로 추정된 행위에는 0의 가중치를 부여할 수 있다. 예를 들어 먹기 행위의 경우, 스마트폰에서 생성된 데이터를 가지고 추정될 수 없다. 사람은 스마트폰을 손에 잡은 상태에서 먹기 행위를 할 수 없기 때문이다. 따라서 이 경우에는 가중치를 부여하지 않을 수 있다. Furthermore, a fourth weighted value of zero can be assigned to the behavior that is assumed to be unrelated to the behavior. For example, in the case of eating behavior, it cannot be estimated with the data generated by the smartphone. This is because people cannot eat while holding a smartphone in their hands. Therefore, in this case, no weight can be given.

마지막으로 특정 행위가 특정 모델에서만 추출될 때 해당 가중치를 3으로 부여할 수 있으며, 이와 같은 일련의 과정을 통해 가중치 테이블을 작성할 수 있다. Finally, when a specific behavior is extracted only from a specific model, the weight can be given as 3, and a weight table can be created through this process.

상기 실시예에서 세번째 단계에서 높은 정확도에 낮은 가중치를 부여한 이유는 높은 정확도를 보이는 행위는 가중치와 무관하게 행위 인지의 신뢰도가 매우 높을 수 있기 때문이다. 나아가 두 번째 단계에서 낮은 정확도를 보이는 행위에 높은 가중치를 부여한 이유는 낮은 정확도를 가지는 행위에 높은 가중치를 부여함으로써, 다른 모델을 통해 도출된 행위 추정값에 비해 높은 경쟁력을 부여할 수 있기 때문이다. In the above embodiment, the reason why the low weight is given to the high accuracy in the third step is that the behavior having high accuracy may have a very high reliability of behavior recognition regardless of the weight. Furthermore, the reason why high weights are assigned to the low-precision behaviors in the second step is that high-computation behaviors with low-accuracy behaviors can give higher competitiveness than the behavior estimates derived from other models.

나아가 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 작성된 가중치 테이블을 각 모델에서 추정한 행위 인지 결과에 적용할 수 있다. Furthermore, the behavior recognition server 50 according to the embodiment of the present invention may apply the created weight table to the behavior recognition result estimated by each model.

예를 들어, 제 1모델에서 걷기, 제 2 모델에서 뛰기, 제 3 모델에서 걷기 행위가 추정되고, 가중치 테이블을 통해 각 행위별 가중치가 각각 α, β, γ가 적용된 경우, α 걷기, β 뛰기, γ 걷기를 도출할 수 있다. 이후 행위 인지 서버는 가중치가 부여된 행위를 합산할 수 있다. 위의 예에서 행위 합산의 결과는 (α+γ) 걷기, β 뛰기가 될 것이다. For example, when walking in the first model, running in the second model, and walking behavior in the third model are estimated, and the weights of the respective actions are applied to each of the actions through the weight table, α, β, and γ are applied. , gamma walking can be derived. The behavior recognition server may then add the weighted behaviors. In the example above, the result of the act summation would be (α + γ) walking, β running.

나아가 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 행위 우선순위 비교 단계를 수행할 수 있다. 우선순위 비교 단계는 행위 계수가 같을 때 수행할 수 있으며, 계수가 상이한 경우에는 생략될 수 있다. Furthermore, the behavior recognition server 50 according to the embodiment of the present invention may perform the behavior priority comparison step. The priority comparison step may be performed when the behavior coefficients are equal and may be omitted when the coefficients are different.

예를 들어 행위 인지 서버는 행위 계수가 같을 경우, 각 행위별 정확도를 기준으로 높은 정확도를 보이는 행위 계수를 1만큼 올릴 수 있다. 이와 같이 가중치가 조정된 행위 결과를 통합하여 최종 행위를 결정할 수 있다. For example, when the behavior recognition server has the same behavior coefficient, the behavior recognition server may increase the behavior coefficient with high accuracy based on the accuracy of each behavior by one. As such, the final action may be determined by integrating the weighted action result.

도 2는 본 발명의 실시예를 따라 사용자의 행위를 인지하는 과정을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a process of recognizing a user action according to an embodiment of the present invention.

본 발명의 실시예를 따르는 사용자 행위 인지 시스템은 스마트폰, 웨어러블 디바이스를 포함하며, 스마트폰, 웨어러블 디바이스를 통해 센싱 데이터를 처리하여 사용자 행위 데이터가 수집될 수 있다. (단계 210)A user behavior recognition system according to an embodiment of the present invention includes a smart phone and a wearable device, and user behavior data may be collected by processing sensing data through the smart phone and the wearable device. (Step 210)

사용자 행위 데이터가 수집되는 보다 구체적인 예시는 첨부된 도 3을 참고하여 후술된다. A more specific example of collecting user behavior data will be described later with reference to FIG. 3.

도 3은 센서 데이터를 수집하고 모델링하기 위한 전처리 과정을 설명하기 위한 순서도이다. 3 is a flowchart illustrating a preprocessing process for collecting and modeling sensor data.

단계 310에서 본 발명의 실시예를 따르는 스마트폰 및/또는 웨어러블 디바이스는 포함된 센서를 이용하여 센싱 데이터를 생성하며, 센싱 데이터를 데이터 수집, 처리 서버로 전송할 수 있다. In operation 310, the smartphone and / or the wearable device according to the embodiment of the present invention may generate sensing data using the included sensor and transmit the sensing data to the data collection and processing server.

이를 위해 스마트폰 또는 웨어러블 디바이스는 측정 대상으로부터 특정 정보에 대한 물리적인 양, 예를 들어, 위치, 움직임, 밝기 등을 측정하여 전기적인 신호로 변환하기 위한 센서를 구비할 수 있다. To this end, the smartphone or wearable device may include a sensor for measuring a physical quantity of specific information, for example, position, motion, brightness, etc., from a measurement target and converting the measured amount into an electrical signal.

센싱 데이터 수집, 처리 서버는 스마트폰 및/또는 웨어러블 디바이스로부터 센싱 데이터를 수신하고, 버퍼 메모리에 저장할 수 있다. 나아가 버퍼로부터 센싱 데이터를 차례로 로딩하면서, 이를 전처리할 수 있다. (단계 320, 330)The sensing data collection and processing server may receive the sensing data from the smartphone and / or the wearable device and store the sensing data in the buffer memory. Furthermore, the sensing data can be loaded sequentially from the buffer and preprocessed. (Steps 320, 330)

보다 구체적으로, 센싱 데이터 수집, 처리 서버는 스마트폰 및/또는 웨어러블 디바이스로부터 다양한 종류의 인터페이스 프로토콜을 통해 센싱 데이터를 수집할 수 있다. 예를 들어 인터페이스 프로토콜로는 FTP(File Transfer Protocol), HTTP(Hyper Text Transfer Protocol), TCP/IP(Transmission Control Protocol/Internet Protocol) 등을 고려할 수 있다. More specifically, the sensing data collection and processing server may collect the sensing data from various types of interface protocols from the smartphone and / or the wearable device. For example, the interface protocol may include File Transfer Protocol (FTP), Hyper Text Transfer Protocol (HTTP), Transmission Control Protocol / Internet Protocol (TCP / IP), and the like.

수집된 센싱 데이터는 필요에 따라 버퍼에 저장될 수 있으며, 버퍼에서 차례로 로딩되어, 전처리 프로세싱이 수행되어 전처리된 센싱 데이터가 생성될 수 있다. 전처리된 센싱 데이터는 필요에 따라 저장부에 저장되거나 사용자 행위 인지 결과를 처리하기 위한 행위 인지 서버에 전달될 수 있다. 이때 센싱 데이터 수집, 처리 서버에 저장된 센싱 데이터와 행위 인지 서버에 저장된 센싱 데이터는 동기화할 수 있다. (단계 340)The collected sensing data may be stored in a buffer as needed, and may be sequentially loaded from the buffer, and preprocessing may be performed to generate preprocessed sensing data. The pre-processed sensing data may be stored in a storage or transmitted to an action recognition server for processing a user action recognition result as necessary. In this case, the sensing data collected and processed in the processing server and the sensing data stored in the behavior recognition server may be synchronized. (Step 340)

다시 도 2에 대한 설명으로 복귀하면, 센싱 데이터 수집 처리 서버로부터 사용자 행위 데이터를 수신한 행위 인지 서버는, 사용자 행위 데이터를 머신 러닝 프레임위크에 적용하여 기계 학습 모델을 적어도 하나 이상 생성할 수 있다. (단계 220)Returning to the description of FIG. 2 again, the behavior recognition server that receives the user behavior data from the sensing data collection processing server may generate at least one machine learning model by applying the user behavior data to the machine learning frame week. (Step 220)

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버는 머신러닝 프레임 워크를 포함할 수 있다. 나아가 사용자 행위 데이터에 머신 러닝 프레임워크를 적용하여 사용자의 행위를 추정하기 위해 머신 러닝 모델을 생성하고, 수집된 데이터에 생성된 모델을 학습하여 사용자의 행위를 추정하는 기능을 수행할 수 있다. More specifically, the behavior recognition server according to the embodiment of the present invention may include a machine learning framework. Further, by applying a machine learning framework to user behavior data, a machine learning model may be generated to estimate user behavior, and the model generated on the collected data may be learned to estimate a user's behavior.

예를 들어, 행위 인지 서버는 스마트폰으로부터 생성된 사용자 행위 데이터를 학습하기 위한 제 1 모델, 웨어러블 디바이스로부터 생성된 데이터를 학습하기 위한 제 2 모델, 스마트폰으로부터 생성된 데이터 및 웨어러블 디바이스로부터 생성된 데이터를 통합하여 학습하기 위한 제 3 모델을 생성할 수 있다. 제 1 모델, 제 2 모델, 제 3 모델은 각각 적어도 하나 이상 생성될 수 있다.For example, the behavior recognition server may include a first model for learning user behavior data generated from a smartphone, a second model for learning data generated from a wearable device, data generated from a smartphone, and generated from a wearable device. A third model can be created for integrating and learning the data. At least one of the first model, the second model, and the third model may be generated.

이때 스마트폰으로부터 생성된 데이터에 적용되는 모델, 웨어러블 디바이스로부터 생성된 데이터에 적용되는 모델, 상기 데이터들에 통합하여 적용되는 모델을 각각 별개로 구성하는 이유는 사용자의 몸에 스마트폰 및 스마트 워치가 부착되는 위치가 다르기 때문에 각 센서는 행위에 따라 인지 가능한 행위와 인지 불가능한 행위가 존재하기 때문이다. In this case, a model applied to data generated from a smartphone, a model applied to data generated from a wearable device, and a model applied integrating to the data are separately configured. Because the attached position is different, each sensor has a perceivable behavior and an unrecognizable behavior according to the behavior.

예를 들어 “먹기”행위의 경우, 팔 부위에 센서가 위치하지 않는 이상 행위의 인지가 불가능하다. 따라서 본 발명의 실시예를 따르면 행위 인지 신뢰도를 높이기 위하여 스마트폰 및 스마트워치 각 기기별 모델 및 두 디바이스의 데이터를 모두 사용하는 통합 모델을 생성하여 사용자의 행위를 인지할 수 있다. For example, in the case of “eating” behavior, the behavior cannot be recognized unless the sensor is located at the arm. Therefore, according to an exemplary embodiment of the present invention, in order to increase the reliability of behavior recognition, a user model may be recognized by generating an integrated model using data of both devices and models of smartphones and smart watches.

제 1 모델은 예를 들어, 스마트폰의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있으며, 제 2 모델은 웨어러블 디바이스의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있다. 나아가 제 3 모델은 스마트폰 및 웨어러블 디바이스의 가속도 센서, 자이로 센서의 데이터를 사용하여 생성될 수 있다.For example, the first model may be generated using data of the acceleration sensor and the gyro sensor of the smartphone, and the second model may be generated using the data of the acceleration sensor and the gyro sensor of the wearable device. Furthermore, the third model may be generated using data of an acceleration sensor and a gyro sensor of a smartphone and a wearable device.

제 1 모델은 사용자의 전반적인 움직임으로 인지 가능한 행위를 인지하는데 사용될 수 있으며, 제 2 모델은 사용자의 팔 동작으로 인지 가능한 행위를 인지하는데 사용되며, 나아가 제 3 모델은 전체 행위 인지의 최종 신뢰도를 높이기 위해 사용되며 나아가 각 모델에 적용될 수 있는 가중치를 구하는 기준으로 사용될 수 있다.The first model may be used to recognize a perceivable behavior by the user's overall movement, the second model may be used to recognize a perceivable behavior by the user's arm movement, and the third model may further increase the final reliability of the perception of the overall behavior. It can be used as a criterion for calculating weights that can be applied to each model.

본 발명의 실시예를 따르는 제 1 모델, 제 2 모델, 제 3 모델은 종래의 데이터마이닝을 통한 행위 인지 기법에 따라 생성될 수 있다. 각 모델의 특징값은 수집된 데이터로부터 Matlab의 피처 선택 기능을 통해 선정할 수 있으며, 시간 도메인 (Time Domain)에서 주로 사용되는 특징을 사용할 수 있다. The first model, the second model, and the third model according to an embodiment of the present invention may be generated according to a behavior recognition technique through conventional data mining. The feature values of each model can be selected from the collected data through Matlab's feature selection function, and the features that are mainly used in the time domain can be used.

예를 들어 제 1 모델 및 제 2 모델은 42개의 특징을 사용하며, 제 3 모델은 총 49개의 특징을 사용할 수 있다. 보다 구체적으로 특징 값으로 평균(Mean), 최대값 (Max), 최소값 (Min), 표준 편차 (Standard deviation), 사분위수 (Quartile), 절대 평균 (Absolute mean), 절대 중간(Absolute median), 기하 평균(Geometric mean) 등 8개의 특징값이 사용될 수 있다. For example, the first model and the second model may use 42 features, and the third model may use 49 features in total. More specifically, the feature values include Mean, Max, Min, Min, Standard deviation, Quartile, Absolute mean, Absolute median, and Geometry. Eight feature values, such as the geometric mean, can be used.

나아가 행위 인지 서버는 복수의 모델별로 사용자 행위를 미리 설정된 신뢰도 이상으로 추정할 수 있다. (단계 230)Furthermore, the behavior recognition server may estimate the user behavior by a plurality of models above a preset reliability. (Step 230)

얘를 들어, 행위 인지 서버는, 스마트폰 생성 데이터, 웨어러블 디바이스 생성 데이터, 스마트폰과 웨어러블 디바이스에서 생성된 데이터에 통합하여 적용하기 위한 모델을 각각 생성하고, 각각의 모델에 해당 데이터를 적용하여 피쳐를 추출하고, 추출된 피쳐를 이용하여 사용자 행위를 추정할 수 있다. For example, the behavior recognition server may generate a model for integrating and applying the smartphone generation data, the wearable device generation data, and the data generated by the smartphone and the wearable device, and apply the data to each model. And extract the user behavior using the extracted feature.

이후 행위 인지 서버는 추정된 행위에 대해 가중치를 부여하고, 이를 통합할 수 있다. (단계 240)The behavior recognition server may then weight the combined behavior and incorporate it. (Step 240)

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버는 각 모델 별 가중치 테이블을 각각 생성할 수 있다. 예를 들어 의사 결정 시스템에서 일반적으로 사용되며, 오인지 되는 행위를 보정할 수 있는 가중 투표 (Weighted Voting) 기반 알고리즘을 사용하여 가중치 테이블을 작성할 수 있다. More specifically, the behavior recognition server according to an embodiment of the present invention may generate a weight table for each model. For example, a weight table can be created using a weighted voting-based algorithm that is commonly used in decision-making systems and can compensate for misperceived behavior.

가중 투표 기법을 사용한 의사 결정 시스템은 가중치를 어떻게 적용하느냐에 따라 행위 인지 결과가 상이해질 수 있기 때문에 가중치에 대한 기준을 정하는 것이 중요할 수 있다. Decision systems using weighted voting techniques can be important in determining weighting criteria because behavior recognition results may differ depending on how weights are applied.

예를 들어, 추정된 모든 행위에 대해 2의 가중치를 부여하고, 둘째로 각 모델의 오프라인 테스트 (Offline test) 결과에 따라 정확도가 낮은 행위 (예를 들어 정확도 80% 이하)에 3의 가중치를 부여할 수 있다. 세 번째로 정확도가 높은 행위 (예를 들어 정확도 90% 이상)는 1의 weight를 부여할 수 있다. For example, a weight of 2 is assigned to all estimated behaviors, and a second weight of 3 is assigned to low-accuracy behaviors (e.g., less than 80% accuracy) based on the offline test results of each model. can do. The third most accurate behavior (e.g. greater than 90% accuracy) can be given a weight of 1.

나아가, 네번째로 행위와 관련 없는 디바이스를 통해 추정된 행위에는 0의 가중치를 부여할 수 있다. 예를 들어 먹기 행위의 경우, 스마트폰에서 생성된 데이터를 가지고 추정될 수 없다. 사람은 스마트폰을 손에 잡은 상태에서 먹기 행위를 할 수 없기 때문이다. 따라서 이 경우에는 가중치를 부여하지 않을 수 있다. In addition, a weight of 0 may be assigned to an action estimated through a device not related to the action. For example, in the case of eating behavior, it cannot be estimated with the data generated by the smartphone. This is because people cannot eat while holding a smartphone in their hands. Therefore, in this case, no weight can be given.

마지막으로 특정 행위가 특정 모델에서만 추출될 때 해당 가중치를 3으로 부여할 수 있으며, 이와 같은 일련의 과정을 통해 가중치 테이블을 작성할 수 있다. Finally, when a specific behavior is extracted only from a specific model, the weight can be given as 3, and a weight table can be created through this process.

상기 실시예에서 세번째 단계에서 높은 정확도에 낮은 가중치를 부여한 이유는 높은 정확도를 보이는 행위는 가중치와 무관하게 행위 인지의 신뢰도가 매우 높을 수 있기 때문이다. 나아가 두 번째 단계에서 낮은 정확도를 보이는 행위에 높은 가중치를 부여한 이유는 낮은 정확도를 가지는 행위에 높은 가중치를 부여함으로써, 다른 모델을 통해 도출된 행위 추정값에 비해 높은 경쟁력을 부여할 수 있기 때문이다. In the above embodiment, the reason why the low weight is given to the high accuracy in the third step is that the behavior having high accuracy may have a very high reliability of behavior recognition regardless of the weight. Furthermore, the reason why high weights are assigned to the low-precision behaviors in the second step is that high-computation behaviors with low-accuracy behaviors can give higher competitiveness than the behavior estimates derived from other models.

이렇게 작성된 가중치 테이블은 각 모델에서 추정한 행위 인지 결과에 적용될 것이다. 예를 들어, 제 1모델에서 걷기, 제 2 모델에서 뛰기, 제 3 모델에서 걷기 행위가 추정되고, 가중치 테이블을 통해 각 행위별 가중치가 각각 α, β, γ가 적용된 경우, α 걷기, β 뛰기, γ 걷기를 도출할 수 있다. The weight table created in this way will be applied to the behavior recognition result estimated by each model. For example, when walking in the first model, running in the second model, and walking behavior in the third model are estimated, and the weights of the respective actions are applied to each of the actions through the weight table, α, β, and γ are applied. , gamma walking can be derived.

이후 행위 인지 서버는 가중치가 부여된 행위를 합산, 즉 가중치를 통합할 수 있다. 위의 예에서 행위 합산의 결과는 (α+γ) 걷기, β 뛰기가 될 것이다. The behavior recognition server may then sum the weighted behaviors, i.e., incorporate the weights. In the example above, the result of the act summation would be (α + γ) walking, β running.

나아가 행위 인지 서버는 행위 우선 순위를 비교하고, 우선 순위를 적용하여 최종 행위를 도출할 수 있다. (단계 250, 260)Furthermore, the behavior recognition server may compare the behavior priorities and derive the final behavior by applying the priorities. (Steps 250, 260)

상기 우선 순위 비교는 행위 계수가 동일할 때 수행될 수 있으며, 계수가 상이한 경우에는 생략될 수 있다. 예를 들어 행위 계수가 같을 경우, 각 행위별 정확도를 기준으로 높은 정확도를 보이는 행위 계수를 1만큼 올릴 수 있다. 이와 같이 가중치가 조정된 행위 결과를 통합하여 최종 행위를 결정할 수 있다. The priority comparison may be performed when the behavior coefficients are the same, and may be omitted when the coefficients are different. For example, when the behavior coefficients are the same, the behavior coefficient showing high accuracy may be increased by 1 based on the accuracy of each behavior. As such, the final action may be determined by integrating the weighted action result.

본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. The embodiments of the present invention disclosed in the specification and the drawings are only specific examples to easily explain the technical contents of the present invention and aid the understanding of the present invention, and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

Claims (8)

센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법에 있어서,
사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계;
서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하는 단계;
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 별로 피처를 추출하여 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 대해 사용자 행위를 추정하는 단계;
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하는 단계;
상기 추정된 행위 중, 오프라인 테스트에서 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하는 단계; 및
행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
In a method of recognizing a user's behavior using the sensing data,
Generating sensing data in a user smartphone and a wearable device;
In the server, the sensing data is collected and the collected data is applied to a machine learning framework, so that a first model of the smart phone generated data, a second model of the wearable device generated data, and the smart phone generated data Generating a third model integrating the wearable device generation data;
Estimating user behavior for each of the first model, the second model, and the third model by extracting a feature for each of the first model, the second model, and the third model;
Applying the same first weight to each of the behaviors estimated through the first model, the second model and the third model;
Among the estimated actions, applying a second weight higher than the first weight to an action equal to or less than a predetermined accuracy in the offline test, and applying a third weight lower than the first weight to an action equal to or greater than a predetermined accuracy. ; And
And setting a weight to 0 for an action estimated through a device unrelated to the action and increasing and setting a weight of the action estimated only through a specific device.
제 1 항에 있어서, 상기 사용자 행위를 추정하는 단계 이후에,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하는 단계; 및
상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
The method of claim 1, wherein after estimating the user behavior:
Generating a weight table for applying to each of the first model, the second model and the third model; And
And applying the weight table to user behavior estimated through the first model, the second model, and the third model.
삭제delete 제 2항에 있어서, 상기 가중치 테이블을 적용하는 단계 이후에,
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
The method of claim 2, wherein after applying the weight table,
And comparing the priorities with respect to the actions having the same weight.
센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법에 있어서,
사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계;
서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하는 단계;
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계; 및
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함하며,
상기 사용자 행위에 적용하는 단계는,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하는 단계;
상기 추정된 행위 중, 오프라인 테스트에서 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하는 단계; 및
행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
In a method of recognizing a user's behavior using the sensing data,
Generating sensing data in a user smartphone and a wearable device;
In the server, the sensing data is collected and the collected data is applied to a machine learning framework, so that a first model of the smart phone generated data, a second model of the wearable device generated data, and the smart phone generated data And generating a third model integrating the wearable device generation data, extracting features for each model, and estimating user behavior for each of the models;
Generate a weight table for applying to each of the first model, the second model and the third model, the weight table to the user behavior estimated through the first model, the second model and the third model Applying; And
Comparing priorities for actions with the same weight,
Applying to the user behavior,
Applying the same first weight to each of the behaviors estimated through the first model, the second model and the third model;
Among the estimated actions, applying a second weight higher than the first weight to an action equal to or less than a predetermined accuracy in the offline test, and applying a third weight lower than the first weight to an action equal to or greater than a predetermined accuracy. ; And
And setting a weight to 0 for an action estimated through a device unrelated to the action and increasing and setting a weight of the action estimated only through a specific device.
사용자 행위를 인지하는 시스템에 있어서,
적어도 하나 이상의 센서를 포함하는 사용자 스마트폰;
적어도 하나 이상의 센서를 포함하며, 상기 사용자에 부착된 웨어러블 디바이스;
상기 스마트폰 및 웨어러블 디바이스에서 생성된 센싱 데이터를 수집하여 처리하는 데이터 처리 서버; 및
상기 데이터 처리 서버에서 처리된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하며, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 행위 인지 서버를 포함하며,
상기 행위 인지 서버는,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하고, 상기 추정된 행위 중, 오프라인 테스트에서 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하고, 행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 것을 특징으로 하는 사용자 행위 인지 시스템.
In a system that recognizes user behavior,
A user smartphone including at least one sensor;
A wearable device including at least one sensor and attached to the user;
A data processing server for collecting and processing sensing data generated by the smart phone and the wearable device; And
Applying the data processed by the data processing server to a machine learning framework, a first model for the smartphone generation data, a second model for the wearable device generation data, and the smartphone generation data and the wearable device generation Generate a third model incorporating data, extract features for each model, estimate user behavior for each of the models, and apply a weight table to apply to each of the first model, the second model, and the third model. Generating and applying the weight table to a user behavior estimated through the first model, the second model, and the third model;
The act recognition server,
The same first weight is applied to each of the actions estimated through the first model, the second model, and the third model, and among the estimated actions, the first weight is applied to actions below a predetermined accuracy in an offline test. Apply a higher second weight, apply a third weight lower than the first weight for an action greater than or equal to a predetermined accuracy, set the weight to zero for an action estimated through a device independent of the action, and specify a specific device User behavior recognition system, characterized in that the setting by increasing the weight of the behavior estimated only through.
삭제delete 제 6항에 있어서, 상기 행위 인지 서버는,
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 것을 특징으로 하는 사용자 행위 인지 시스템.
The method of claim 6, wherein the behavior recognition server,
User behavior recognition system, characterized in that for comparing the priority for the behavior of the same weight.
KR1020180003663A 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity KR102012804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Publications (2)

Publication Number Publication Date
KR20190085604A KR20190085604A (en) 2019-07-19
KR102012804B1 true KR102012804B1 (en) 2019-08-21

Family

ID=67512002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Country Status (1)

Country Link
KR (1) KR102012804B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674188A (en) * 2019-09-27 2020-01-10 支付宝(杭州)信息技术有限公司 Feature extraction method, device and equipment
KR102433071B1 (en) * 2020-10-05 2022-08-16 경희대학교 산학협력단 Frame work for processing sensor data in network and method of operating the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584458B1 (en) * 2014-12-05 2016-01-14 경희대학교 산학협력단 Apparatus and method for real-time recognition of activity and posture based on combined sensor data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228336B1 (en) * 2011-04-01 2013-01-31 한국과학기술원 Personalization Service Providing Method by Using Mobile Terminal User's Activity Pattern and Mobile Terminal therefor
KR20150069388A (en) * 2013-12-13 2015-06-23 삼성전자주식회사 Server and Method for transmitting data, and Mobile device and Method for sensing thereof
KR102476825B1 (en) * 2016-06-16 2022-12-09 삼성에스디에스 주식회사 Method and apparatus for providing IoT service based on data platform

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584458B1 (en) * 2014-12-05 2016-01-14 경희대학교 산학협력단 Apparatus and method for real-time recognition of activity and posture based on combined sensor data

Also Published As

Publication number Publication date
KR20190085604A (en) 2019-07-19

Similar Documents

Publication Publication Date Title
US20220007955A1 (en) Method for measuring biological signal and wearable electronic device for the same
US10182746B1 (en) Decoupling body movement features from sensor location
CN110251080B (en) Detecting a limb wearing a wearable electronic device
US9726498B2 (en) Combining monitoring sensor measurements and system signals to determine device context
US20170337349A1 (en) System and method for generating health data using measurements of wearable device
US20210319585A1 (en) Method and system for gaze estimation
US10365120B2 (en) Device, method and system for counting the number of cycles of a periodic movement of a subject
KR20180099026A (en) Photographing method using external electronic device and electronic device supporting the same
US20220248980A1 (en) Systems and methods for monitoring movements
KR102012804B1 (en) Method, apparatus and computer program for recognition of a user activity
KR102457247B1 (en) Electronic device for processing image and method for controlling thereof
KR102356599B1 (en) Method for determining region of interest of image and device for determining region of interest of image
US20140323881A1 (en) Pulse estimation device
US20220409110A1 (en) Inferring cognitive load based on gait
EP3833245B1 (en) Compensating for a movement of a sensor attached to a body of a user
US20230123815A1 (en) Stability scoring of individuals utilizing inertial sensor device
KR20160136646A (en) Electronic device which displays screen and method for controlling thereof
Luo et al. Pervasive pose estimation for fall detection
Gadebe et al. Personalized real time human activity recognition
Varma et al. Health assessment for office workers by tracking the wrist motion centric activity
EP3838141A1 (en) System and method to determine if a device is worn on a subject's dominant limb
Sharma et al. Machine Vision Enabled Fall Detection System for Specially Abled People in Limited Visibility Environment
CN113029190A (en) Motion tracking system and method
WO2024064168A1 (en) Force estimation from wrist electromyography
CN114745010A (en) System and method relating to motion tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant