KR20190085604A - Method, apparatus and computer program for recognition of a user activity - Google Patents

Method, apparatus and computer program for recognition of a user activity Download PDF

Info

Publication number
KR20190085604A
KR20190085604A KR1020180003663A KR20180003663A KR20190085604A KR 20190085604 A KR20190085604 A KR 20190085604A KR 1020180003663 A KR1020180003663 A KR 1020180003663A KR 20180003663 A KR20180003663 A KR 20180003663A KR 20190085604 A KR20190085604 A KR 20190085604A
Authority
KR
South Korea
Prior art keywords
model
data
weight
user
wearable device
Prior art date
Application number
KR1020180003663A
Other languages
Korean (ko)
Other versions
KR102012804B1 (en
Inventor
이승룡
허태호
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020180003663A priority Critical patent/KR102012804B1/en
Publication of KR20190085604A publication Critical patent/KR20190085604A/en
Application granted granted Critical
Publication of KR102012804B1 publication Critical patent/KR102012804B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • H04M1/72519

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)

Abstract

According to an embodiment of the present invention, provided is a method for recognizing a user behavior using sensing data, which comprises the steps of: generating sensing data in a user smartphone and a wearable device; in a server, collecting the sensing data and applying the collected data to a machine learning framework, so that a first model of smartphone generation data, a second model of wearable device generation data, and a third model integrating the smartphone generation data and the wearable device generation data; and extracting a feature for each of the first model, the second model, and the third model to estimate a user behavior for each of the first model, the second model, and the third model.

Description

사용자 행위를 인지하는 방법, 장치 및 컴퓨터 프로그램 {METHOD, APPARATUS AND COMPUTER PROGRAM FOR RECOGNITION OF A USER ACTIVITY}METHOD, APPARATUS AND COMPUTER PROGRAM FOR RECOGNITION OF A USER ACTIVITY,

본 발명은 스마트폰 등의 모바일 디바이스 및/또는 스마트워치 등의 웨어러블 디아비스 등 사용자 디바이스로부터 수집한 센서 데이터를 이용하여 사용자의 행위를 인지하는 방법에 대한 것이다. 보다 구체적으로 본 발명은 수집된 센서 정보로부터 해당 사용자의 행위를 보다 정확하게 인지하기 위하여 머신러닝 프레임워크를 적용하기 위한 복수의 모델에 가중치를 부여하고, 가중치가 부여된 복수의 모델을 통합한 통합 모델링 데이터로부터 사용자 행위를 판단하는 방법에 대한 발명이다. The present invention relates to a method of recognizing a user's behavior by using sensor data collected from a user device such as a mobile device such as a smart phone and / or a wearable diabase such as a smart watch. More particularly, the present invention relates to a method and apparatus for assigning weights to a plurality of models for applying a machine learning framework to more accurately recognize a behavior of a user from collected sensor information, The present invention relates to a method for judging user behavior from data.

최근 사물인터넷 기술의 급격한 발전에 따라, 수집된 IoT 데이터로부터 특정 사용자의 행위 인지를 포함하여 보다 정확하게 상황을 인지할 수 있는 컴퓨팅 기술이 개발되고 있다. Recently, according to the rapid development of Internet technology, computing technology capable of recognizing the situation more accurately including the specific user's behavior is being developed from collected IoT data.

상황 인지 기술은 사용자의 행동과 움직임을 사람의 개입 없이 수학적으로 보다 정확하게 파악하는 것을 목표로 하는 기술로서, 일반적으로 카메라를 이용한 영상, 가속도 등의 센서를 몸에 부착하는 관성 센서, 그리고 주변 사물의 압력, 동작 센서 등을 이용한 사물 센서 등을 이용하여 대량의 데이터를 수집하고 수집된 데이터를 머신러닝 프레임워크에 적용하여 추정 결과를 도출하도록 구현될 수 있다. Situational cognition technology is a technology aimed at more accurately grasping the user's behavior and movement mathematically without human intervention. In general, it is an inertial sensor that attaches a sensor such as a video camera or an acceleration sensor to the body, Pressure sensor, motion sensor, or the like, and then applying the collected data to the machine learning framework to derive an estimation result.

이중에서 카메라를 이용한 영상 데이터와 사물 센서를 이용한 센서 데이터를 수집하기 위해서는 카메라 또는 압력 센서, 동작 센서 기기들이 임의의 공간에 설치되어 있어야 한다. 즉, 카메라 또는 사물 센서 기반의 행위 인지를 위해서는 카메라 또는 사물 센서가 미리 설치된 공간 내에서만 행위 인지가 가능하다. 그러나 관성 센서는 사람의 몸에 부착할 수 있기 때문에 장소에 구애받지 않고, 해당 사용자의 행위를 인지할 수 있는 장점이 있다. In order to collect image data using a camera and sensor data using an object sensor, a camera, a pressure sensor, and a motion sensor device must be installed in an arbitrary space. That is, in order to recognize the action based on the camera or the object sensor, it is possible to recognize the action only in the space where the camera or the object sensor is installed. However, since the inertial sensor can be attached to a person's body, there is an advantage that the user's behavior can be perceived regardless of the place.

나아가 관성 센서를 기반으로 사용자 데이터를 수집하면, 다수의 센서를 신체 요소 부위에 부착하여 보다 정확하게 사용자의 행위 및/또는 상황을 인지할 수 있는 데이터가 수집될 수 있는 장점이 있다. 그러나 이를 실제 사용자에게 적용하면, 다수의 센서를 사용자에게 부착하게 되어 사용자의 움직임이 불편하게 되기 때문에 사용자 편의성이 떨어지는 문제가 있다. Further, when the user data is collected based on the inertial sensor, a plurality of sensors can be attached to the body element region, so that data that can more accurately recognize the user's behavior and / or situation can be collected. However, if this is applied to an actual user, since a plurality of sensors are attached to the user, the movement of the user becomes inconvenient, and therefore there is a problem that the user convenience is poor.

따라서 사용자의 신체에 센서를 직접 부착하지는 않으나, 다양한 센서를 갖추고 사용자와 일반적으로 최근거리에 위치하게 되는 스마트폰을 이용하여 행위 인지를 위한 데이터를 수집하는 방법을 고려할 수 있다. 스마트폰은 다양한 센서는 물론 연산 능력까지 갖추고 있으며, 사용자 편의성이 높은 장점이 있다. Therefore, although the sensor is not directly attached to the body of the user, a method of collecting data for sensing the behavior may be considered using a smart phone equipped with various sensors and generally positioned at a recent distance from the user. The smartphone has not only various sensors but also computing power, and it has a high user convenience.

그러나 스마트폰만을 이용한 데이터 수집의 경우, 단일 기기만으로 다양한 행위가 가능한 신체 부위의 각 특징을 반영하는 데이터를 수집할 수 없는 한계가 있어, 스마트폰과 함께 등장한 스마트 워치 등의 웨어러블 스마트 디바이스를 고려할 수 있다. However, in the case of data collection using only a smart phone, there is a limitation in collecting data reflecting individual characteristics of a body part that can perform various actions with only a single device, so that a wearable smart device such as a smart watch have.

스마트워치는 밴드 형태의 디자인을 채택하여 사용자의 손목에 착용될 수 있으나, 이 역시 신체 부위의 각 특징을 반영하는 데이터를 수집하기에는 역부족일 수 있다. The smart watch can be worn on the wearer's wrist by adopting a band-like design, but this may also be insufficient to collect data that reflects each feature of the body part.

따라서 본 발명은 스마트폰 및 스마트워치 등의 웨어러블 디바이스 양자를 이용하여 센싱 데이터를 수집하고, 독립된 각각의 기기로부터 수집된 데이터 및 각각의 기기로부터 수집된 데이터를 통합하여 추정할 수 있는 사용자 행위를 보다 높은 신뢰도로 제공하는 것을 목적으로 한다. Accordingly, the present invention collects sensing data using both wearable devices such as smart phones and smart watches, and collects the collected data from each independent device and the user behavior that can collectively estimate the data collected from each device And is provided with high reliability.

이를 위해 본 발명의 실시예를 따르면 단일의 스마트폰, 단일의 스마트워치, 나아가 스마트폰 및 스마트워츠 통합의 세 가지 인지 모델을 생성하고, 각각의 모델에 대한 가중치 부여 및 통합을 통해 보다 높은 신뢰도의 사용자 행위 인지 기술을 제공할 수 있다.For this, according to the embodiment of the present invention, three cognitive models of a single smartphone, a single smart watch, a smartphone and a SmartWall integration are created, and weighting and integration of each model are performed to obtain a higher reliability And provide user behavior awareness.

본 발명은 상기와 같은 문제를 해결하는 것을 목적으로 한다. 보다 구체적으로 본 발명은, 스마트폰 및/또는 스마트워치로부터 수집된 센싱 데이터를 이용하여 해당 사용자의 행위를 보다 높은 신뢰도로 추정할 수 있는 프레임워크를 제공하는 것을 목적으로 한다. The present invention has been made to solve the above problems. More particularly, the present invention aims at providing a framework that can estimate the behavior of a user with higher reliability by using sensing data collected from a smartphone and / or a smart watch.

본 발명의 실시예를 따르는 센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법은, 사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계; 서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하는 단계; 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 별로 피처를 추출하여 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 대해 사용자 행위를 추정하는 단계를 포함하는 것을 특징으로 한다. A method of recognizing a user's behavior using sensing data according to an embodiment of the present invention includes generating sensing data in a user smartphone and a wearable device; The method of claim 1, wherein at the server, the sensing data is collected and the collected data is applied to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, And a third model for integrating the wearable device creation data; Extracting features for each of the first model, the second model, and the third model, and estimating a user behavior for each of the first model, the second model, and the third model.

나아가, 상기 사용자 행위를 추정하는 단계 이후에, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하는 단계; 및 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계를 포함할 수 있다. Generating a weight table for applying to each of the first model, the second model, and the third model after the step of estimating the user behavior; And And applying the weight table to the user behavior estimated through the first model, the second model, and the third model.

나아가, 상기 가중치 테이블을 생성하는 단계는, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하는 단계; 상기 추정된 행위 중, 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하는 단계; 및 행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 단계를 포함할 수 있다. Further, the step of generating the weight table may include applying the same first weight to each of the actions estimated through the first model, the second model, and the third model. Applying a second weight higher than the first weight to an action of less than a predetermined accuracy among the estimated actions and applying a third weight lower than the first weight to an action of a predetermined accuracy or more; And setting the weight to 0 for the action estimated through the device irrelevant to the action and increasing the weight of the action estimated only through the specific device.

나아가 상기 가중치 테이블을 적용하는 단계 이후에, 상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함할 수 있다. And further comprising the step of comparing the priorities for the same weighted behavior after the step of applying the weighted table.

한편, 본 발명의 실시예를 따르는 센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법은, 사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계; 서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하는 단계; 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계; 및 상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함할 수 있다. Meanwhile, a method of recognizing a user's behavior using sensing data according to an embodiment of the present invention includes: generating sensing data in a user smartphone and a wearable device; The method of claim 1, wherein at the server, the sensing data is collected and the collected data is applied to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, Generating a third model that integrates the wearable device creation data, extracting features for each model, and estimating a user behavior for each of the models; And generating a weight table to be applied to each of the first model, the second model, and the third model, and assigning the weight table to the user behavior estimated through the first model, the second model, Applying; And And comparing the priorities for the same weighted action.

나아가, 본 발명의 실시예를 따르는 사용자 행위를 인지하는 시스템은, 적어도 하나 이상의 센서를 포함하는 사용자 스마트폰; 적어도 하나 이상의 센서를 포함하며, 상기 사용자에 부착된 웨어러블 디바이스; 상기 스마트폰 및 웨어러블 디바이스에서 생성된 센싱 데이터를 수집하여 처리하는 데이터 처리 서버; 및 상기 데이터 처리 서버에서 처리된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하며, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 행위 인지 서버를 포함하는 것을 특징으로 한다. Further, a system for recognizing user behavior according to an embodiment of the present invention includes: a user smartphone including at least one sensor; A wearable device comprising at least one sensor, the wearable device being attached to the user; A data processing server for collecting and processing sensing data generated in the smartphone and the wearable device; And applying data processed by the data processing server to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, and a second model for the smartphone generated data and the wearable device Generating a third model that integrates the generated data, extracting features for each model, estimating a user behavior for each of the models, and calculating a weight table for applying the first model, the second model, And an action recognition server for applying the weight table to user actions estimated through the first model, the second model, and the third model.

본 발명에 따르면, 사람의 개입없이 컴퓨터가 사용자의 행위를 보다 정확하게 인지할 수 있는 효과가 있다.According to the present invention, a computer can recognize a user's behavior more accurately without human intervention.

도 1은 본 발명의 실시예를 따라 스마트폰과 스마트워치로부터 센싱 데이터를 수집하고, 이를 머신러닝 프레임워크에 적용하는 시스템 구성도
도 2는 본 발명의 실시예를 따라 사용자의 행위를 인지하는 과정을 설명하기 위한 순서도
도 3은 센서 데이터를 수집하고 모델링하기 위한 전처리 과정을 설명하기 위한 순서도
FIG. 1 is a system configuration diagram for collecting sensing data from a smartphone and smart watch according to an embodiment of the present invention and applying it to a machine learning framework
2 is a flowchart illustrating a process of recognizing a user's behavior according to an embodiment of the present invention.
FIG. 3 is a flowchart for explaining a preprocessing process for collecting and modeling sensor data

본 발명은 이하에 기재되는 실시예들의 설명 내용에 한정되는 것은 아니며, 본 발명의 기술적 요지를 벗어나지 않는 범위 내에서 다양한 변형이 가해질 수 있음은 자명하다. 그리고 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 널리 알려져 있고 본 발명의 기술적 요지와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. It is to be understood that the present invention is not limited to the description of the embodiments described below, and that various modifications may be made without departing from the technical scope of the present invention. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

한편, 첨부된 도면에서 동일한 구성요소는 동일한 부호로 표현된다. 그리고 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시될 수도 있다. 이는 본 발명의 요지와 관련이 없는 불필요한 설명을 생략함으로써 본 발명의 요지를 명확히 설명하기 위함이다. In the drawings, the same components are denoted by the same reference numerals. And in the accompanying drawings, some of the elements may be exaggerated, omitted or schematically illustrated. It is intended to clearly illustrate the gist of the present invention by omitting unnecessary explanations not related to the gist of the present invention.

도 1은 본 발명의 실시예를 따라 스마트폰과 스마트워치로부터 센싱 데이터를 수집하고, 이를 머신러닝 프레임워크에 적용하는 행위 인지 시스템의 구성도이다. FIG. 1 is a configuration diagram of an action recognition system for collecting sensing data from a smartphone and a smart watch according to an embodiment of the present invention and applying the same to a machine learning framework.

본 발명의 실시예를 따르는 행위 인지 시스템은 도 1에 도시된 바와 같이, 스마트폰 (10), 웨어러블 디바이스 (20), 센싱 데이터 수집 및 처리 서버 (40), 수집된 데이터를 이용하여 행위를 추정하는 행위 인지 서버 (50) 및 행위 인지 결과를 이용하여 서비스를 제공하는 서버 (60)를 포함하여 구성될 수 있다. As shown in FIG. 1, an action recognition system according to an embodiment of the present invention includes a smartphone 10, a wearable device 20, a sensing data collection and processing server 40, And a server 60 for providing a service using the action recognition server 50 and the action recognition result.

본 발명의 실시예를 따르는 스마트폰 (10)은 포함된 센서를 이용하여 수집된 센싱 데이터를 센싱 데이터 수집, 처리 서버 (40)로 전송하는 기능을 수행할 수 있다. 이를 위해 스마트폰 (10)은 측정 대상으로부터 특정 정보에 대한 물리적인 양, 예를 들어 위치, 움직임, 밝기 등을 측정하여 전기적인 신호로 변환하기 위한 센서를 포함하여 구성될 수 있다. The smartphone 10 according to the embodiment of the present invention can perform the function of transmitting the sensing data collected using the included sensor to the sensing data collection and processing server 40. [ For this purpose, the smartphone 10 may be configured to include a sensor for measuring a physical amount of specific information, for example, position, motion, brightness, etc., from an object to be measured and converting it into an electrical signal.

스마트폰에 포함될 수 있는 센서는 가속 센서, 중력 센서, 자이로 센서, 온도 센서, 압력 센서, 조도 센서, 근접 센서, GPS 센서, 지자기 센서, 방향 센서 등을 예시할 수 있다. Examples of sensors that can be included in a smart phone include an acceleration sensor, a gravity sensor, a gyro sensor, a temperature sensor, a pressure sensor, an illuminance sensor, a proximity sensor, a GPS sensor, a geomagnetic sensor, and a direction sensor.

보다 구체적으로 자이로 센서는 X, Y, Z 축에 대한 회전속도를 측정하여 이를 통해 스마트폰의 기울임 정도나 회전 등에 대한 정보를 확인할 수 있는 데이터를 생성할 수 있으며, 온도센서는 스마트폰 외부의 온도 데이터를 측정할 수 있다. 나아가 압력 센서는 기압 측정 데이터, 조도 센서는 주변 조도 측정 데이터, 근접 센서는 물리적인 접촉 없이 측정 대상의 존재 여부와 스크린까지의 거리를 측정한 데이터를 생성할 수 있다. 나아가 GPS 센서는 GPS 위성을 활용하여 해당 시점의 시간 및 위치에 대한 데이터를 생성할 수 있으며, 지자기 센서는 지구 자기장을 이용해 방위각을 측정한 데이터, 방향 센서는 회전각을 측정하여 중력 센서 및 지자기 센서 등과 함께 위치 정보를 제공하는 데이터를 생성할 수 있다. More specifically, the gyro sensor can measure the rotational speed of the X, Y, and Z axes to generate data that can be used to check information about the degree of inclination or rotation of the smartphone. Data can be measured. Further, the pressure sensor can generate data of atmospheric pressure measurement data, the ambient light intensity measurement data of the ambient light intensity, and the proximity sensor can measure the existence of the object to be measured and the distance to the screen without physical contact. Furthermore, the GPS sensor can generate data on the time and position at the time of utilizing the GPS satellite. The geomagnetic sensor measures the azimuth angle using the geomagnetic field, and the direction sensor measures the rotation angle to measure the gravity sensor and geomagnetic sensor Or the like, together with the location information.

한편 도 1은 스마트폰 (10)을 예시하고 있지만, 이는 예시에 불과하며 본 발명은 이에 한정하여 해석될 수 없다. 즉, 본 발명의 실시예를 따르는 스마트폰 (10)은 일반적으로 사용자가 항상 휴대할 수 있으며, 소정의 센서를 포함하는 모바일 디바이스를 포괄하는 의미로 해석되어야 한다. 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera 중 적어도 하나를 포함할 수 있다. Meanwhile, FIG. 1 illustrates the smartphone 10, which is merely an example, and the present invention can not be construed as being limited thereto. That is, the smartphone 10 according to the embodiment of the present invention should be construed to mean a mobile device including a predetermined sensor, which is generally portable by the user at all times. For example, a smart phone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, a desktop personal computer, a laptop a personal computer, a netbook computer, a workstation, a server, a personal digital assistant (PDA), a portable multimedia player (PMP), an MP3 player, a mobile medical device, a camera have.

도 1에 예시된 웨어러블 디바이스 (20) 역시 포함된 센서를 이용하여 수집된 센싱 데이터를 센싱 데이터 수집, 처리 서버 (40)로 전송하는 기능을 수행할 수 있다. 이를 위해 웨어러블 디바이스 (20)은 다양한 센서를 포함하여 구성될 수 있다. The wearable device 20 illustrated in FIG. 1 can also perform a function of transmitting sensed data collected using a sensor included in the wearable device 20 to the sensing data collection and processing server 40. To this end, the wearable device 20 may include various sensors.

보다 구체적으로, 웨어러블 디바이스 (20)는 스마트폰 (10)과 같이 가속 센서, 중력 센서, 자이로 센서, 온도 센서, 압력 센서, 조도 센서, 근접 센서, GPS 센서, 지자기 센서, 방향 센서 등을 탑재할 수 있으며, 나아가 사용자의 신체에 부착되는 특성을 이용할 수 있는 심박동수 모니터 센서, 산소 측정 센서, 피부 전도 센서, 피부 온도 센서 등을 탑재할 수 있다. More specifically, the wearable device 20 is equipped with an acceleration sensor, a gravity sensor, a gyro sensor, a temperature sensor, a pressure sensor, an illuminance sensor, a proximity sensor, a GPS sensor, a geomagnetic sensor, And can further include a heart rate monitor sensor, an oxygen measurement sensor, a skin conduction sensor, a skin temperature sensor, and the like that can utilize the characteristics attached to the user's body.

심박동수 모니터 센서는 예를 들어 광학 혈류 정보를 센싱할 수 있으며, 산소 측정 센서는 사용자 혈액의 산소를 측정하여 정확한 맥박수를 파악할 수 있는 데이터를 생성할 수 있다. 나아가 피부 전도 센서는 피부의 전류 반응, 예를 들어 사용자가 얼마나 땀을 흘리지는 여부를 측정할 수 있는 데이터를 생성할 수 있으며, 이를 통해 신체 활동 강도를 파악하고, 칼로리 소비 수치를 계산하는데 활용될 수 있다. The heart rate monitor sensor can, for example, sense optical blood flow information, and the oxygen measurement sensor can generate data that can accurately determine the pulse rate by measuring the oxygen of the user's blood. Furthermore, the skin conduction sensor can generate data that can be used to measure the current response of the skin, for example, how much perspiration the user is sweating, thereby determining the intensity of physical activity and calculating calorie consumption figures .

도 1의 예에서 웨어러블 디바이스 (20)는 예를 들어 스마트워치일 수 있으나, 본 발명은 이에 한정하여 해석될 수 없다. 본 발명의 실시예를 따르는 웨어러블 디바이스는 액세서리형, 예를 들어 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형, 예를 들어 스킨 패드(skin pad) 또는 문신, 또는 생체 이식형, 예를 들어 implantable circuit 중 적어도 하나를 포함할 수 있다. In the example of Fig. 1, the wearable device 20 may be, for example, a smart watch, but the present invention can not be construed to be limited thereto. A wearable device according to an embodiment of the present invention may be of the accessory type such as a watch, a ring, a bracelet, a bracelet, a necklace, a pair of glasses, a contact lens or a head-mounted-device (HMD) (E.g., electronic apparel), a body attachment type, e.g., a skin pad or tattoo, or a bioimplantable, e.g., implantable circuit.

다른 실시예에서, 웨어러블 디바이스(20)는 각종 의료기기, 예를 들어 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기를 포함할 수 있다.In other embodiments, the wearable device 20 may be used in a variety of medical devices, such as various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter, a magnetic resonance angiography (MRA) imaging, computed tomography (CT), an imaging device, or an ultrasonic device.

도 1에 도시된 센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/ 또는 웨어러블 디바이스 (20)를 통해 생성된 센싱 데이터를 수집하고, 이를 전처리하는 역할을 수행할 수 있다. The sensing data collecting and processing server 40 shown in FIG. 1 may collect sensing data generated through the smartphone 10 and / or the wearable device 20 and perform a preprocessing of the sensing data.

도 1의 예에서, 센싱 데이터 수집, 처리 서버 (40) 및 행위 인지 서버 (50)는 별개의 장치인 것으로 도시되어 있지만, 이는 예시에 불과하다. 즉, 본 발명의 실시예를 따르는 센싱 데이터 수집, 처리 서버 (40) 및 행위 인지 서버 (50)는 물리적으로 하나 이상의 하드웨어 장치일 수 있으며, 가상화된 소프트웨어 일 수도 있다. In the example of FIG. 1, the sensing data collection, processing server 40 and behavior awareness server 50 are shown as being separate devices, but this is only an example. That is, the sensing data collection, processing server 40, and behavior awareness server 50 according to an embodiment of the present invention may be physically one or more hardware devices and may be virtualized software.

센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/또는 웨어러블 디바이스 (20)가 전송한 센싱 데이터를 수신하고, 버퍼 메모리에 저장할 수 있다. 나아가 버퍼로부터 센싱 데이터를 차례로 로딩하면서, 이를 전처리할 수 있다. The sensing data collection and processing server 40 may receive the sensed data transmitted by the smartphone 10 and / or the wearable device 20 and store the sensed data in the buffer memory. Further, the sensing data can be pre-processed while sequentially loading the sensing data from the buffer.

센싱 데이터 수집, 처리 서버 (40)는 스마트폰 (10) 및/또는 웨어러블 디바이스 (20)로부터 다양한 종류의 인터페이스 프로토콜을 통해 센싱 데이터를 수집할 수 있다. 예를 들어 인터페이스 프로토콜로는 FTP(File Transfer Protocol), HTTP(Hyper Text Transfer Protocol), TCP/IP(Transmission Control Protocol/Internet Protocol) 등을 고려할 수 있다. The sensing data collection and processing server 40 may collect sensing data from the smartphone 10 and / or the wearable device 20 through various types of interface protocols. For example, FTP (File Transfer Protocol), HTTP (Hyper Text Transfer Protocol), and TCP / IP (Transmission Control Protocol / Internet Protocol) may be considered as the interface protocol.

수집된 센싱 데이터는 필요에 따라 버퍼에 저장될 수 있으며, 버퍼에서 차례로 로딩되어, 전처리 프로세싱이 수행되어 전처리된 센싱 데이터가 생성될 수 있다. 전처리된 센싱 데이터는 필요에 따라 저장부에 저장되거나 사용자 행위 인지 결과를 처리하기 위한 행위 인지 서버 (50)에 전달될 수 있다. The collected sensing data may be stored in a buffer as needed and sequentially loaded in the buffer so that preprocessing processing may be performed to generate preprocessed sensing data. The preprocessed sensing data may be stored in a storage unit or transmitted to the action recognition server 50 for processing a user action result, if necessary.

본 발명의 실시예를 따르는 행위 인지 서버 (50)는 머신러닝 프레임 워크를 포함할 수 있다. 나아가 센싱 데이터에 머신 러닝 프레임워크를 적용하여 사용자의 행위를 추정하기 위해 머신 러닝 모델을 생성하고, 수집된 데이터에 생성된 모델을 학습하여 사용자의 행위를 추정하는 기능을 수행할 수 있다. The behavior awareness server 50 according to an embodiment of the present invention may include a machine learning framework. Further, a machine learning model may be generated to estimate a user's behavior by applying a machine learning framework to sensing data, and a function of estimating a user's behavior by learning a model generated in the collected data may be performed.

보다 구체적으로 본 발명의 행위 인지 서버 (50)는 스마트폰 (10)으로부터 생성된 데이터를 학습하기 위한 제 1 모델, 웨어러블 디바이스 (20)로부터 생성된 데이터를 학습하기 위한 제 2 모델, 스마트폰 (10)으로부터 생성된 데이터 및 웨어러블 디바이스 (20)로부터 생성된 데이터를 통합하여 학습하기 위한 제 3 모델을 생성할 수 있다. 행위 인지 서버 (50)는 상기 제 1 모델, 제 2 모델, 제 3 모델을 각각 적어도 하나 이상 생성할 수 있다.More specifically, the action recognition server 50 of the present invention includes a first model for learning data generated from the smartphone 10, a second model for learning data generated from the wearable device 20, 10) and the data generated from the wearable device 20 can be generated. The behavior awareness server 50 may generate at least one of the first model, the second model, and the third model, respectively.

상기 실시예에서 스마트폰으로부터 생성된 데이터에 적용되는 모델, 웨어러블 디바이스로부터 생성된 데이터에 적용되는 모델, 상기 데이터들에 통합하여 적용되는 모델을 각각 별개로 구성하는 이유는 사용자의 몸에 스마트폰 및 스마트 워치가 부착되는 위치가 다르기 때문에 각 센서는 행위에 따라 인지 가능한 행위와 인지 불가능한 행위가 존재하기 때문이다. The reason why the model applied to the data generated from the smartphone, the model applied to the data generated from the wearable device, and the model integrated into the data are separately configured in the above embodiment is that the smartphone Because the SmartWatch is attached to different locations, each sensor has perceptible and unrecognizable behaviors.

예를 들어 “먹기”행위의 경우, 팔 부위에 센서가 위치하지 않는 이상 행위의 인지가 불가능하다. 따라서 본 발명의 실시예를 따르면 행위 인지 신뢰도를 높이기 위하여 스마트폰 및 스마트워치 각 기기별 모델 및 두 디바이스의 데이터를 모두 사용하는 통합 모델을 생성하여 사용자의 행위를 인지할 수 있다. For example, in the case of "eating", it is impossible to perceive the behavior unless the sensor is located on the arm. Therefore, according to the embodiment of the present invention, an integrated model using both the smartphone and the smart watch model and the data of the two devices can be generated to recognize the behavior of the user.

제 1 모델은 예를 들어, 스마트폰의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있으며, 제 2 모델은 웨어러블 디바이스의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있다. 나아가 제 3 모델은 스마트폰 및 웨어러블 디바이스의 가속도 센서, 자이로 센서의 데이터를 사용하여 생성될 수 있다. For example, the first model may be generated using data of an acceleration sensor and a gyro sensor of a smartphone, and the second model may be generated using data of an acceleration sensor and a gyro sensor of a wearable device. Furthermore, the third model can be generated using data of acceleration sensors and gyro sensors of smart phones and wearable devices.

상기 제 1 모델은 사용자의 전반적인 움직임으로 인지 가능한 행위를 인지하며, 제 2 모델은 사용자의 팔 동작으로 인지 가능한 행위를 인지하며, 나아가 제 3 모델은 전체 행위 인지의 최종 신뢰도를 높이기 위해 사용되며 나아가 각 모델에 적용될 수 있는 가중치를 구하는 기준으로 사용될 수 있다.The first model recognizes an action that can be perceived by the user's overall motion. The second model recognizes an action that can be perceived by the user's arm motion. Further, the third model is used to increase the final reliability of the overall action. It can be used as a criterion for obtaining a weight that can be applied to each model.

본 발명의 실시예를 따르는 제 1 모델, 제 2 모델, 제 3 모델은 종래의 데이터 마이닝을 통한 행위 인지 기법에 따라 생성될 수 있다. 각 모델의 특징값은 수집된 데이터로부터 Matlab의 피처 선택 기능을 통해 선정할 수 있으며, 시간 도메인 (Time Domain)에서 주로 사용되는 특징을 사용할 수 있다. The first model, the second model, and the third model according to an embodiment of the present invention may be generated according to a conventional behavior sensing technique through data mining. The feature values of each model can be selected from the collected data through the feature selection function of Matlab, and the features mainly used in the time domain can be used.

예를 들어 제 1 모델 및 제 2 모델은 42개의 특징을 사용하며, 제 3 모델은 총 49개의 특징을 사용할 수 있다. 보다 구체적으로 특징 값으로 평균(Mean), 최대값 (Max), 최소값 (Min), 표준 편차 (Standard deviation), 사분위수 (Quartile), 절대 평균 (Absolute mean), 절대 중간(Absolute median), 기하 평균(Geometric mean) 등 8개의 특징값이 사용될 수 있다. For example, the first model and the second model use 42 features, and the third model can use a total of 49 features. More specifically, the characteristic values include a mean, a maximum value, a minimum value, a standard deviation, a quartile, an absolute mean, an absolute median, Eight characteristic values such as a geometric mean can be used.

각 특징에 사용된 수식은 아래의 수학식을 참고할 수 있다. The formula used for each feature can be referenced to the following equation.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

? 도 1의 행위 인지 서버 (50)는 스마트폰 생성 데이터, 웨어러블 디바이스 생성 데이터, 스마트폰과 웨어러블 디바이스에서 생성된 데이터에 통합하여 적용하기 위한 각각의 모델을 생성할 수 있다. 나아가 각각의 모델에 해당 데이터를 적용하여 피쳐를 추출하고, 추출된 피쳐를 이용하여 추정된 사용자 행위 및/또는 추출된 피쳐 자체에 가중치를 부여할 수 있다. ? The behavior awareness server 50 of FIG. 1 can generate each model for integrating and applying smartphone creation data, wearable device creation data, and data generated in a smart phone and a wearable device. Further, it is possible to extract the feature by applying the corresponding data to each model, and to weight the estimated user action and / or the extracted feature itself using the extracted feature.

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 각 모델에 적용하기 위한 가중치 테이블을 각각 생성할 수 있다. 예를 들어 의사 결정 시스템에서 일반적으로 사용되며, 오인지 되는 행위를 보정할 수 있는 가중 투표 (Weighted Voting) 기반 알고리즘을 사용하여 가중치 테이블을 작성할 수 있다. More specifically, the behavior awareness server 50 according to the embodiment of the present invention may generate a weight table for applying to each model. For example, weights tables can be created using weighted voting-based algorithms that are commonly used in decision-making systems and can correct for misrecognized behaviors.

가중 투표 기법을 사용한 의사 결정 시스템은 가중치를 어떻게 적용하느냐에 따라 행위 인지 결과가 상이해질 수 있기 때문에 가중치에 대한 기준을 정하는 것이 중요하다.It is important to set a weighting criterion because the decision-making system using the weighted voting technique can be different depending on how the weights are applied.

예를 들어 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 첫째로 각 행위에 대해 2의 가중치를 부여할 수 있다. 둘째로 각 모델의 오프라인 테스트 (Offline test) 결과에 따라 정확도가 낮은 행위 (예를 들어 정확도 80% 이하)에 3의 가중치를 부여할 수 있다. 세 번째로 정확도가 높은 행위 (예를 들어 정확도 90% 이상)는 1의 weight를 부여할 수 있다. For example, the action awareness server 50 according to the embodiment of the present invention may first assign a weight of 2 for each action. Second, according to the offline test result of each model, it is possible to assign a weight of 3 to a less accurate action (for example, less than 80% accuracy). Third, highly accurate actions (for example, greater than 90% accuracy) can give a weight of one.

나아가, 네번째로 행위와 관련 없는 것으로 추정된 행위에는 0의 가중치를 부여할 수 있다. 예를 들어 먹기 행위의 경우, 스마트폰에서 생성된 데이터를 가지고 추정될 수 없다. 사람은 스마트폰을 손에 잡은 상태에서 먹기 행위를 할 수 없기 때문이다. 따라서 이 경우에는 가중치를 부여하지 않을 수 있다. Furthermore, for the fourth act which is not related to the act, it can be given a weight of zero. For example, in the case of an eating behavior, it can not be estimated with data generated on a smartphone. People can not eat while holding a smartphone in their hands. Therefore, weights may not be given in this case.

마지막으로 특정 행위가 특정 모델에서만 추출될 때 해당 가중치를 3으로 부여할 수 있으며, 이와 같은 일련의 과정을 통해 가중치 테이블을 작성할 수 있다. Finally, when a certain behavior is extracted only from a specific model, the corresponding weight can be given as 3, and a weight table can be created through such a series of processes.

상기 실시예에서 세번째 단계에서 높은 정확도에 낮은 가중치를 부여한 이유는 높은 정확도를 보이는 행위는 가중치와 무관하게 행위 인지의 신뢰도가 매우 높을 수 있기 때문이다. 나아가 두 번째 단계에서 낮은 정확도를 보이는 행위에 높은 가중치를 부여한 이유는 낮은 정확도를 가지는 행위에 높은 가중치를 부여함으로써, 다른 모델을 통해 도출된 행위 추정값에 비해 높은 경쟁력을 부여할 수 있기 때문이다. In the third embodiment of the present invention, a high accuracy and a low weight are given in the third step because a highly accurate operation can be highly reliable regardless of a weight. In addition, the reason for giving the high weight to the actions that show low accuracy in the second step is that high weighting is given to the actions with low accuracy, so that it is possible to give a high competitive power to the behavior estimates derived from other models.

나아가 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 작성된 가중치 테이블을 각 모델에서 추정한 행위 인지 결과에 적용할 수 있다. Furthermore, the action recognition server 50 according to the embodiment of the present invention can apply the created weight table to the action recognition result estimated by each model.

예를 들어, 제 1모델에서 걷기, 제 2 모델에서 뛰기, 제 3 모델에서 걷기 행위가 추정되고, 가중치 테이블을 통해 각 행위별 가중치가 각각 α, β, γ가 적용된 경우, α 걷기, β 뛰기, γ 걷기를 도출할 수 있다. 이후 행위 인지 서버는 가중치가 부여된 행위를 합산할 수 있다. 위의 예에서 행위 합산의 결과는 (α+γ) 걷기, β 뛰기가 될 것이다. For example, when walking in the first model, walking in the second model, and walking in the third model are estimated, and α, β, and γ are applied to the respective behaviors through the weight table, , γ walk can be derived. The action-aware server may then sum the weighted actions. In the above example, the result of the act summation will be (α + γ) walking, β run.

나아가 본 발명의 실시예를 따르는 행위 인지 서버 (50)는 행위 우선순위 비교 단계를 수행할 수 있다. 우선순위 비교 단계는 행위 계수가 같을 때 수행할 수 있으며, 계수가 상이한 경우에는 생략될 수 있다. Furthermore, the action recognition server 50 according to the embodiment of the present invention may perform the action priority comparison step. The priority comparison step can be performed when the act coefficients are the same, and can be omitted when the coefficients are different.

예를 들어 행위 인지 서버는 행위 계수가 같을 경우, 각 행위별 정확도를 기준으로 높은 정확도를 보이는 행위 계수를 1만큼 올릴 수 있다. 이와 같이 가중치가 조정된 행위 결과를 통합하여 최종 행위를 결정할 수 있다. For example, a behavior awareness server can increase the behavior coefficient of high accuracy by one based on the accuracy of each action when the behavior coefficient is the same. The final action can be determined by combining the results of the weighted actions.

도 2는 본 발명의 실시예를 따라 사용자의 행위를 인지하는 과정을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a process of recognizing a user's behavior according to an embodiment of the present invention.

본 발명의 실시예를 따르는 사용자 행위 인지 시스템은 스마트폰, 웨어러블 디바이스를 포함하며, 스마트폰, 웨어러블 디바이스를 통해 센싱 데이터를 처리하여 사용자 행위 데이터가 수집될 수 있다. (단계 210)A user behavior recognition system according to an embodiment of the present invention includes a smart phone and a wearable device, and user behavior data may be collected by processing sensed data through a smart phone or a wearable device. (Step 210)

사용자 행위 데이터가 수집되는 보다 구체적인 예시는 첨부된 도 3을 참고하여 후술된다. A more specific example in which user behavior data is collected will be described below with reference to FIG. 3 attached hereto.

도 3은 센서 데이터를 수집하고 모델링하기 위한 전처리 과정을 설명하기 위한 순서도이다. 3 is a flowchart illustrating a preprocessing process for collecting and modeling sensor data.

단계 310에서 본 발명의 실시예를 따르는 스마트폰 및/또는 웨어러블 디바이스는 포함된 센서를 이용하여 센싱 데이터를 생성하며, 센싱 데이터를 데이터 수집, 처리 서버로 전송할 수 있다. In step 310, a smartphone and / or wearable device according to an embodiment of the present invention may generate sensing data using the included sensor and transmit sensing data to a data collection and processing server.

이를 위해 스마트폰 또는 웨어러블 디바이스는 측정 대상으로부터 특정 정보에 대한 물리적인 양, 예를 들어, 위치, 움직임, 밝기 등을 측정하여 전기적인 신호로 변환하기 위한 센서를 구비할 수 있다. For this purpose, a smartphone or a wearable device may be provided with a sensor for measuring a physical amount of specific information, for example, position, motion, brightness, etc., from an object to be measured and converting it into an electric signal.

센싱 데이터 수집, 처리 서버는 스마트폰 및/또는 웨어러블 디바이스로부터 센싱 데이터를 수신하고, 버퍼 메모리에 저장할 수 있다. 나아가 버퍼로부터 센싱 데이터를 차례로 로딩하면서, 이를 전처리할 수 있다. (단계 320, 330)The sensing data collection and processing server may receive sensing data from a smartphone and / or a wearable device and store the sensed data in a buffer memory. Further, the sensing data can be pre-processed while sequentially loading the sensing data from the buffer. (Steps 320 and 330)

보다 구체적으로, 센싱 데이터 수집, 처리 서버는 스마트폰 및/또는 웨어러블 디바이스로부터 다양한 종류의 인터페이스 프로토콜을 통해 센싱 데이터를 수집할 수 있다. 예를 들어 인터페이스 프로토콜로는 FTP(File Transfer Protocol), HTTP(Hyper Text Transfer Protocol), TCP/IP(Transmission Control Protocol/Internet Protocol) 등을 고려할 수 있다. More specifically, the sensing data collection, processing server can collect sensing data from various types of interface protocols from smart phones and / or wearable devices. For example, FTP (File Transfer Protocol), HTTP (Hyper Text Transfer Protocol), and TCP / IP (Transmission Control Protocol / Internet Protocol) may be considered as the interface protocol.

수집된 센싱 데이터는 필요에 따라 버퍼에 저장될 수 있으며, 버퍼에서 차례로 로딩되어, 전처리 프로세싱이 수행되어 전처리된 센싱 데이터가 생성될 수 있다. 전처리된 센싱 데이터는 필요에 따라 저장부에 저장되거나 사용자 행위 인지 결과를 처리하기 위한 행위 인지 서버에 전달될 수 있다. 이때 센싱 데이터 수집, 처리 서버에 저장된 센싱 데이터와 행위 인지 서버에 저장된 센싱 데이터는 동기화할 수 있다. (단계 340)The collected sensing data may be stored in a buffer as needed and sequentially loaded in the buffer so that preprocessing processing may be performed to generate preprocessed sensing data. The preprocessed sensing data may be stored in a storage unit or transmitted to the server if the need arises to process user action results. At this time, the sensing data can be synchronized with the sensing data stored in the processing server and the sensing data stored in the activity recognition server. (Step 340)

다시 도 2에 대한 설명으로 복귀하면, 센싱 데이터 수집 처리 서버로부터 사용자 행위 데이터를 수신한 행위 인지 서버는, 사용자 행위 데이터를 머신 러닝 프레임위크에 적용하여 기계 학습 모델을 적어도 하나 이상 생성할 수 있다. (단계 220)Returning to the description of FIG. 2, the action or server receiving the user action data from the sensing data collection processing server may generate at least one machine learning model by applying the user action data to the machine learning frame week. (Step 220)

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버는 머신러닝 프레임 워크를 포함할 수 있다. 나아가 사용자 행위 데이터에 머신 러닝 프레임워크를 적용하여 사용자의 행위를 추정하기 위해 머신 러닝 모델을 생성하고, 수집된 데이터에 생성된 모델을 학습하여 사용자의 행위를 추정하는 기능을 수행할 수 있다. More specifically, an action awareness server according to an embodiment of the present invention may include a machine learning framework. Further, a machine learning model may be generated to estimate a user's behavior by applying a machine learning framework to user behavior data, and a function of estimating a user's behavior by learning a model generated in the collected data may be performed.

예를 들어, 행위 인지 서버는 스마트폰으로부터 생성된 사용자 행위 데이터를 학습하기 위한 제 1 모델, 웨어러블 디바이스로부터 생성된 데이터를 학습하기 위한 제 2 모델, 스마트폰으로부터 생성된 데이터 및 웨어러블 디바이스로부터 생성된 데이터를 통합하여 학습하기 위한 제 3 모델을 생성할 수 있다. 제 1 모델, 제 2 모델, 제 3 모델은 각각 적어도 하나 이상 생성될 수 있다.For example, the action awareness server may include a first model for learning user action data generated from a smartphone, a second model for learning data generated from the wearable device, data generated from the smartphone, A third model for learning and integrating data can be generated. At least one of the first model, the second model, and the third model may be generated.

이때 스마트폰으로부터 생성된 데이터에 적용되는 모델, 웨어러블 디바이스로부터 생성된 데이터에 적용되는 모델, 상기 데이터들에 통합하여 적용되는 모델을 각각 별개로 구성하는 이유는 사용자의 몸에 스마트폰 및 스마트 워치가 부착되는 위치가 다르기 때문에 각 센서는 행위에 따라 인지 가능한 행위와 인지 불가능한 행위가 존재하기 때문이다. At this time, the reason why the model applied to the data generated from the smartphone, the model applied to the data generated from the wearable device, and the model applied to the data are separately configured is that the smartphone and smart watch Because each sensor is attached to different locations, each sensor has perceptible and unrecognizable behavior.

예를 들어 “먹기”행위의 경우, 팔 부위에 센서가 위치하지 않는 이상 행위의 인지가 불가능하다. 따라서 본 발명의 실시예를 따르면 행위 인지 신뢰도를 높이기 위하여 스마트폰 및 스마트워치 각 기기별 모델 및 두 디바이스의 데이터를 모두 사용하는 통합 모델을 생성하여 사용자의 행위를 인지할 수 있다. For example, in the case of "eating", it is impossible to perceive the behavior unless the sensor is located on the arm. Therefore, according to the embodiment of the present invention, an integrated model using both the smartphone and the smart watch model and the data of the two devices can be generated to recognize the behavior of the user.

제 1 모델은 예를 들어, 스마트폰의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있으며, 제 2 모델은 웨어러블 디바이스의 가속도 센서 및 자이로 센서의 데이터를 이용하여 생성될 수 있다. 나아가 제 3 모델은 스마트폰 및 웨어러블 디바이스의 가속도 센서, 자이로 센서의 데이터를 사용하여 생성될 수 있다.For example, the first model may be generated using data of an acceleration sensor and a gyro sensor of a smartphone, and the second model may be generated using data of an acceleration sensor and a gyro sensor of a wearable device. Furthermore, the third model can be generated using data of acceleration sensors and gyro sensors of smart phones and wearable devices.

제 1 모델은 사용자의 전반적인 움직임으로 인지 가능한 행위를 인지하는데 사용될 수 있으며, 제 2 모델은 사용자의 팔 동작으로 인지 가능한 행위를 인지하는데 사용되며, 나아가 제 3 모델은 전체 행위 인지의 최종 신뢰도를 높이기 위해 사용되며 나아가 각 모델에 적용될 수 있는 가중치를 구하는 기준으로 사용될 수 있다.The first model can be used to recognize perceptible behavior with the user's overall motion, the second model can be used to perceive perceptible behaviors with the user's arm action, and further, And can be used as a criterion for obtaining a weight that can be applied to each model.

본 발명의 실시예를 따르는 제 1 모델, 제 2 모델, 제 3 모델은 종래의 데이터마이닝을 통한 행위 인지 기법에 따라 생성될 수 있다. 각 모델의 특징값은 수집된 데이터로부터 Matlab의 피처 선택 기능을 통해 선정할 수 있으며, 시간 도메인 (Time Domain)에서 주로 사용되는 특징을 사용할 수 있다. The first model, the second model, and the third model according to an embodiment of the present invention may be generated according to a conventional behavior sensing technique through data mining. The feature values of each model can be selected from the collected data through the feature selection function of Matlab, and the features mainly used in the time domain can be used.

예를 들어 제 1 모델 및 제 2 모델은 42개의 특징을 사용하며, 제 3 모델은 총 49개의 특징을 사용할 수 있다. 보다 구체적으로 특징 값으로 평균(Mean), 최대값 (Max), 최소값 (Min), 표준 편차 (Standard deviation), 사분위수 (Quartile), 절대 평균 (Absolute mean), 절대 중간(Absolute median), 기하 평균(Geometric mean) 등 8개의 특징값이 사용될 수 있다. For example, the first model and the second model use 42 features, and the third model can use a total of 49 features. More specifically, the characteristic values include a mean, a maximum value, a minimum value, a standard deviation, a quartile, an absolute mean, an absolute median, Eight characteristic values such as a geometric mean can be used.

나아가 행위 인지 서버는 복수의 모델별로 사용자 행위를 미리 설정된 신뢰도 이상으로 추정할 수 있다. (단계 230)Further, the behavior awareness server can estimate user behavior for each of a plurality of models at a level higher than a preset reliability level. (Step 230)

얘를 들어, 행위 인지 서버는, 스마트폰 생성 데이터, 웨어러블 디바이스 생성 데이터, 스마트폰과 웨어러블 디바이스에서 생성된 데이터에 통합하여 적용하기 위한 모델을 각각 생성하고, 각각의 모델에 해당 데이터를 적용하여 피쳐를 추출하고, 추출된 피쳐를 이용하여 사용자 행위를 추정할 수 있다. For example, the behavior awareness server generates a model for integrating and applying smartphone creation data, wearable device creation data, and data generated in a smartphone and a wearable device, and applying the data to each model, And the user behavior can be estimated using the extracted features.

이후 행위 인지 서버는 추정된 행위에 대해 가중치를 부여하고, 이를 통합할 수 있다. (단계 240)The action-aware server then weights and integrates the estimated actions. (Step 240)

보다 구체적으로, 본 발명의 실시예를 따르는 행위 인지 서버는 각 모델 별 가중치 테이블을 각각 생성할 수 있다. 예를 들어 의사 결정 시스템에서 일반적으로 사용되며, 오인지 되는 행위를 보정할 수 있는 가중 투표 (Weighted Voting) 기반 알고리즘을 사용하여 가중치 테이블을 작성할 수 있다. More specifically, the action recognizing server according to the embodiment of the present invention can generate a weight table for each model. For example, weights tables can be created using weighted voting-based algorithms that are commonly used in decision-making systems and can correct for misrecognized behaviors.

가중 투표 기법을 사용한 의사 결정 시스템은 가중치를 어떻게 적용하느냐에 따라 행위 인지 결과가 상이해질 수 있기 때문에 가중치에 대한 기준을 정하는 것이 중요할 수 있다. It can be important to set a weighting criterion because the decision-making system using the weighted voting technique can be different from the action recognition result depending on how the weight is applied.

예를 들어, 추정된 모든 행위에 대해 2의 가중치를 부여하고, 둘째로 각 모델의 오프라인 테스트 (Offline test) 결과에 따라 정확도가 낮은 행위 (예를 들어 정확도 80% 이하)에 3의 가중치를 부여할 수 있다. 세 번째로 정확도가 높은 행위 (예를 들어 정확도 90% 이상)는 1의 weight를 부여할 수 있다. For example, we assign a weight of 2 for all estimated actions, and second, we assign a weight of 3 to actions with low accuracy (for example, less than 80% accuracy) based on the results of an offline test of each model can do. Third, highly accurate actions (for example, greater than 90% accuracy) can give a weight of one.

나아가, 네번째로 행위와 관련 없는 디바이스를 통해 추정된 행위에는 0의 가중치를 부여할 수 있다. 예를 들어 먹기 행위의 경우, 스마트폰에서 생성된 데이터를 가지고 추정될 수 없다. 사람은 스마트폰을 손에 잡은 상태에서 먹기 행위를 할 수 없기 때문이다. 따라서 이 경우에는 가중치를 부여하지 않을 수 있다. Furthermore, it is possible to assign a weight of zero to an act estimated through a device not related to an action for the fourth time. For example, in the case of an eating behavior, it can not be estimated with data generated on a smartphone. People can not eat while holding a smartphone in their hands. Therefore, weights may not be given in this case.

마지막으로 특정 행위가 특정 모델에서만 추출될 때 해당 가중치를 3으로 부여할 수 있으며, 이와 같은 일련의 과정을 통해 가중치 테이블을 작성할 수 있다. Finally, when a certain behavior is extracted only from a specific model, the corresponding weight can be given as 3, and a weight table can be created through such a series of processes.

상기 실시예에서 세번째 단계에서 높은 정확도에 낮은 가중치를 부여한 이유는 높은 정확도를 보이는 행위는 가중치와 무관하게 행위 인지의 신뢰도가 매우 높을 수 있기 때문이다. 나아가 두 번째 단계에서 낮은 정확도를 보이는 행위에 높은 가중치를 부여한 이유는 낮은 정확도를 가지는 행위에 높은 가중치를 부여함으로써, 다른 모델을 통해 도출된 행위 추정값에 비해 높은 경쟁력을 부여할 수 있기 때문이다. In the third embodiment of the present invention, a high accuracy and a low weight are given in the third step because a highly accurate operation can be highly reliable regardless of a weight. In addition, the reason for giving the high weight to the actions that show low accuracy in the second step is that high weighting is given to the actions with low accuracy, so that it is possible to give a high competitive power to the behavior estimates derived from other models.

이렇게 작성된 가중치 테이블은 각 모델에서 추정한 행위 인지 결과에 적용될 것이다. 예를 들어, 제 1모델에서 걷기, 제 2 모델에서 뛰기, 제 3 모델에서 걷기 행위가 추정되고, 가중치 테이블을 통해 각 행위별 가중치가 각각 α, β, γ가 적용된 경우, α 걷기, β 뛰기, γ 걷기를 도출할 수 있다. The weight table thus created will be applied to the behavior recognition result estimated by each model. For example, when walking in the first model, walking in the second model, and walking in the third model are estimated, and α, β, and γ are applied to the respective behaviors through the weight table, , γ walk can be derived.

이후 행위 인지 서버는 가중치가 부여된 행위를 합산, 즉 가중치를 통합할 수 있다. 위의 예에서 행위 합산의 결과는 (α+γ) 걷기, β 뛰기가 될 것이다. The action-aware server may then aggregate the weighted actions, i.e., combine the weights. In the above example, the result of the act summation will be (α + γ) walking, β run.

나아가 행위 인지 서버는 행위 우선 순위를 비교하고, 우선 순위를 적용하여 최종 행위를 도출할 수 있다. (단계 250, 260)Furthermore, the action awareness server can compare the action priorities and apply the priorities to derive the final action. (Steps 250 and 260)

상기 우선 순위 비교는 행위 계수가 동일할 때 수행될 수 있으며, 계수가 상이한 경우에는 생략될 수 있다. 예를 들어 행위 계수가 같을 경우, 각 행위별 정확도를 기준으로 높은 정확도를 보이는 행위 계수를 1만큼 올릴 수 있다. 이와 같이 가중치가 조정된 행위 결과를 통합하여 최종 행위를 결정할 수 있다. The priority comparison may be performed when the act coefficients are the same, and may be omitted when the coefficients are different. For example, if the act coefficients are the same, the act coefficient can be increased by 1, which shows high accuracy based on the accuracy of each action. The final action can be determined by combining the results of the weighted actions.

본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. The embodiments of the present invention disclosed in the present specification and drawings are intended to be illustrative only and not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

Claims (8)

센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법에 있어서,
사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계;
서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하는 단계;
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 별로 피처를 추출하여 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 대해 사용자 행위를 추정하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
A method for recognizing a user's behavior using sensing data,
Generating sensing data in a user smartphone and a wearable device;
The method of claim 1, wherein at the server, the sensing data is collected and the collected data is applied to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, And a third model for integrating the wearable device creation data;
Extracting features for each of the first model, the second model, and the third model, and estimating a user behavior for each of the first model, the second model, and the third model, Behavior recognition method.
제 1 항에 있어서, 상기 사용자 행위를 추정하는 단계 이후에,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하는 단계; 및
상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
2. The method of claim 1, wherein, after estimating the user behavior,
Generating a weight table for applying to each of the first model, the second model, and the third model; And
And applying the weight table to user actions estimated through the first model, the second model, and the third model.
제 2항에 있어서, 상기 가중치 테이블을 생성하는 단계는,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하는 단계;
상기 추정된 행위 중, 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하는 단계; 및
행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
3. The method of claim 2, wherein generating the weight table comprises:
Applying the same first weight to each of the actions estimated through the first model, the second model, and the third model;
Applying a second weight higher than the first weight to an action of less than a predetermined accuracy among the estimated actions and applying a third weight lower than the first weight to an action of a predetermined accuracy or more; And
Setting a weight for a behavior estimated through a device irrelevant to a behavior to 0 and setting a weight of an action estimated only through a specific device to a higher value.
제 3항에 있어서, 상기 가중치 테이블을 적용하는 단계 이후에,
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
4. The method of claim 3, wherein after applying the weight table,
And comparing the priorities for actions having the same weight.
센싱 데이터를 이용하여 사용자의 행위를 인지하는 방법에 있어서,
사용자 스마트폰 및 웨어러블 디바이스에서 센싱 데이터를 생성하는 단계;
서버에서, 상기 센싱 데이터를 수집하고, 수집된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하는 단계;
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 단계; 및
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 단계를 포함하는 것을 특징으로 하는 사용자 행위 인지 방법.
A method for recognizing a user's behavior using sensing data,
Generating sensing data in a user smartphone and a wearable device;
The method of claim 1, wherein at the server, the sensing data is collected and the collected data is applied to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, Generating a third model that integrates the wearable device creation data, extracting features for each model, and estimating a user behavior for each of the models;
And generating a weight table to be applied to each of the first model, the second model, and the third model, and assigning the weight table to the user behavior estimated through the first model, the second model, Applying; And
And comparing the priorities for actions having the same weight.
사용자 행위를 인지하는 시스템에 있어서,
적어도 하나 이상의 센서를 포함하는 사용자 스마트폰;
적어도 하나 이상의 센서를 포함하며, 상기 사용자에 부착된 웨어러블 디바이스;
상기 스마트폰 및 웨어러블 디바이스에서 생성된 센싱 데이터를 수집하여 처리하는 데이터 처리 서버; 및
상기 데이터 처리 서버에서 처리된 데이터를 머신러닝 프레임워크에 적용하여, 상기 스마트폰 생성 데이터에 대한 제 1 모델, 상기 웨어러블 디바이스 생성 데이터에 대한 제 2 모델, 및 상기 스마트폰 생성 데이터와 상기 웨어러블 디바이스 생성 데이터를 통합하는 제 3 모델을 생성하고, 모델 별로 피처를 추출하여 상기 모델 각각에 대해 사용자 행위를 추정하며, 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델 각각에 적용하기 위한 가중치 테이블을 생성하고, 상기 가중치 테이블을 상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 사용자 행위에 적용하는 행위 인지 서버를 포함하는 것을 특징으로 하는 사용자 행위 인지 시스템.
In a system for perceiving user behavior,
A user smartphone comprising at least one sensor;
A wearable device comprising at least one sensor, the wearable device being attached to the user;
A data processing server for collecting and processing sensing data generated in the smartphone and the wearable device; And
Applying data processed by the data processing server to a machine learning framework to generate a first model for the smartphone generated data, a second model for the wearable device generated data, and a second model for the smartphone generated data and the wearable device creation A third model for integrating data, extracting a feature for each model, estimating a user behavior for each of the models, and applying a weight table for applying the model to each of the first model, the second model, and the third model And applying the weight table to the user behavior estimated through the first model, the second model, and the third model.
제 6항에 있어서, 상기 행위 인지 서버는,
상기 제 1 모델, 상기 제 2 모델 및 상기 제 3 모델을 통해 추정된 행위 각각에 동일한 제 1 가중치를 적용하고, 상기 추정된 행위 중, 미리 설정된 정확도 이하의 행위에 대해 상기 제 1 가중치보다 높은 제 2 가중치를 적용하고, 미리 설정된 정확도 이상의 행위에 대해 상기 제 1 가중치 보다 낮은 제 3 가중치를 적용하며, 행위와 무관한 디바이스를 통해 추정된 행위에 대해 가중치를 0으로 설정하고, 특정 디바이스를 통해서만 추정되는 행위의 가중치를 높여서 설정하는 것을 특징으로 하는 사용자 행위 인지 시스템.
7. The system according to claim 6,
The first model, the second model, and the third model, and for each of the behaviors equal to or less than a preset accuracy, A second weight lower than the first weight is applied to an action of a predetermined accuracy or more, a weight is set to 0 for an action estimated through a device irrelevant to the action, And setting the weight of the user action recognition system to be higher.
제 7항에 있어서, 상기 행위 인지 서버는,
상기 가중치가 동일한 행위에 대해서 우선 순위를 비교하는 것을 특징으로 하는 사용자 행위 인지 시스템.
8. The system of claim 7,
And compares priorities for actions having the same weight.
KR1020180003663A 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity KR102012804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Publications (2)

Publication Number Publication Date
KR20190085604A true KR20190085604A (en) 2019-07-19
KR102012804B1 KR102012804B1 (en) 2019-08-21

Family

ID=67512002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003663A KR102012804B1 (en) 2018-01-11 2018-01-11 Method, apparatus and computer program for recognition of a user activity

Country Status (1)

Country Link
KR (1) KR102012804B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674188A (en) * 2019-09-27 2020-01-10 支付宝(杭州)信息技术有限公司 Feature extraction method, device and equipment
KR20220045391A (en) * 2020-10-05 2022-04-12 경희대학교 산학협력단 Frame work for processing sensor data in network and method of operating the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120111592A (en) * 2011-04-01 2012-10-10 한국과학기술원 Personalization service providing method by using mobile terminal user's activity pattern and mobile terminal therefor
KR20150069388A (en) * 2013-12-13 2015-06-23 삼성전자주식회사 Server and Method for transmitting data, and Mobile device and Method for sensing thereof
KR101584458B1 (en) * 2014-12-05 2016-01-14 경희대학교 산학협력단 Apparatus and method for real-time recognition of activity and posture based on combined sensor data
KR20170141928A (en) * 2016-06-16 2017-12-27 삼성에스디에스 주식회사 Method and apparatus for providing IoT service based on data platform

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120111592A (en) * 2011-04-01 2012-10-10 한국과학기술원 Personalization service providing method by using mobile terminal user's activity pattern and mobile terminal therefor
KR20150069388A (en) * 2013-12-13 2015-06-23 삼성전자주식회사 Server and Method for transmitting data, and Mobile device and Method for sensing thereof
KR101584458B1 (en) * 2014-12-05 2016-01-14 경희대학교 산학협력단 Apparatus and method for real-time recognition of activity and posture based on combined sensor data
KR20170141928A (en) * 2016-06-16 2017-12-27 삼성에스디에스 주식회사 Method and apparatus for providing IoT service based on data platform

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674188A (en) * 2019-09-27 2020-01-10 支付宝(杭州)信息技术有限公司 Feature extraction method, device and equipment
KR20220045391A (en) * 2020-10-05 2022-04-12 경희대학교 산학협력단 Frame work for processing sensor data in network and method of operating the same

Also Published As

Publication number Publication date
KR102012804B1 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
US20220007955A1 (en) Method for measuring biological signal and wearable electronic device for the same
US11786136B2 (en) Information processing apparatus, and information processing method
KR102655878B1 (en) Electronic Device which calculates Blood pressure value using Pulse Wave Velocity algorithm and the Method for calculating Blood Pressure value thereof
US20180116607A1 (en) Wearable monitoring device
US20130198694A1 (en) Determinative processes for wearable devices
US10365120B2 (en) Device, method and system for counting the number of cycles of a periodic movement of a subject
KR20160015785A (en) Apparatus and method for improving accuracy of contactless thermometer module
WO2012171032A2 (en) Determinative processes for wearable devices
RU2601152C2 (en) Device, method and computer program to provide information to user
CN108135514B (en) Heart rate correction
US20170055881A1 (en) Method and system for determining a length of an object using an electronic device
EP2845539A1 (en) Device and method for automatically normalizing the physiological signals of a living being
WO2020243531A2 (en) Systems and methods for monitoring movements
US20130179116A1 (en) Spatial and temporal vector analysis in wearable devices using sensor data
JP2018005512A (en) Program, electronic device, information processing device and system
KR102012804B1 (en) Method, apparatus and computer program for recognition of a user activity
WO2024012330A1 (en) Electronic device for evaluating progression of parkinson's disease
KR20160068447A (en) Method for determining region of interest of image and device for determining region of interest of image
AU2012267460A1 (en) Spacial and temporal vector analysis in wearable devices using sensor data
CN111933277A (en) Method, device, equipment and storage medium for detecting 3D vertigo
EP3113134A1 (en) A user fatigue level analysis component
Zheng et al. Development of a human movement monitoring system based on wearable devices
EP3838141A1 (en) System and method to determine if a device is worn on a subject's dominant limb
Soltani Gait in real world: validated algorithms for gait periods and speed estimation using a single wearable sensor
Jiang et al. The possibility of normal gait analysis based on a smart phone for healthcare

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant