KR100982164B1 - Method and device for recognition of human activity based on activity theory - Google Patents

Method and device for recognition of human activity based on activity theory Download PDF

Info

Publication number
KR100982164B1
KR100982164B1 KR1020080129680A KR20080129680A KR100982164B1 KR 100982164 B1 KR100982164 B1 KR 100982164B1 KR 1020080129680 A KR1020080129680 A KR 1020080129680A KR 20080129680 A KR20080129680 A KR 20080129680A KR 100982164 B1 KR100982164 B1 KR 100982164B1
Authority
KR
South Korea
Prior art keywords
action
behavior
learning
data
time
Prior art date
Application number
KR1020080129680A
Other languages
Korean (ko)
Other versions
KR20100070929A (en
Inventor
최중민
양재영
이준환
강진범
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020080129680A priority Critical patent/KR100982164B1/en
Publication of KR20100070929A publication Critical patent/KR20100070929A/en
Application granted granted Critical
Publication of KR100982164B1 publication Critical patent/KR100982164B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

행동이론 기반의 행동인지 방법 및 장치가 개시된다. 본 발명의 일측면에 따른 사용자의 행동을 인지하는 행동이론 기반의 행동인지 장치는 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 동작 인지부; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 행동 판단부를 포함한다. 본 발명에 따르면, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하며, 사람의 행위의 가장 기초가 되는 행위인 동작을 제한하여 디바이스에서 처리 가능한 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공할 수 있다.Disclosed are a behavior theory based behavior recognition method and apparatus. Behavior theory-based behavior recognition apparatus for recognizing user's behavior according to an aspect of the present invention is a motion recognition unit for recognizing any one of the predefined operation (operation) using the measured external physical data as the user's motion ; And an action determination unit that determines an observation behavior of the user corresponding to one or more cognitive actions recognized by the action recognition unit by using learning data that is information about an action consisting of one or more actions. According to the present invention, an action recognition method and apparatus based on a behavior theory divided into an activity, an action, and an action, and based on an action theory that can be processed in a device by limiting an action that is the most basic action of a person's action Can provide.

행동, 행동이론, 동작, operation, action, 학습 Action, theory of action, action, action, learning

Description

행동이론 기반의 행동인지 방법 및 장치{Method and device for recognition of human activity based on activity theory}Method and device for recognition of human activity based on activity theory

본 발명은 사용자의 행동인지에 관한 것으로, 보다 상세하게는 행동이론 기반의 행동인지 방법 및 장치에 관한 것이다.The present invention relates to whether the user's behavior, and more particularly, to a method and apparatus for behavior theory based behavior recognition.

유비쿼터스(Ubiquitious)란, '언제 어디서나 존재한다'는 뜻을 가진 라틴어로서, 유비쿼터스 컴퓨팅 환경이란 사용자가 언제 어디서나 통신 속도 등의 제약 없이 인터넷으로 공간적으로 연결된 장치들을 사용할 수 있도록 하는 컴퓨팅 환경을 의미하는 개념이다. 이러한 유비쿼터스 컴퓨팅 환경은 기존 홈 네트워크나 모바일 컴퓨팅보다 한 단계 더 발전된 컴퓨팅 환경을 말한다. Ubiquitious is a Latin word meaning 'anywhere, anytime', and the ubiquitous computing environment means a computing environment that allows users to use spatially connected devices over the Internet without restriction of communication speed anytime, anywhere. to be. This ubiquitous computing environment is one step further than the existing home network or mobile computing.

유비쿼터스 컴퓨팅 환경의 일 예로서, 홈 네트워크를 예로 들면, 세탁기, 냉장고, TV, 테이블 등 집과 관련된 모든 물리 공간과 객체에 컴퓨팅 기능을 추가하여 해당 사물과 대상을 지능화시키고 인터넷에 연결시켜 서로 정보를 주고받을 수 있게 하는 것을 들 수 있다. As an example of a ubiquitous computing environment, a home network, for example, adds a computing function to all physical spaces and objects related to a house such as a washing machine, a refrigerator, a TV, a table, and intelligently connects objects and objects to each other to connect information to each other. One can give and receive.

유비쿼터스 컴퓨팅의 기반 기술에 속하는 상황 인식 시스템은, 사용자가 필요로 하는 서비스를 제공하기 위해서, 일상생활 곳곳에 편재된 센서 및 컴퓨터들이 수집한 각종 환경 정보를 효과적으로 상호 공유하여 사용자 및 주변 환경의 상황을 알아내는 상황 인식 처리 기술을 필요로 한다. Context-aware system, a basic technology of ubiquitous computing, effectively shares various environmental information collected by sensors and computers in various places of daily life in order to provide services that users need. It requires situational awareness processing techniques to find out.

특히 사용자의 현재 행동에 상응하는 서비스를 제공하기 위해서는 현재 사용자가 어떠한 행동을 하고 있는지를 판단할 필요가 있다. 즉, 사용자의 현재 행동을 인식해야만 그에 따른 서비스를 제공할 수 있기 때문이다. 하나의 예를 들면, 사용자가 저녁식사를 준비 중일 경우, 이를 인식하고 환기를 시킬 수 있도록 창문이 자동으로 열리게 할 수 있다.In particular, in order to provide a service corresponding to the current behavior of the user, it is necessary to determine what the current user is doing. In other words, it is because the user's current behavior must be recognized to provide the service accordingly. For example, when a user is preparing dinner, the window can be automatically opened to recognize and ventilate.

이러한 사용자의 행동을 인지하기 위한 기술들로서, 종래의 기술들은 크게 규칙기반 시스템 및 확률 모델 시스템으로 분류할 수 있다. 규칙기반 시스템의 경우 구현이 용이하지만 예외적인 행동에 적절하게 대처하지 못하며 확장성에 대한 문제를 안고 있다. 해석 가능한 경우나 인식을 원하는 행동에 대한 인식 규칙을 지식 베이스에 규칙을 명시해야 하기 때문이다. 확률 모델은 사용자의 행동 히스토리를 기반으로 통계 모델을 만들고 이를 기반으로 주어진 일련의 행동을 분류하는 방식으로 행동을 인지한다. 대부분의 시스템들이 은닉마코프모델이나 CRF(Conditional Random Field) 방식을 이용하여 모델을 만들었다. 그러나 이와 같은 모델은 순차적인 상황에 대해서는 잘 동작하나 예외적 행동에 대처하지 못하는 문제점을 가지고 있다. 즉, 사용자의 특정 목적을 가진 행동(예를 들어 식사 준비 등)이 항상 동일한 순서의 동작으로 이루어지지 않을 확률이 높으며, 이에 따른 예외적 행동을 상기한 종래 방식으로는 정확히 인지하지 못하는 문제가 있다. As techniques for recognizing the user's behavior, the conventional techniques can be largely classified into a rule-based system and a probability model system. Rule-based systems are easy to implement but do not adequately handle exceptional behavior and suffer from scalability. This is because the rules of knowledge should be specified in the knowledge base if they can be interpreted or for behaviors that require recognition. The probabilistic model recognizes behavior by creating a statistical model based on the user's history of behavior and classifying a given set of behaviors based on it. Most systems use hidden Markov models or Conditional Random Field (CRF) methods. However, such a model works well for sequential situations but does not cope with exceptional behavior. That is, there is a high probability that the user's specific purpose of action (for example, meal preparation, etc.) is not always performed in the same order of action, and thus the exceptional behavior is not accurately recognized in the conventional manner.

더욱이, 상기한 종래 방식은 미들웨어나 오프라인 시스템에서만 사용자의 행 동 인지가 가능하여, 휴대폰과 같은 휴대장치에 이식되어 실시간으로 이용되지 못한다.Moreover, the above-described conventional method can recognize a user's behavior only in a middleware or an offline system, and thus can not be used in real time because it is implanted in a portable device such as a mobile phone.

따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공하기 위한 것이다.Accordingly, the present invention has been made to solve the above-described problems, and to provide a method and apparatus for recognizing a behavior based on a behavioral theory divided into activities, behaviors, and behaviors.

또한, 본 발명은 휴대 디바이스에서 구현 가능하도록 처리 속도가 보다 빠른 행동인지 방법 및 그 장치를 제공하기 위한 것이다.It is also an object of the present invention to provide a method and apparatus for recognizing a faster processing speed to be implemented in a portable device.

또한, 본 발명은 행동 인지에 있어 동작 및 시간에 따른 패널티를 부가하여 보다 정확한 행동인지 방법 및 장치를 제공하기 위한 것이다.In addition, the present invention is to provide a more accurate behavior recognition method and apparatus by adding a penalty according to the action and time in the behavior recognition.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the preferred embodiments described below.

본 발명의 일측면에 따르면, 사용자의 행동을 인지하는 행동인지 장치에 있어서, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 동작 인지부; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 행동 판단부를 포함하는 행동이론 기반의 행동인지 장치가 제공된다.According to an aspect of the present invention, there is provided a device for recognizing a user's behavior, the apparatus comprising: a motion recognition unit for recognizing any one of a predefined operation as a user's motion by using measured external physical data; And an action determination unit that determines a user's observed behavior corresponding to one or more cognitive actions recognized by the action recognition unit by using learning data that is information about an action consisting of one or more actions. Behavioral awareness devices are provided.

여기서, 상기 동작은 머물기(stay), 잡기(hold), 이동하기(move), 만지기(touch) 및 놓기(release) 중 어느 하나로 인지될 수 있다.In this case, the operation may be recognized as any one of a stay, a hold, a move, a touch, and a release.

또한, 상기 행동 판단부는, 하나 이상의 학습예제 데이터를 이용하여 상기 학습 데이터를 생성하기 위한 행동 학습부; 상기 학습 데이터를 저장하기 위한 학습정보 저장부; 및 상기 학습 데이터를 이용하여 상기 인지 동작에 상응하는 사용자의 관측 행동을 인지하는 학습 인지부를 포함한다.The behavior determining unit may include a behavior learning unit for generating the learning data using at least one learning example data; A learning information storage unit for storing the learning data; And a learning cognition unit for recognizing the observing behavior of the user corresponding to the cognitive motion using the learning data.

그리고, 상기 행동 학습부는 상기 학습예제 데이터를 이용하여 각 행동에 따른 발생 확률

Figure 112008087206982-pat00001
, 상기 행동이 수행될 때 임의의 동작이 발생할 확률
Figure 112008087206982-pat00002
, 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 학습 데이터를 생성할 수 있다.And, the behavior learning unit using the learning example data using the probability of occurrence according to each action
Figure 112008087206982-pat00001
, The probability that any action will occur when the action is performed.
Figure 112008087206982-pat00002
Learning data can be generated, including the action time, the number of actions that make up the action, and the set (action-action set).

또한, 상기

Figure 112008087206982-pat00003
는 복수개의 상기 학습예제 데이터를 이용한 포아송 분포를 이용하여 산출될 수 있다.In addition,
Figure 112008087206982-pat00003
May be calculated using a Poisson distribution using a plurality of the learning example data.

또한, 상기 행동 인지부는 상기 학습 데이터의 각 행동에 따른 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 산출한 패널티를 각 행동에 적용하여 상기 관측 행동을 인지할 수 있으며, 상기 불일치 수는 상기 행동-동작 세트에서 상기 인지 동작의 동작 세트를 차감함으로써 계산될 수 있다.In addition, the behavior recognition unit may recognize the observed behavior by applying a penalty calculated by using the inconsistency between the behavior-action set corresponding to each behavior of the learning data and the behavior set of the cognitive behavior to each behavior. The number of discrepancies can be calculated by subtracting the action set of the cognitive action from the action-action set.

또한, 상기 행동 인지부는 하기의 수학식을 이용하여 상기 관측 행동을 인지하되, 하기 수학식의 패널티 함수

Figure 112008087206982-pat00004
는 상기 학습 데이터의 상기 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 계산될 수 있다.In addition, the behavior recognition unit recognizes the observed behavior by using the following equation, the penalty function of the following equation
Figure 112008087206982-pat00004
Can be calculated using the number of inconsistencies of the behavior-action set of the learning data and the behavior set of the cognitive action.

Figure 112008087206982-pat00005
Figure 112008087206982-pat00005

또한, 상기 불일치 수는 고정 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간과 동일한 시간 간격동안 인지된 동작들의 동작 세트를 이용할 수 있다. 또는 상기 불일치 수는 확장 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간보다 일정 범위 내에서 확장된 시간 간격동안 인지된 동작들의 동작 세트를 이용하여 산출될 수 있다. The discrepancy number may also use an action set of perceived actions during the same time interval as the action time of the learning data, according to a fixed action time scheme. Alternatively, the number of inconsistencies may be calculated using an action set of recognized actions for a time interval extended within a predetermined range than the action time of the learning data, according to an extended action time scheme.

또한, 상기 패널티

Figure 112008087206982-pat00006
는 하기의 수학식에 따라 상기 불일치 수에 따른 불일치 패널티와 함께 상기 확장된 시간만큼의 시간 패널티를 이용할 수 있다.In addition, the penalty
Figure 112008087206982-pat00006
Can use the time penalty of the extended time together with the discrepancy penalty according to the discrepancy number according to the following equation.

Figure 112008087206982-pat00007
Figure 112008087206982-pat00007

(여기서,

Figure 112008087206982-pat00008
는 확장 시간에 따른 시간 패널티,
Figure 112008087206982-pat00009
는 불일치 수에 따른 불일치 패널티)(here,
Figure 112008087206982-pat00008
Is the time penalty over expansion time,
Figure 112008087206982-pat00009
Is a penalty for discrepancies based on the number of discrepancies)

또한, 상기 행동 판단부는 상기 관측 행동에 따라 입력된 사용자의 피드백 데이터에 상응하도록 상기 학습 데이터가 갱신되도록 상기 행동 학습부를 제어하는 피드백 처리부를 더 포함할 수 있다.The behavior determiner may further include a feedback processor configured to control the behavior learner to update the learning data to correspond to the feedback data input by the user according to the observed behavior.

또한, 상기 동작 인지부는 상기 계측된 외부의 물리적 데이터를 시간의 흐름에 따른 Time series 분석을 통해 상기 정의된 동작 중 어느 하나로 인지할 수 있 다.In addition, the motion recognition unit may recognize the measured external physical data as any one of the defined motions through time series analysis according to the passage of time.

또한, 상기 행동이론 기반의 행동인지 장치는 RFID 태그 정보, GPS 위치 정보, 가속도 정보 중 어느 하나 이상의 상기 외부 물리적 데이터를 계측하기 위한 계측부를 더 포함할 수 있다.The behavioral theory-based behavioral recognition device may further include a measurement unit for measuring the external physical data of any one or more of RFID tag information, GPS location information, and acceleration information.

본 발명의 다른 측면에 따르면, 사용자의 행동을 인지하는 행동인지 방법에 있어서, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 단계; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 단계를 포함하는 행동이론 기반의 행동인지 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a method for recognizing a user's behavior, the method comprising: recognizing any one of a predefined operation as a user's motion by using measured external physical data; And determining the observed behavior of the user corresponding to one or more cognitive motions recognized by the motion cognition unit by using learning data that is information about an action consisting of one or more motions. There is provided a recording medium on which a recognition method and a program for executing the method are recorded.

여기서, 행동명, 동작에 대한 정보, 행동 수행 시각을 포함하는 복수개의 학습예제 데이터를 이용하여, 각 행동에 따른 발생 확률

Figure 112008087206982-pat00010
, 상기 행동이 수행될 때 임의의 동작이 발생할 확률(
Figure 112008087206982-pat00011
) , 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 상기 학습 데이터를 생성하는 단계가 선행될 수 있다.Here, the occurrence probability according to each action using a plurality of learning example data including the action name, the action information, and the action execution time
Figure 112008087206982-pat00010
, The probability that any action will occur when the action is performed (
Figure 112008087206982-pat00011
Generating the learning data, the action time, the number of actions that make up the action, and the set (action-action set).

또한, 상기 사용자의 관측 행동을 판단하는 단계는, 미리 저장된 각 행동에 따른 행동-동작 세트와 상기 동작 인지부에 인지된 동작 세트의 불일치 수를 비교 하여 패널티를 산출하는 단계; 및 상기 패널티를 적용하여 상기 인지 동작에 상응하는 관측 행동을 인지하는 단계를 포함할 수 있다.The determining of the observed behavior of the user may include: calculating a penalty by comparing a number of inconsistencies between an action-action set according to each pre-stored action and an action set recognized by the motion recognition unit; And applying the penalty to recognize the observation behavior corresponding to the cognition operation.

또한, 상기 관측 행동에 따른 정보를 표시하는 단계를 더 포함하되, 사용자로부터 피드백 데이터가 입력되면, 상기 피드백 데이터를 이용하여 상기 학습 데이터를 갱신할 수 있다.The method may further include displaying information according to the observed behavior. When feedback data is input from a user, the learning data may be updated using the feedback data.

본 발명에 따르면, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하며, 사람의 행위의 가장 기초가 되는 행위인 동작을 제한하여 디바이스에서 처리 가능한 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공할 수 있다.According to the present invention, an action recognition method and apparatus based on a behavior theory divided into an activity, an action, and an action, and based on an action theory that can be processed in a device by limiting an action that is the most basic action of a person's action Can provide.

또한, 본 발명에 따르면, 미리 학습 데이터를 설정하여 행동인지를 위한 산출 방식을 간편하게 할 수 있어 휴대 디바이스와 같은 처리 능력이 작은 장치에서도 적용할 수 있는 효과가 있다.In addition, according to the present invention, it is possible to simplify the calculation method for behavior recognition by setting the learning data in advance, so that the present invention can be applied to a device having a small processing capability such as a portable device.

또한, 본 발명에 따르면 동작 및 시간에 따른 패널티를 부가하여 보다 정확하고 신뢰성이 높은 행동인지 방법을 제공할 수 있다.In addition, according to the present invention it is possible to provide a more accurate and reliable behavior recognition method by adding a penalty according to the operation and time.

또한, 본 발명은 인지되는 행동을 사용자로부터 피드백 받아 학습 데이터를 갱신함으로써, 자체적인 행동의 학습이 가능한 행동인지 방법 및 장치를 제공할 수 있다.In addition, the present invention can provide a method and apparatus for recognizing a behavior capable of learning its own behavior by receiving feedback from a user from a recognized behavior and updating the learning data.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

이하, 첨부한 도면들을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in describing the present invention with reference to the accompanying drawings, the same or corresponding elements are denoted by the same reference numerals regardless of the reference numerals, and duplicates thereof. The description will be omitted.

도 1은 본 발명의 일실시예에 따른 행동인지 장치의 구성을 도시한 블록도이고, 도 2는 일반적인 행동이론의 구조를 도시한 도면이고, 도 3은 본 발명의 일실시예에 따른 행동을 구성하는 동작들을 정의한 개념도이다.1 is a block diagram showing the configuration of a behavior recognition apparatus according to an embodiment of the present invention, Figure 2 is a view showing the structure of a general behavior theory, Figure 3 is a behavior according to an embodiment of the present invention This is a conceptual diagram that defines the operations that make up.

본 발명에 따른 행동인지 장치를 설명하기에 앞서, 행동이론에 대해 간략하게 설명하기로 한다.Prior to describing the behavioral recognition apparatus according to the present invention, the behavioral theory will be briefly described.

일반적인 행동이론은 사람에 의해 행해진 한 행동이 왜 이루어졌는지를 설명하기 위해 사용된다. 이러한 행동이론에 대한 연구는 심리학자 및 인류학자들에 의해 주로 이루어졌으나, 전통적인 행동이론들은 대부분 모호하며 명확한 범위와 주장하는 이론이나 모델을 적용하기 위한 선행조건들에 대한 정의 없이 선언적인 형태로 알려져 있다. 따라서 전통적인 행동이론을 그대로 행동 인지를 위해 사용하는 것은 사실상 거의 불가능하다.The general theory of behavior is used to explain why an action is done by a person. Although research on behavioral theories is mainly done by psychologists and anthropologists, traditional behavioral theories are mostly ambiguous and known in declarative form without defining the scope and prerequisites for applying the asserting theory or model. . Therefore, it is virtually impossible to use traditional behavior theory as it is for behavior recognition.

본 실시예에서는 이러한 행동이론을 컴퓨터에서 계산 가능한 모델로 변형하 고 이를 토대로 데이터를 표현한다. 행동이론은 구 소련에서 1920대에 제안된 이론으로 다양한 인간 행동을 설명하기 위해 행동을 유발할 수 있는 다양한 관계를 포함하도록 설계되어 있다. In this embodiment, this behavior theory is transformed into a computer-computable model and data is expressed based on this. Behavior theory is a theory proposed in the 1920s in the former Soviet Union and is designed to include a variety of relationships that can induce behavior to explain various human behaviors.

도 2를 참조하면, 행동이론은 크게 활동(activity), 행동(action) 및 동작(operation)으로 이루어져 있다. 활동(activity)은 장시간을 통해서 이루어지는 인간의 해동을 모델링하며 행동(action)의 집합으로 이루어진다. 활동은 특정 행동이 유발되는 이유를 설명할 수 있다. 행동은 활동보다 상대적으로 단시간에 이루어지는 행위를 나타내기 위해 사용된다. 행동은 항상 목적 지향적이며 이 목적을 위해서 수행된다. 행동은 동작(operation)의 연속으로 표현된다. 동작(Operation)은 행동이론의 최하위의 행위이며 어떤 목적을 위해서 사람이 주어진 현재의 상태에서 무의식적으로 하는 행위를 말한다. Referring to Figure 2, the behavioral theory is largely composed of activity (activity), action (action) and operation (operation). Activity models the thawing of humans over long periods of time and consists of a set of actions. An activity can explain why a particular action is triggered. Actions are used to represent actions that occur relatively shortly than activities. Action is always purpose-oriented and performed for this purpose. An action is represented as a sequence of operations. Operation is the lowest act of the theory of action and is the act of unconsciousness in a present state given to a person for some purpose.

이러한 전통적인 행동이론은 실세계에 적용하기가 어려울 정도로 모호성을 내포하고 있다. 특히 동작의 정의가 어려우며 동작과 행동과의 관계에서도 상황에 따라 동작 하나가 어떠한 행동이 되기도 한다. This traditional theory of behavior is so vague that it is difficult to apply to the real world. In particular, it is difficult to define an action, and even in the relationship between an action and an action, an action may be any action depending on the situation.

이에 따라 본 발명에서는 사람의 기본 행위인 동작을 정의하고 행동이론에 기반하는 행동인지 방법을 제공하고자 한다. 본 발명의 일실시예에 따르면, 동작(operation)을 도 3과 같이 인간의 기본동작을 타원으로 표현된 다섯 가지 기본 동작(머물기(stay), 잡기(hold), 이동하기(move), 만지기(touch) 및 놓기(release))으로 제한하고 이를 그래프 모델로 표현한다. 도 3에서 사각형으로 표현된 노드는 하나의 동작이 끝났음을 의미하는 것으로, 물론 별도의 동작은 아니며 하나 이상의 동작들로 하나의 행동이 결정될 수 있음을 표현하기 위한 의미상의 노드이다. Accordingly, the present invention is to define a behavior that is a basic behavior of a person, and to provide a method of behavior recognition based on behavior theory. According to one embodiment of the present invention, the operation (operation) as shown in Figure 3 the basic operation of the human being represented by five ellipses (stay, hold, move, touch ( touch) and release) and express it as a graph model. A node represented by a rectangle in FIG. 3 means that one operation is finished. Of course, the node is a semantic node for expressing that one action may be determined by one or more operations.

즉 본 발명의 일실시예에 따르면, 행동이론의 기본구조는 그대로 사용하면서 동작(operation)을 다섯 가지로 정의함으로써, 기존의 행동이론을 계산가능하게 만든다. 물론, 동작을 반드시 상기한 바와 같이 다섯 가지의 동작으로 제한할 필요는 없으며 이는 일실시예에 불과하다. 예를 들어, 계측 장치로서 텍타일 센서(textile sensor)를 이용하는 경우, 감지된 촉각 정보(거침, 부드러움 등)를 이용한 촉감 느끼기(textile)란 동작이 추가될 수도 있다.That is, according to an embodiment of the present invention, by using the basic structure of the behavior theory as it is defined as five (operation), the existing behavior theory makes it possible to calculate. Of course, the operation is not necessarily limited to the five operations as described above, which is merely an embodiment. For example, when a textile sensor is used as the measurement device, an operation called a textile using sensed tactile information (roughness, softness, etc.) may be added.

그리고, 본 발명에서는 상기한 동작(Operation)에 따른 행동(Action)을 인지하는 것을 위주로 설명하기로 하되, 행동들에 따른 활동을 인지하는 방법도 동작에 따른 행동 인지 방법과 동일 또는 유사하게 수행될 수 있음은 이하의 설명을 통해 당업자에게는 더욱 자명하게 될 것이다.In the present invention, a description will be mainly focused on recognizing the action according to the above operation, but the method of recognizing the activity according to the actions may be performed in the same or similar manner as the action recognition method according to the action. It will be more apparent to those skilled in the art through the following description.

이하, 본 발명에 따른 사용자의 행동을 인지하는 행동인지 장치에 대해 설명하기로 한다.Hereinafter, a device for recognizing a user's behavior according to the present invention will be described.

도 1을 참조하면, 본 실시예에 따른 행동인지 장치는 계측부(10), 동작 인지부(30), 행동 판단부(50), 입력부(70) 및 표시부(90)를 포함한다.Referring to FIG. 1, the behavior recognition apparatus according to the present embodiment includes a measurement unit 10, a gesture recognition unit 30, a behavior determination unit 50, an input unit 70, and a display unit 90.

행동인지 장치의 구성부 및 그 기능을 개략적으로 설명하자면, 계측부(10)는 사용자의 행동을 판단하기 위한 외부의 물리적 정보를 취득하기 위한 것이며, 동작 인지부(30)는 취득된 물리적 정보를 근거로 동작을 인지하며, 행동 판단부(50)는 인지된 하나 이상의 동작을 이용하여 사용자의 행동을 인지하도록 기능한다. 입력 부(70)는 사용자로부터 임의의 정보를 입력받기 위한 것이며, 표시부(90)는 인지된 행동에 대한 정보를 사용자에게 알리기 위한 것으로 예를 들어 LCD와 같은 디스플레이 장치일 수 있다.To explain the components of the behavior recognition device and its function schematically, the measurement unit 10 is for acquiring external physical information for determining a user's behavior, and the gesture recognition unit 30 is based on the acquired physical information. Recognizing a motion, the behavior determination unit 50 functions to recognize the user's behavior using the recognized one or more operations. The input unit 70 is for receiving arbitrary information from the user, and the display unit 90 is for informing the user of information about the recognized behavior and may be, for example, a display device such as an LCD.

이하 각 구성부의 기능을 상세히 설명한다. The function of each component is described in detail below.

계측부(10)는 사용자의 동작을 판단하기 위한 기초 데이터로써, GPS 수신기에 의한 위치 정보, RFID(Radio Frequency IDentification) 수신기에 의한 임의의 물체에 부착된 RFID의 태그 정보 등의 외부 물리정보를 계측하기 위한 것이다. 상기한 바와 같이 계측부(10)는 GPS 수신기, RFID 수신기, 가속도계(accelerometer) 등의 계측장치를 포함할 수 있으며 이로 인해, 계측부(10)는 GPS 수신기에 의한 위치 정보(x,y), RFID에 의한 태그 정보(해당 물체의 ID, 상세 정보(예를 들어, 위치 등)), 가속도계에 의한 측정값 등의 외부 물리정보를 취득할 수 있다. 물론 계측부(10)에 의해 취득되는 외부 물리정보로는 상기한 위치 정보, 태그 정보, 가속도 정보 외에도 상술한 바와 같이 텍타일 센서(textile sensor)에 의한 촉감 정보 등의 다른 정보도 더 포함될 수 있음은 당연하다. 여기서, 본 실시예에서는 행동인지 장치가 계측부(10)를 포함하는 것으로 설명하였으나, 다른 실시예에 따르면 계측부(10)는 별도의 장치로 구현될 수도 있다. 즉, 행동인지 장치는 계측부(10)와 유선 또는 무선으로 연결되고, 계측부(10)로부터 계측된 외부 물리정보를 수신할 수도 있다.The measurement unit 10 is basic data for determining a user's operation, and measures external physical information such as position information by a GPS receiver and tag information of an RFID attached to an arbitrary object by a radio frequency identification (RFID) receiver. It is for. As described above, the measuring unit 10 may include a measuring device such as a GPS receiver, an RFID receiver, an accelerometer, and the like, and thus, the measuring unit 10 may be provided with the position information (x, y) and the RFID by the GPS receiver. External physical information such as tag information (ID of the corresponding object, detailed information (for example, position, etc.)) and a measured value by an accelerometer can be acquired. Of course, the external physical information acquired by the measurement unit 10 may further include other information such as tactile information by the textile sensor in addition to the position information, tag information, and acceleration information described above. Of course. Here, in the present embodiment, the behavior recognition device has been described as including the measurement unit 10, but according to another embodiment, the measurement unit 10 may be implemented as a separate device. That is, the behavior recognition device may be connected to the measurement unit 10 by wire or wirelessly, and receive external physical information measured by the measurement unit 10.

계측된 외부 물리정보들은 행동이론을 바탕으로 인코딩된다. 일실시예에 따르면 계측 데이터의 표현 규칙은 하기의 표 1을 따른다. 동작(OP)은 계측 장치의 종류에 따라 결정될 수 있다. 예를 들어, 다섯 가지 기본정보 중 "MOVE"와 "STAY"는 GPS 수신기 또는 가속도계에 의한 계측 데이터를 이용하여 인지되며, "HOLD"와 "TOUCH" 그리고 "RELEASE"는 RFID 태그와 같은 전자태그 정보를 바탕으로 인지하게 된다. Measured external physical information is encoded based on behavioral theory. According to one embodiment, the rule of representation of measurement data follows Table 1 below. The operation OP may be determined according to the type of the measuring device. For example, "MOVE" and "STAY" of five basic information are recognized using measurement data by a GPS receiver or accelerometer, and "HOLD", "TOUCH" and "RELEASE" are electronic tag information such as RFID tag. Based on the perception.

RFID 태그 정보 및 GPS 정보를 사용자가 인식할 수 있는 문자로 변환하는 기능은 동작 인지부(30)에 의해 수행될 수 있으며, 이에 대한 정보는 미리 정의된 변환 테이블 또는 데이터베이스(미도시)를 이용하여 수행될 수 있다. 이해의 편의를 위해 하나의 예를 들면, ‘칼’이란 물체에 부착된 RFID 태그의 태그 정보가 해당 물체인 ‘칼’을 의미하는 ‘ID=0001’을 포함하는 경우, ‘RFID 0001=칼’이란 정보가 변환 테이블로써 저장되어 동작 인지부(30)에 의해 해당 물체가 칼이라는 것이 인지될 수 있다.The function of converting the RFID tag information and the GPS information into characters that can be recognized by the user may be performed by the motion recognition unit 30, and the information may be performed using a predefined conversion table or database (not shown). Can be performed. For the sake of understanding, for example, when the tag information of the RFID tag attached to an object includes 'ID = 0001', which means the knife, the object, 'RFID 0001 = knife' The Iran information may be stored as a conversion table, and it may be recognized by the motion recognition unit 30 that the object is a knife.

OP(RFID, Location)OP (RFID, Location) OP = {"MOVE", "HOLD", "TOUCH", "STAY", "RELEASE"}OP = {"MOVE", "HOLD", "TOUCH", "STAY", "RELEASE"} RFID = RFID 데이터 변환 테이블 또는 데이터베이스RFID = RFID data conversion table or database Location = GPS 데이터 변환 테이블 또는 데이터베이스Location = GPS data conversion table or database

계측된 물리적 정보들은 동작 인지부(30)에 의해 Time series 분석을 통해 다섯 가지 정보 중 어느 하나로 표현된다. The measured physical information is represented by any one of five pieces of information through time series analysis by the motion recognition unit 30.

도 4는 본 발명의 일실시예에 따른 시간축에 따른 동작의 인지를 설명하기 위한 그래프이다.4 is a graph illustrating recognition of motion along a time axis according to an embodiment of the present invention.

계측된 정보들은 도 4와 같이 시간축에 따라 표현될 수 있다. 본 발명의 일실시예에 따르면, 동작 인지부(30)는 time series 분석 방법 중 slide windows 방식을 통해서 계측 데이터를 분석하여 동작을 인지한다. Slide windows 방식은 시작점으로부터 조건을 만족할 때 까지 windows를 연장하는 방식으로 도 4에서와 같이 time windows Δ

Figure 112008087206982-pat00012
를 미리 설정된 조건이 만족할 때 까지 확장한다. 예를 들어 "TOUCH"의 경우는 Δ
Figure 112008087206982-pat00013
를 “2”로 설정한 경우 Δ
Figure 112008087206982-pat00014
가 “3”인 경우에도 계측된 데이터는 표현 규칙에 따라 "TOUCH(ID, Location)"으로 변환된다. 여기서 TOUCH의 속성 값들로는 터치된 해당 물체의 태그 정보인 ID와 위치정보를 가질 수 있다.The measured information may be represented along the time axis as shown in FIG. 4. According to one embodiment of the invention, the motion recognition unit 30 recognizes the motion by analyzing the measurement data through the slide windows method of the time series analysis method. Slide windows method extends the windows from the starting point until the condition is satisfied. As shown in FIG.
Figure 112008087206982-pat00012
Extend until the preset condition is satisfied. For example, in the case of "TOUCH", Δ
Figure 112008087206982-pat00013
Is set to “2” Δ
Figure 112008087206982-pat00014
Even if "3", the measured data is converted to "TOUCH (ID, Location)" according to the expression rule. Here, the attribute values of the TOUCH may have ID and location information which is tag information of the touched object.

도 5는 본 발명의 일실시예에 따른 계측 데이터를 이용하여 인지된 동작을 나타낸 예시도이다. 도 5는 계측부(10)의 실제 계측 장치로부터 전송된 데이터를 바탕으로 동작 인지부(30)가 Time series 분석을 통해서 변형한 동작 데이터에 대한 일실시예를 보여준다. 5 is an exemplary view showing a recognized operation using the measurement data according to an embodiment of the present invention. FIG. 5 illustrates an embodiment of motion data modified by the motion recognition unit 30 through time series analysis based on data transmitted from the actual measurement device of the measurement unit 10.

상기한 바와 같이 동작 인지부(30)는 계측부(10)에 의해 계측된 데이터(이하 계측 데이터)를 기반으로, 특정 동작을 결정한다. 예를 들어, GPS 수신기에 의한 위치 정보가 (x,y)에서 (a,b)로 변경된 경우, 사용자가 '이동하기(move)' 동작을 수행했음을 인지할 수 있다.As described above, the motion recognition unit 30 determines a specific motion based on the data measured by the measurement unit 10 (hereinafter, measured data). For example, when the location information by the GPS receiver is changed from (x, y) to (a, b), it may be recognized that the user has performed a 'move' operation.

각 동작을 나타내는 동작 데이터는 해당 동작에 따른 속성 정보를 가진다. 도 5에 도시된 바와 같이 MOVE의 경우에는 ‘move(location1, location2)’와 같이 이동하기 이전의 위치와 움직인 이후의 위치에 대한 위치 정보를 속성 정보로 가질 수 있다. 상기한 속성 정보를 이하에서는 ‘동작 속성’이라 칭하기로 한다.Action data representing each action has attribute information corresponding to the action. As shown in FIG. 5, in the case of MOVE, location information on a location before moving and a location after moving may be included as attribute information, such as 'move (location1, location2)'. The above attribute information will be hereinafter referred to as "operation attribute".

마찬가지로, 일실시예에 따르면 TOUCH는 접촉된 물체(ID) 및 그 위치(location)에 대한 정보를 속성 정보로 가질 수 있으며, RELEASE는 물체 및 위치, STAY는 위치 및 유지시간, 마지막으로 HOLD는 물체, 위치 및 유지시간을 속성 정보로 가질 수 있다.Similarly, according to an embodiment, the TOUCH may have information on the contacted object ID and its location as attribute information, where RELEASE is an object and a location, STAY is a location and a holding time, and finally HOLD is an object. , Location and maintenance time may be included as attribute information.

행동 판단부(50)는 동작 인지부(30)에 의한 하나 이상의 동작 정보를 이용하여 사용자의 행동이 무엇인지 판단하도록 기능한다. The behavior determination unit 50 functions to determine what the user's behavior is by using one or more motion information by the motion recognition unit 30.

행동 판단부(50)는 도 1에 도시된 바와 같이 행동 학습부(52), 학습정보 저장부(54), 행동 인지부(56) 및 피드백 처리부(58)를 포함한다.The behavior determining unit 50 includes a behavior learning unit 52, a learning information storage unit 54, a behavior recognition unit 56, and a feedback processing unit 58 as shown in FIG. 1.

행동 학습부(52)는 각 행동이 어떠한 시간에 어떤 동작들로 어떻게 이루어지는지를 학습하기 위한 것으로, 행동 학습부(52)에 의해 학습된 학습 데이터는 학습정보 저장부(54)에 저장된다. 학습 데이터로는 각 행동에 따른 하나 이상의 동작들에 대한 집합(이하, 행동-동작 세트(set)), 총 유지 시간(이하, 행동 시간), 수행 시각정보(여기서의 시각은 시, 분, 초를 말하는 절대시각 정보임, 이하 수행 시각), 수행되는 동작의 개수 등이 포함될 수 있다. 그리고 임의의 시간에 해당 행동이 수행될 확률이 학습 데이터로서 함께 이용될 수 있다. 정리하자면, 각 행동에 대한 학습 데이터로는 특정 행동이 해당 시간대에 발생할 확률 "

Figure 112008087206982-pat00015
", 특정 행동이 수행될 때 해당 동작이 발생할 확률"
Figure 112008087206982-pat00016
", 행동 시간, 행동에 따른 동작 개수 및 행동을 이루는 동작 세트(즉, 행동-동작 세트)가 있을 수 있다(도 7 또는 도 9 참조). 학습 데이터에 대해서는 도 7 및 도 9를 참조하여 상세히 후술하기로 한다.The behavior learning unit 52 is for learning how each action is made by what actions at what time, and the learning data learned by the behavior learning unit 52 is stored in the learning information storage unit 54. The training data includes a set of one or more actions according to each action (hereinafter, action-action set), a total holding time (hereafter, action time), and performance time information (where time is hours, minutes, and seconds). Absolute time information, hereinafter referred to as execution time), and the number of operations to be performed. And the probability that the action is performed at any time can be used together as learning data. In summary, the training data for each behavior suggests that the probability that a particular behavior will occur during that time is "
Figure 112008087206982-pat00015
", The probability that the action will occur when that action is performed"
Figure 112008087206982-pat00016
", The action time, the number of actions according to the action, and the action set (i.e., action-action set) that constitutes the action (see FIG. 7 or FIG. 9). The learning data is described in detail with reference to FIGS. It will be described later.

행동 인지부(56)는 학습정보 저장부(54)에 저장된 학습 데이터를 이용하여 동작 인지부(30)에 의한 하나 이상의 인식 동작(operation)에 따른 사용자의 행동(이하 관측 행동)을 인식하도록 기능한다. 즉, 행동 인지부(56)는 동작 인지부(30)에 의해 인식된 하나 이상의 동작들이 어떤 행동을 의미하는 것인지를 미리 저장된 학습 데이터를 이용하여 판단한다. 행동 인지부(56)의 기능 및 수행 방법은 후술하기로 하며, 이하 어떠한 방법으로 행동이 학습되어 학습 데이터가 설정되는지를 설명하기로 한다.The behavior recognizer 56 may recognize a user's behavior (hereinafter, referred to as “observation behavior”) according to one or more recognition operations by the gesture recognizer 30 using the training data stored in the learning information storage 54. do. That is, the behavior recognition unit 56 determines what behaviors one or more operations recognized by the motion recognition unit 30 mean by using previously stored learning data. A function and a method of performing the behavior recognition unit 56 will be described later. Hereinafter, the method will be described in which behaviors are learned to set learning data.

우선, 최초 각 행동에 따른 학습 데이터는 하나 이상의 학습예제 데이터(도 7참조)에 의해 설정될 수 있다. 보다 정확한 학습 데이터의 설정을 위해 학습예제 데이터는 다수개가 이용되는 것이 바람직하다. 학습예제 데이터가 복수개인 경우, 행동 학습부(52)는 각 학습예제 데이터를 통계한 학습 데이터를 생성한다. 통계 방법은 후술하기로 한다.First, the training data according to each initial behavior may be set by one or more training example data (see FIG. 7). In order to more accurately set the training data, it is preferable that a plurality of training example data be used. When there are a plurality of learning example data, the behavior learning unit 52 generates learning data obtained by statisticizing each learning example data. The statistical method will be described later.

일실시예에 따르면, 학습예제 데이터는 사용자에 의해 입력부(70)를 통해 입력될 수 있다. 예를 들어, “저녁식사 준비”란 행동에 대한 학습 데이터로 {MOVE(A,주방), HOLD(칼,1분), TOUCH(냉장고,주방), STAY(주방,9분}에 따른 행동-동작 세트와 해당 행동이 시작되는 수행 시각(예를 들어 저녁 7시)이 입력될 수 있다. 여기서 행동의 전체 행동 시간은 최초의 동작 시작 시간관 마지막 동작 완료 시간의 차이로 인식될 수 있다. 이러한 학습예제 데이터가 하나의 행동에 대해 복수개가 입력되면, 복수개의 학습예제 데이터가 통계되어 학습 데이터가 설정된다. 학습예제 데이터는 학습정보 저장부(54)에 저장될 수 있으며, 또는 도시되지는 않았으나 별도로 구비된 학습예제 저장부에 저장될 수 있으며 행동 학습부(52)에 의해 참조되어 학습 데이터의 생성 및 갱신에 이용된다.According to an embodiment, the learning example data may be input by the user through the input unit 70. For example, “preparing for dinner” is learning data about behavior: {MOVE (A, kitchen), HOLD (knife, 1 minute), TOUCH (fridge, kitchen), STAY (kitchen, 9 minutes) The action set and the time at which the action begins (for example, 7 pm) can be entered, where the total action time of the action can be perceived as the difference between the first action start time and the last action completion time. When a plurality of example data is input for one action, a plurality of learning example data are statistically set to set learning data, which can be stored in the learning information storage unit 54 or separately, although not shown. It may be stored in the learning example storage provided and used by the behavior learning unit 52 to generate and update the learning data.

도 6은 본 발명의 일실시예에 따른 학습예제 데이터의 설정을 위한 사용자 인터페이스를 도시한 예시도이다. 도 6을 참조하면, 사용자는 행동의 명칭을 정하고, 샘플로 제공되는 다수의 동작들 중 하나 이상을 선택하여 하나의 행동에 따른 학습예제 데이터를 생성할 수 있다. 다시 말해, 임의의 동작에 따른 학습예제 데이터가 사용자에 의해 정의되어 생성되는 것이다. 도면에 도시된 바와 같이, 휴식(Take a rest)이란 행동에 대해 네 개의 동작이 사용자에 의해 설정되는 것을 알 수 있다.6 is an exemplary diagram illustrating a user interface for setting learning example data according to an embodiment of the present invention. Referring to FIG. 6, a user may determine a name of an action and select one or more of a plurality of actions provided as a sample to generate learning example data according to one action. In other words, learning example data according to an operation is defined and generated by the user. As shown in the figure, it can be seen that four actions are set by the user for the action of Take a rest.

이렇게 복수의 학습예제 데이터를 입력하여 하나의 학습 데이터를 설정하는 이유는, 다수의 사용자마다 그 행동을 취하는 패턴이 상이할 수 있기 때문이며, 또한 동일한 사용자일지라도 그 행동을 취하는 패턴이 항상 동일하다고 볼 수 없기 때문이다. 따라서 행동 학습부(52)는 다수의 학습예제 데이터를 이용하여 학습 데이터를 설정하는 것이 바람직하다.The reason for setting one learning data by inputting a plurality of learning example data is that the pattern of taking the action may be different for a plurality of users, and even the same user may always be the same pattern of taking the action. Because it is not. Therefore, it is preferable that the behavior learning unit 52 sets learning data using a plurality of learning example data.

물론, 이후 사용자의 행위에 따라 관측되어 인지된 행동에 따른 실제 동작들에 대한 정보를 갖는 데이터(이하 “인지 행동 데이터“라 칭함)를 이용하여 기존의 학습 데이터가 변경될 수도 있다. 다시 말해, 인지된 행동에 따른 인지 행동 데이터는 피드백(feedback)되어 학습을 위한 학습예제 데이터로써 이용될 수 있음을 의미한다. Of course, the existing learning data may be changed by using data (hereinafter referred to as “cognitive behavioral data”) that has information about actual behaviors observed and recognized according to the behavior of the user. In other words, the cognitive behavioral data according to the recognized behavior may be fed back and used as learning example data for learning.

도 1에 도시된 피드백 처리부(58)에 의해 인지된 행동에 따른 인지 행동 데이터가 행동 학습부(52)에 의해 학습 데이터에 반영될 수 있다. 물론 실제 인지된 행동에 따른 인지 행동 데이터는 최초에 사용자에 의해 입력된 학습예제 데이터보다 가중치가 높을 수 있다. 피드백 처리부(58)의 상세한 기능은 후술하기로 한다. 따라서 학습이 많이 진행될수록 보다 정확히 사용자의 행동을 인지할 수 있게 된다. Cognitive behavioral data according to the behavior recognized by the feedback processor 58 illustrated in FIG. 1 may be reflected by the behavioral learning unit 52 in the learning data. Of course, the cognitive behavioral data according to the actual perceived behavior may have a higher weight than the learning example data initially input by the user. The detailed function of the feedback processing unit 58 will be described later. Therefore, as the learning progresses more, the user's behavior can be recognized more accurately.

도 7은 본 발명의 일실시예에 따른 학습예제 데이터를 이용한 학습 데이터의 생성 개념을 도시한 테이블이다.FIG. 7 is a table illustrating a concept of generation of learning data using learning example data according to an embodiment of the present invention.

도 7을 참조하면, 학습예제 데이터로서 2개의 “저녁식사”와 1개의 “샤워”가 행동 학습부(52)에 입력되는 것을 예로 들었다. 먼저, 행동 “샤워”를 관찰하면, 시간 t분동안 동작 A,E,F,G,E가 수행되었다. 여기서, 행동-동작 세트를 설정하는 방법에는 크게 두가지 방법이 있을 수 있다. 첫 번째 방법은 동작의 순서 및 횟수가 모두 행동-동작 세트에 반영될 수 있으며, 두 번째 방법은 집합개념으로 횟수 및 순서가 반영되지 않도록 행동-동작 세트가 설정될 수도 있다. “샤워”의 행동-동작 세트는 첫 번째 방법에 따르면 {A,E,F,G,E}이고, 두 번째 방법에 따르면 {A,E,F,G}이다. 순서 및 횟수를 고려하지 않고 두 번째 방법을 이용하는 이유는 순서정보 및 발생횟수를 지정하면 시스템이 올바른 인지를 수행할 수 없게 될 우려가 있기 때문이다. 예를 들어, 사용자가 매번 샤워할 때 동일한 순서 및 횟수로 비누를 만지는 것이 아니므로, 집합개념으로 학습 데이터를 설정할 수 있다. 대신, 도면에 도시된 바와 같이 학습 데이터에는 각 행동을 이루는 동작의 개수가 포함된다. 상기한 두 번째 방식으로 행동-동작 세트를 이용할 경우 후술할 패널티 함수의 계산이 용이해진다.Referring to FIG. 7, two “dinners” and one “shower” are input to the behavior learning unit 52 as learning example data. First, by observing the action “shower,” actions A, E, F, G, and E were performed for time t minutes. Here, there may be two main methods for setting the action-action set. In the first method, both the order and the number of actions may be reflected in the action-action set. In the second method, the action-action set may be set such that the number and the order are not reflected in the set concept. The behavior-action set of “shower” is {A, E, F, G, E} according to the first method and {A, E, F, G} according to the second method. The reason for using the second method without considering the order and the number of times is that if the order information and the number of occurrences are specified, the system may not be able to perform the correct recognition. For example, since the user does not touch the soap in the same order and the number of times every shower, the learning data can be set in a set concept. Instead, as shown in the figure, the training data includes the number of actions that constitute each action. Using the behavior-action set in the second manner described above facilitates the calculation of the penalty function to be described later.

물론, 보다 정확한 행동 인지를 위해 행동-동작 세트는 동작의 순서 및 횟수를 고려하여 설정할 수 있음은 당업자에게는 자명할 것이다. 다만, 이하에서는 설명의 편의를 위해 행동-동작 세트는 순서 및 횟수를 고려하지 않는 경우를 가정하여 설명하기로 한다.Of course, it will be apparent to those skilled in the art that the action-action set may be set in consideration of the order and number of actions for more accurate action recognition. However, hereinafter, it will be described on the assumption that the action-action set does not consider the order and the number of times for convenience of description.

행동 “저녁식사”를 살펴보면, 두 개의 학습예제 데이터가 행동 학습부(52)에 입력됨을 알 수 있다. 이 경우 도면에 도시된 바와 같이 두개의 학습예제 데이터에 따른 행동 시간의 평균((t+t')/2)이 학습 데이터의 행동 시간으로 설정될 수 있다. 마찬가지로 동작 개수도 산술평균될 수 있다.Looking at the behavior “dinner”, it can be seen that two learning example data is input to the behavior learning unit 52. In this case, as shown in the figure, the average ((t + t ') / 2) of the action time according to the two learning example data may be set as the action time of the learning data. Likewise, the number of operations can be arithmetic averaged.

도 7의 학습 데이터에 대한 테이블을 참조하면, 행동 학습부(52)는 상기한 바와 같이 특정 행동이 해당 시간대(여기서의 시간 정보는 시각 정보임)에 발생할 확률 "

Figure 112008087206982-pat00017
"특정 행동에 대해 해당 동작이 발생할 확률 "
Figure 112008087206982-pat00018
", 행동 시간, 행동에 따른 동작 개수 및 행동을 이루는 동작 세트(즉, 행동-동작 세트)에 대해 그 통계값을 산출하여 학습 데이터로써 저장한다.
Figure 112008087206982-pat00019
에 대해서는 도면에 도시되지 않았으나, 행동-동작 세트의 각 동작마다
Figure 112008087206982-pat00020
가 산출되어 함께 학습 데이터로써 저장될 수 있다(관련 도면 도 9참조). 예를 들어, 행동 “샤워”의 동작 E의
Figure 112008087206982-pat00021
는 2/5(0.4)일 수 있다.Referring to the table of the training data of FIG. 7, the behavior learning unit 52 may determine the probability that a specific behavior occurs in a corresponding time zone (where time information is visual information) as described above.
Figure 112008087206982-pat00017
"The probability that the action will occur for a particular action"
Figure 112008087206982-pat00018
", The statistical value is calculated for the action time, the number of actions according to the action, and the action set (that is, the action-action set) which constitutes the action, and stored as learning data.
Figure 112008087206982-pat00019
Although not shown in the figure, for each action in the action-action set
Figure 112008087206982-pat00020
Can be calculated and stored together as learning data (see FIG. 9). For example, the action E of the action “shower”
Figure 112008087206982-pat00021
May be 2/5 (0.4).

본 실시예에서는

Figure 112008087206982-pat00022
의 학습을 위해서 하기의 수학식 1과 같은 포아송 분포를 이용할 수 있다. 포아송 분포를 이용하는 이유는 행동과 시간과의 관계를 유지하기 위해서이다. 즉, 특정 시간대에 이루어지는 특정한 행동을 모델에 반영하고 이를 이용하여 인지의 성능을 높이기 위해서 사용한다. In this embodiment
Figure 112008087206982-pat00022
For learning the Poisson distribution as shown in Equation 1 can be used. The reason for using the Poisson distribution is to maintain a relationship between behavior and time. In other words, the model reflects specific behaviors in specific time zones and uses them to enhance cognitive performance.

Figure 112008087206982-pat00023
Figure 112008087206982-pat00023

Figure 112008087206982-pat00024
Figure 112008087206982-pat00024

여기서

Figure 112008087206982-pat00025
행동이 발생한 시간을 의미하며
Figure 112008087206982-pat00026
은 전체 샘플의 개수(즉, 학습예제 데이터의 개수)를 의미한다. here
Figure 112008087206982-pat00025
Means when the action occurred
Figure 112008087206982-pat00026
Means the total number of samples (ie, the number of learning example data).

그리고

Figure 112008087206982-pat00027
의 학습을 위해서 수학식 2와 같은 maximum likelihood estimation을 이용한다.And
Figure 112008087206982-pat00027
For learning, we use the maximum likelihood estimation as in Equation 2.

Figure 112008087206982-pat00028
Figure 112008087206982-pat00028

수학식 2에서

Figure 112008087206982-pat00029
는 가상값이며 일반적으로 샘플의 크기만큼 설정되며
Figure 112008087206982-pat00030
는 작은 값으로 설정된다. In equation (2)
Figure 112008087206982-pat00029
Is an imaginary value, typically set to the size of the sample
Figure 112008087206982-pat00030
Is set to a small value.

행동 시간은 특정 행동

Figure 112008087206982-pat00031
를 이루고 있는 동작 중 첫 번째 동작
Figure 112008087206982-pat00032
과 마지막 동작
Figure 112008087206982-pat00033
의 차이를 통해 개별 행동의 유지시간을 산출할 수 있으며 학습 예제에서 같은 개별행동의 산술평균을 통해서 평균 행동 시간을 얻을 수 있다. Action time is a specific action
Figure 112008087206982-pat00031
The first one that makes up
Figure 112008087206982-pat00032
And last action
Figure 112008087206982-pat00033
The difference in time can be calculated from the retention time of individual behaviors, and in the learning example, the average behavior time can be obtained from the arithmetic mean of the same individual behaviors.

또한, 행동

Figure 112008087206982-pat00034
를 이루고 있는 평균 동작(operation)의 수는 하나의 행동이 몇 개의 동작으로 이루어져 있는지 셀 수 있고, 평균 행동 시간과 같이 학습예제 전체를 통해서 산술평균값으로 얻을 수 있다(도 7 참조).Also, act
Figure 112008087206982-pat00034
The average number of operations making up the number of operations can be counted as a number of operations, and can be obtained as an arithmetic mean value through the whole learning example as the average time of action (see FIG. 7).

또한, 마찬가지로 행동

Figure 112008087206982-pat00035
를 이루는 동작의 세트 즉 행동-동작 세트는 학습예제 전체를 통해서 산출할 수 있는데, 그 산출 방법은 다양하게 이용될 수 있다. 하나의 예를 들자면, 학습예제 전체 중 80% 이상 포함되는 동작들의 집합이 행동-동작 세트로 설정될 수 있다. 물론, 이에 한정되는 것은 아니며 다른 예를 하나 더 들면, 각 동작의
Figure 112008087206982-pat00036
이 일정 수치 이상인 동작들로만 구성되도록 행동-동작 세트가 설정될 수도 있다.Also, act as
Figure 112008087206982-pat00035
The set of actions constituting the action, that is, the action-action set may be calculated through the entire learning example, and the calculation method may be used in various ways. As an example, a set of actions included in more than 80% of all learning examples may be set as an action-action set. Of course, the present invention is not limited thereto. For another example,
Figure 112008087206982-pat00036
An action-action set may be set to consist only of actions that are above this certain number.

정리하면, 행동 학습부(52)는 다수의 학습예제 데이터를 이용하여 각 행동들에 대해 통계하며, 이에 따른 데이터를 학습 데이터로써 학습정보 저장부(54)에 저 장한다. In summary, the behavior learning unit 52 statistics about each action using a plurality of learning example data, and stores the data according to the learning information storage unit 54 as learning data.

이하, 실제 학습 데이터가 저장되는 형식에 대해 설명하기로 한다.Hereinafter, the format in which the actual learning data is stored will be described.

도 8은 본 발명의 일실시예에 따른 학습 데이터의 형식을 도시한 도면이다. 도 8을 참조하면, 행동 인덱스(810)는 하나의 행동에서 발생되었던 모든 동작들과 행동이 가지는 시간정보(행동 시간), 시각정보(행동이 수행된 시각 정보)를 가지고 있다. 참조번호 810은 "Prepare dinner"라는 행동에 대한 정의이며 "#"은 행동의 시작을 의미한다. "TIMEZONE"은 이 행동이 주로 발생한 시간의 평균 시간대(시각정보임)를 의미한다. "AD"는 행동의 평균 행동 시간이며 "AO"는 평균적으로 발생한 동작의 수를 의미한다. "PRIOR"는 행동이 얼마나 빈번하게 발생하는지를 나타내는 학습된 파라미터이다. "PRIOR P 18.77"은 학습된 파라미터가 포아송 분포에 따른 파라미터로 그 값이 "18.77"임을 나타낸다. 즉, PRIOR의 값을 이용하여 해당 시간대의

Figure 112008087206982-pat00037
가 산출될 수 있다.8 is a diagram illustrating a format of learning data according to an embodiment of the present invention. Referring to FIG. 8, the behavior index 810 has all the actions that occurred in one action and time information (action time) of the action, and time information (time information on which the action was performed). Reference numeral 810 defines the action "Prepare dinner" and "#" indicates the start of the action. "TIMEZONE" means the average time zone (visual information) of the time when this action occurred mainly. "AD" is the average action time of the action and "AO" means the number of actions that occurred on average. "PRIOR" is a learned parameter that indicates how frequently an action occurs. "PRIOR P 18.77" indicates that the learned parameter is a parameter according to the Poisson distribution whose value is "18.77". In other words, by using the value of PRIOR,
Figure 112008087206982-pat00037
Can be calculated.

동작 인덱스(830)는 동작들에 대한 색인 파일로 "#"은 동작의 시작을 의미하며 각각의 동작이 포함된 행동에서 발생할 확률값

Figure 112008087206982-pat00038
을 가진다. 예를 들어 "plates cupboard"를 주방에서 들고 있는 동작 "HOLD(Plates Cupboard, K)“는 "Prepare Breakfast"와 "Leave House"라는 행동에서 발생했으며 각각의 발생 확률은 대략 0.56, 0.35임을 나타내고 있다. 본 실시예에서 이와 같은 내용을 저장하는 이유는 본 실시예에 따른 행동인지 장치가 모바일 디바이스로 구현되는 경우, 보다 빠르게 데이터 처리를 수행하기 위해서이다. 실제 행동인지 장치의 학습정보 저장부(54)에는 학습 데이터가 도면에 도시된 행동 인덱스(810) 및 동작 인덱스(830)의 "#"뒤에 나타나는 행동 이름과 동작 이름을 키로 사용하는 해쉬 테이블 등으로 구현될 수 있다.The action index 830 is an index file for actions, where "#" indicates the start of an action and a probability value that will occur in an action including each action.
Figure 112008087206982-pat00038
Has For example, the action "HOLD (Plates Cupboard, K)" holding the "plates cupboard" in the kitchen occurred in the actions of "Prepare Breakfast" and "Leave House", indicating that the probability of each occurrence was approximately 0.56 and 0.35. In the present embodiment, the reason for storing such contents is to perform data processing more quickly when the behavior recognition apparatus according to the present embodiment is implemented as a mobile device. The learning data may be implemented as a hash table using the action name and the action name appearing after the "#" of the action index 810 and the action index 830 shown in the figure as keys.

이하에서는 행동 인지부(56)가 학습정보 저장부(54)에 저장된 학습 데이터를 이용하여, 동작 인지부(30)가 인지한 동작 데이터에 상응하는 사용자의 관측 행동을 인지하는 방법에 대해 설명하기로 한다.Hereinafter, a method of recognizing a user's observed behavior corresponding to the motion data recognized by the motion recognition unit 30 using the learning data stored in the learning information storage unit 54 will be described. Shall be.

본 발명의 일실시예에 따르면, 행동 인지부(56)는 0-other 마코프 모델을 사용한다. 일반적으로 고차원 마코프 모델이 성능이 좋은 것으로 알려져 있으나 고차원 마코프 모델을 사용하는 경우 고려해야하는 상황이 기하급수적으로 증가하여 모바일 디바이스와 같은 장비에서는 계산이 불가능할 수 있다. 하지만 0-order 마코프 모델을 사용하는 경우 앞에서 언급한 것과 같이 학습은 가능할 수 있으나 학습 결과를 토대로 사용자의 행동을 인지하는 단계에서 성능의 저하가 발생할 수 있다.According to one embodiment of the invention, the behavior recognition unit 56 uses a 0-other Markov model. In general, high-dimensional Markov models are known to perform well, but the use of high-dimensional Markov models increases exponentially, making it impossible to calculate on equipment such as mobile devices. However, when using the 0-order Markov model, learning may be possible as mentioned above, but performance may be degraded when the user's behavior is recognized based on the learning result.

본 실시예에서는 이러한 문제를 해결하기 위해 패널티(penalty) 함수를 도입하여 행동을 인지하는데 이용한다. In this embodiment, to solve this problem, a penalty function is introduced and used to recognize the behavior.

행동 인지부(56)는 하기의 수학식 3을 이용하여 인지된 동작들에 따른 관측 행동을 인식한다. 사용자의 상황 (o,t)가 주어졌을 때 가장 발생 가능한 행동 는 사용자가 시간 t-1까지한 동작으로 인식된다.The behavior recognizer 56 recognizes the observed behavior according to the recognized motions using Equation 3 below. Given the user's situation (o, t), the most likely behavior is to be perceived by the user up to time t-1.

Figure 112008087206982-pat00039
Figure 112008087206982-pat00039

여기서 행동인지를 위해, 특정 행동에 대해 발생할 확률 "

Figure 112008087206982-pat00040
"및 특정 행동 수행 시 해당 동작이 발생할 확률"
Figure 112008087206982-pat00041
"는 학습 데이터로서 미리 저장되어 있으므로,
Figure 112008087206982-pat00042
만을 산출하면 된다.Whether it's a behavior here, the probability that
Figure 112008087206982-pat00040
"And the probability that the action will occur when you perform that action"
Figure 112008087206982-pat00041
"Is pre-stored as training data,
Figure 112008087206982-pat00042
Calculate only.

상기한 수학식 3에서

Figure 112008087206982-pat00043
는 패널티 함수이다. 수학식 3을 해석하자면, 특정 행동의 발생 확률
Figure 112008087206982-pat00044
와 해당 행동에서의 특정 동작의 발생 확률을 이용한 수치
Figure 112008087206982-pat00045
를 패널티 함수
Figure 112008087206982-pat00046
로 나누어 각 행동에 대한 패널티가 부여된 수치를 이용하여 인지된 동작들에 따른 행동을 판단하는 것이다.In Equation 3 above
Figure 112008087206982-pat00043
Is a penalty function. To interpret Equation 3, the probability of occurrence of a specific behavior
Figure 112008087206982-pat00044
And numerical value using probability of occurrence of a specific action in the action
Figure 112008087206982-pat00045
Penalty function
Figure 112008087206982-pat00046
By dividing by, it is used to determine the behavior according to the perceived movements using the numerical value assigned to each action.

본 실시예에서는 상기한 패널티 함수에 대해 두 가지 해석 방법을 사용할 수 있다. 첫 번째 해석방법은 학습단계에서 산출된 행동의 평균 진행 시간(즉 행동 시간)을 고정시키고, 해당 행동 시간 안에 발생한 인식 동작 세트와 학습 시에 학습한 행동-동작 세트와의 불일치 정도를 산출하고 이를 패널티로 부과하는 것이다. 두 번째 해석방법은 불일치 정도를 최소화하기 위해 평균 행동 시간을 확장하는 방법이다. 이 때 하나의 예로써 확장될 수 있는 시간의 최대값은 평균시간의 편차(즉, 학습예제 데이터를 이용하여 통계한 행동 시간의 편차)를 이용할 수 있다. In this embodiment, two interpretation methods can be used for the penalty function. The first interpretation method fixes the average progress time (ie behavior time) of the behaviors calculated in the learning phase, calculates the degree of inconsistency between the set of cognitive behaviors that occurred within the behavior time and the behavior-action set learned during the learning, and then It is a penalty. The second method is to extend the average action time to minimize the degree of inconsistency. At this time, as an example, the maximum value of the time that can be extended may use the deviation of the average time (that is, the deviation of the behavior time statistically calculated using the learning example data).

상기한 패널티 함수를 적용하는 방법을 예시하기 위해, 도 7을 함께 참조하기로 한다. 도 7에 도시된 학습 데이터를 참조하면, To illustrate how to apply the penalty function described above, reference is made to FIG. 7 together. Referring to the training data shown in Figure 7,

(예제)(example)

1. 학습 데이터(도 7참조)1. Training data (see Figure 7)

1)저녁식사 학습 : 행동 시간 t분, 행동-동작 세트 {A,B,C,D,H}1) Dinner lesson: t minutes of action, action-action set {A, B, C, D, H}

2)샤워 학습 : 행동 시간 t분, 행동-동작 세트 {A,E,F,G}2) Shower Learning: Action Time t Minutes, Action-Action Set {A, E, F, G}

2. 실제 관측된 동작(즉, 동작 인지부(30)에 의해 인지된 하나 이상의 동작)2. Actually observed motion (ie one or more motions recognized by motion recognition unit 30)

소요 시간 t분 동안 인지된 동작 (A,B,C,D,B,E), t분 이후 t'분 동안 인지된 동작 - (H)]Actions recognized for t minutes (A, B, C, D, B, E), actions recognized for t 'minutes after t minutes-(H)]

만일 행동 시간을 고정한 상태에서의 행동 패널티를 산출하자면, 학습 데이터의 행동-동작 세트에서 인지된 행동에 따른 행동 데이터의 인지 동작 세트를 차감한 값이 행동 패널티로 산출된다. 상기한 예제를 적용해 보면, 저녁식사 행동 패널티는 1이고, 샤워 행동 패널티는 2일 수 있다. 저녁식사의 동작 집합 {A,B,C,D}에서 관측된 동작 집합{A,B,C,D,E}를 차감한 결과 1({H})이 저녁식사의 행동 패널티이고, 마찬가지로 샤워 동작 집합 {A,E,F,G}에서 관측된 동작 집합{A,B,C,D,E}를 차감한 결과 2({F,G})가 샤워의 행동 패널티이다. 이하에서는 동작 집합의 패널티를 “동작 불일치”라 칭하기로 한다. 즉 저녁식사의 동작 불일치는 1, 샤워의 동작 불일치는 2이다.If the behavior penalty is fixed with the behavior time fixed, the behavior penalty is calculated by subtracting the cognitive behavior set of the behavior data according to the perceived behavior from the behavior-action set of the training data. Applying the example above, the dinner behavior penalty may be one and the shower behavior penalty may be two. Subtracting the observed motion set {A, B, C, D, E} from the dinner set {A, B, C, D} for dinner, 1 ({H}) is the behavioral penalty for dinner, and similarly showers Subtracting the observed motion set {A, B, C, D, E} from the motion set {A, E, F, G}, 2 ({F, G}) is the behavior penalty of the shower. In the following, the penalty of an action set will be referred to as "operation mismatch". In other words, the dinner discrepancy is 1, and the shower discrepancy is 2.

다른 실시예에 따른 행동 시간을 확장하는 방법에 따른 행동 패널티를 산출하자면, 추가시간 t'분 동안 관측된 동작은 H이며 이에 따르면 저녁식사의 동작 불일치는 0이 되고, 샤워의 동작 불일치는 그대로 2({F,G})가 됨을 알 수 있다.To calculate the behavioral penalty according to the method of extending the behavioral time according to another embodiment, the motion observed during the additional time t 'minutes is H, and accordingly, the motion inconsistency of the dinner becomes 0, and the motion inconsistency of the shower remains 2 It can be seen that ({F, G}).

순서 및 발생횟수를 별도로 고려하지 않고 집합(set)만을 이용하더라도, 각 행동에서 취하는 동작마다 서로 상이하기 때문에 행동인지가 가능하게 된다. 예를 들어, 저녁식사에서는 포크를 쥘 수 있지만, 샤워에서는 포크를 쥐는 동작이 거의 수행되지 않기 때문이다. 따라서 각 행동 마다 서로 겹치는 동작이 많이 발생하지 않아 집합(set) 개념에서 불일치수를 산출하더라도 하나의 행동을 인지하는데 큰 어려움이 없게 된다.Even if only a set is used without considering the order and the number of occurrences separately, it is possible to recognize an action because the actions taken in each action are different from each other. For example, you can remove the fork at dinner but rarely hold the fork in the shower. Therefore, each action does not have many overlapping actions, so even if the number of discrepancies is calculated in the set concept, there is no great difficulty in recognizing one action.

도 9는 본 발명의 일실시예에 따른 행동 패널티의 산출 방법을 도시한 개념도이다.9 is a conceptual diagram illustrating a method of calculating a behavior penalty according to an embodiment of the present invention.

도 9를 참조하면, 참조번호 950은 이미 학습된 행동

Figure 112008087206982-pat00047
의 동작(operation)들을 보여주고 있으며, 참조번호 910은 첫 번째 해석방법(행동 시간 고정)을, 그리고 참조번호 930은 두 번째 해석방법(행동 시간 확장)을 설명하고 있다. 행동 시간 고정 방법(910)에서는 상술한 것과 같이 현재 진행된 동작들이
Figure 112008087206982-pat00048
인지를 판별하기 위해서
Figure 112008087206982-pat00049
의 평균 행동 시간을 고정(
Figure 112008087206982-pat00050
)하고
Figure 112008087206982-pat00051
의 동작과 도면에 나타난 동작 집합과의 불일치한 동작의 수를 통해서 패널티를 받게 된다. 행동 시간 확장 방법(930)은 평균 행동 시간을 확장(
Figure 112008087206982-pat00052
)한 후 도면과 같은 방식으로 불일치 정도를 따져 패널티를 받게 된다.9, reference numeral 950 indicates an already learned behavior.
Figure 112008087206982-pat00047
The operations of are shown, reference numeral 910 describes the first method of interpretation (action time fixation), and reference numeral 930 describes the second method of interpretation (action time extension). In the action time fixing method 910, as currently described,
Figure 112008087206982-pat00048
To determine whether
Figure 112008087206982-pat00049
Fixed average action time of
Figure 112008087206982-pat00050
)and
Figure 112008087206982-pat00051
Penalty is given through the number of inconsistencies between the motion set and the motion set shown in the figure. The behavior time extension method 930 extends the average behavior time (
Figure 112008087206982-pat00052
After that, you will be penalized according to the degree of inconsistency.

표 2는 패널티의 부과를 상황에 따라 도표화 한 것이다.Table 2 charts the imposition of penalties according to circumstances.

구분division 동작의 불일치가 없는 경우No mismatch 동작의 불일치가 있는 경우If there is a mismatch in behavior 행동 시간 고정Action time fixed 패널티 없음No penalty # of mismatch# of mismatch 행동 시간 확장Extended action time 시간 패널티Time penalty 시간 패널티 + 불일치 수Time penalty + discrepancies

따라서 두개의 패널티 함수가 필요하지만 본 발명에서는 수학식 4와 같은 지수분포(exponential distribution)를 시간과 행동의 불일치를 위한 패널티 함수로 사용한다. Therefore, although two penalty functions are required, the present invention uses an exponential distribution such as Equation 4 as a penalty function for inconsistency between time and behavior.

Figure 112008087206982-pat00053
Figure 112008087206982-pat00053

수학식 4에서 지수분포의

Figure 112008087206982-pat00054
는 동작의 불일치된 개수이며 파라미터
Figure 112008087206982-pat00055
는 1.2이하의 작은 값을 사용한다. 시간에 대한 패널티
Figure 112008087206982-pat00056
는 동작 불일치 지수분포를 따르는
Figure 112008087206982-pat00057
와 같이 계산할 수 있다.Of the exponential distribution in equation (4).
Figure 112008087206982-pat00054
Is the mismatched number of actions
Figure 112008087206982-pat00055
Uses a value less than 1.2. Penalty for time
Figure 112008087206982-pat00056
Follows the behavior mismatch exponential distribution
Figure 112008087206982-pat00057
It can be calculated as

그리고 최종 패널티는 수학식 5와 같이 각 패널티에 가중치를 부여하여 필요에 따라 비중을 달리 할 수 있도록 한다.The final penalty is weighted to each penalty as shown in Equation 5 so that the specific penalty can be changed as necessary.

Figure 112008087206982-pat00058
Figure 112008087206982-pat00058

여기서, 본 실시예에서는 행동 시간 확장의 경우, 시간 패널티와 동작 불일치 수를 함께 행동 패널티로 이용하는 경우를 예로 들었으나, 반드시 이에 한정될 필요는 없으며 행동 시간 확장 시에도 시간 패널티는 가하지 않고 불일치 수만을 행동 패널티로 이용할 수도 있다. 임의의 동작은 매번 동일한 행동 시간을 가질 경우가 크지 않으므로, 미리 지정된 어느 정도의 시간은 패널티 없이 확장될 수 있기 때문이다.In this embodiment, in the case of extending the behavior time, the time penalty and the number of motion inconsistency are used as an action penalty. However, the present invention is not necessarily limited thereto. It can also be used as an action penalty. Since any operation is not likely to have the same action time each time, a predetermined amount of time can be extended without penalty.

이하에서는 행동 판단부(50)의 피드백 처리부(58)의 기능에 대해 설명하기로 한다. 피드백 처리부(58)는 행동 인지부(56)에서 인지한 결과를 표시부(90)를 통해 사용자에게 알려주고 그 결과가 맞는지에 대한 피드백을 입력부(70)를 통해 입력받아 인지가 잘못된 경우 학습한 모델에 따라 학습 데이터를 수정하도록 행동 학습부(52)를 제어하는 기능을 수행한다.Hereinafter, the function of the feedback processing unit 58 of the behavior determination unit 50 will be described. The feedback processor 58 notifies the user of the result recognized by the behavior recognizer 56 through the display unit 90 and receives feedback on whether the result is correct through the input unit 70. Accordingly, the function of controlling the behavior learning unit 52 to be modified is performed.

도 10은 본 발명의 일실시예에 따른 사용자 피드백에 의해 인지된 행동을 이용한 학습 데이터의 갱신을 위한 사용자 인터페이스를 예시한 도면이다.FIG. 10 illustrates a user interface for updating learning data using behaviors recognized by user feedback according to an embodiment of the present invention.

도 10을 참조하면, 피드백 처리부(58)는 참조번호 1010과 같은 행동 인지부(56)로부터 인지된 인식 행동 데이터에 따른 정보를 포함한 행동 결과 화면을 표시부(90)를 통해 사용자에게 표시하고 인지된 정보가 맞는지를 입력부(70)를 통해 사용자로부터 입력받는다. 이때 사용자가 인지된 정보가 맞다고 선택하는 경우는 추가적인 작업이 필요 없지만, 만약 사용자가 인지된 정보가 맞지 않다고 선택하는 경우 피드백 처리부(58)는 참조번호 1030과 같은 수정 화면을 출력한다. 수정 화면에서는 행동 인지부(56)에서 현 행동으로 판단하게 된 동작들을 보여주고 잘못된 부분을 사용자로부터 입력받게 된다. 피드백 처리부(58)는 이렇게 수정된 데이터(동작 또는 행동 명칭 등)를 행동 학습부(52)로 전송하여 잘못 인지된 행동과 사용 자가 입력한 행동에 대한 모델 수정을 지시하게 된다. 행동 학습부(52)는 피드백 처리부(58)로부터 수신된 데이터(이하 피드백 데이터)를 학습예제 데이터로써 이용하여 학습 데이터를 갱신한다. 물론, 피드백 처리부(58)로부터 수신된 피드백 데이터는 학습예제 데이터보다 가중치가 더해져 학습 데이터 갱신에 이용될 수 있다. Referring to FIG. 10, the feedback processor 58 displays a behavior result screen including information according to the recognition behavior data recognized by the behavior recognition unit 56, such as reference numeral 1010, to the user through the display unit 90 and is recognized. Whether the information is correct is received from the user through the input unit 70. In this case, if the user selects that the recognized information is correct, no additional work is required, but if the user selects that the recognized information is not correct, the feedback processor 58 outputs a correction screen as shown by reference numeral 1030. In the modified screen, the behavior recognition unit 56 shows the actions that are determined as the current behavior and receives the wrong part from the user. The feedback processor 58 transmits the modified data (action or behavior name, etc.) to the behavior learning unit 52 to instruct the model correction for the wrongly recognized behavior and the user input. The behavior learning unit 52 updates the learning data using the data received from the feedback processing unit 58 (hereinafter, the feedback data) as the learning example data. Of course, the feedback data received from the feedback processor 58 may be used to update the training data by adding weight to the training example data.

피드백 데이터에 의한 학습 데이터의 갱신에 대한 하나의 예를 들면, 인지된 행동이 “저녁식사 준비”였으나, 사용자의 피드백 결과 실제 수행된 행동은 “설거지”인 경우, 피드백 처리부(58)는 인지 행동 데이터와 실제 행동의 명칭 “설거지”이에 대한 정보를 행동 학습부(52)로 제공한다. 이에 따라 행동 학습부(52)는 피드백 데이터를 행동 “설거지”에 대한 학습 데이터에 반영하여 수정한다. As an example of updating the training data by the feedback data, if the perceived behavior was "preparation for dinner," but the user's feedback actually performed the action "washing dishes," the feedback processing unit 58 is a cognitive behavior. The name of the data and the actual behavior “washing dishes” is provided to the behavior learning unit 52. Accordingly, the behavior learning unit 52 reflects the feedback data to the learning data for the behavior "washing dishes" and modifies it.

정리하자면 행동의 인지가 잘못된 경우, 피드백 화면에서 관측된 동작들을 보여주고, 사용자가 잘못된 동작을 제거 또는 추가하게 되면 피드백된 정보를 기반으로 사용자의 학습 모델이 수정(즉, 학습 데이터가 수정)된다.In summary, when the behavior is not recognized, the feedback screen shows the observed motions, and when the user removes or adds the wrong motion, the user's learning model is modified based on the feedback information (ie, the training data is modified). .

다른 예를 하나 더 들면, 저녁식사 행동으로 관측된 동작이 A, B가 있으며 각 동작은 2번, 3번이 수행된 경우를 가정한다. 여기서, 피드백에 의해 첫 번째 동작이 제거된 경우, 저녁식사의 동작 A, B는 각각 1번, 3번으로 나타난 것으로 수정된다. 따라서 해당 행동에서 동작 A가 발생할 확률

Figure 112008087206982-pat00059
는 처음 2/5에서 1/4로 수정된다.As another example, it is assumed that there are A and B motions that are observed as dinner behaviors, and 2 and 3 motions are performed. Here, when the first operation is removed by the feedback, the operations A and B of dinner are corrected to appear as 1 and 3 times, respectively. Therefore, the probability that action A will occur in the action
Figure 112008087206982-pat00059
Is modified from the first 2/5 to 1/4.

이하, 본 발명에 따른 행동인지 장치의 행동인지 수행 과정을 설명하기로 한다.Hereinafter, a description will be given of the process whether the behavior of the device according to the present invention.

도 11은 본 발명의 일실시예에 따른 행동인지 과정을 도시한 흐름도이다.11 is a flowchart illustrating a behavior recognition process according to an embodiment of the present invention.

도면을 참조하여 행동인지 과정을 설명하는데 있어, 학습예제 데이터를 이용한 학습 데이터의 설정, 학습 데이터를 이용한 사용자의 행동 인지, 사용로부터의 피드백 데이터를 이용한 학습 데이터의 갱신 방법은 행동인지 장치의 기능을 설명하며 상술하였으므로 중복되는 설명은 생략한다.In describing the behavior cognition process with reference to the drawings, the method of setting learning data using learning example data, user's behavior recognition using learning data, and updating the learning data using feedback data from the use is a function of the behavior recognition device. Since it has been described and described above, duplicate description thereof will be omitted.

도 11을 참조하면, 행동인지 장치는 사용자의 동작에 따른 외부 물리정보에 근거한 사용자 동작을 인지한다(S100). 전술한 바와 같이 행동인지 장치는 RFID 태그 정보, GPS 위치정보 등의 외부 물리정보를 취득하기 위한 계측 장치를 구비하여 자신이 직접 상기한 바와 같은 외부 물리정보를 취득하거나, 연결된 외부의 계측 장치로부터 수신되는 외부 물리정보에 따른 계측 데이터에 상응하는 동작을 인지할 수도 있다. 따라서 행동인지 장치는 인지된 외부 물리정보에 근거하여 MOVE, HOLD, RELEASE, TOUCH, STAY 중 어느 하나에 따른 사용자의 동작을 인지한다.Referring to FIG. 11, the behavior recognition apparatus recognizes a user's motion based on external physical information according to the user's motion (S100). As described above, the behavior recognition device includes a measurement device for acquiring external physical information such as RFID tag information and GPS location information, and directly acquires the external physical information as described above, or receives it from a connected external measurement device. An operation corresponding to measurement data according to external physical information may be recognized. Therefore, the behavior recognition device recognizes a user's motion according to any one of MOVE, HOLD, RELEASE, TOUCH, and STAY based on the recognized external physical information.

이후, 행동인지 장치는 현재까지 인지된 동작들이 어떠한 행동인지를 미리 학습되어 저장된 학습 데이터를 이용하여 판단한다(s102). 만일 인지된 동작의 수가 적거나 어떠한 행동도 인지되지 않으면, 다시 s100으로 진행하여 다음 동작을 인지한다.Thereafter, the behavior recognition apparatus determines whether the behaviors recognized to date are previously learned using stored learning data (S102). If the number of recognized motions is small or no behavior is recognized, the process proceeds to s100 again to recognize the next motion.

이전까지 인지된 동작들에 상응하는 행동에 대한 학습 데이터가 존재한다면, 해당 학습 데이터에 따른 행동을 사용자의 행동으로 인지한다(s104). 즉 행동인지 장치는 현재까지 관측된 사용자의 동작들에 상응하는 행동을 인지한다. If there is learning data on the behavior corresponding to the previously recognized behaviors, the behavior according to the corresponding learning data is recognized as the user's behavior (s104). That is, the behavior recognition device recognizes a behavior corresponding to the user's motions observed to date.

인지된 행동에 대한 정보는 사용자에게 표시된다(s106).Information about the perceived behavior is displayed to the user (s106).

행동인지 장치는 사용자로부터 피드백 데이터가 입력되는지 여부를 판단하고(s108), 피드백 데이터가 입력되는 경우 해당 피드백 데이터에 따른 학습 데이터를 갱신한다(s110).The behavior determining apparatus determines whether feedback data is input from the user (s108), and when the feedback data is input, updates the learning data according to the feedback data (s110).

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드디스크, 광자기디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented in a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

또한, 상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다. In addition, preferred embodiments of the present invention described above are disclosed for the purpose of illustration, those skilled in the art will be able to various modifications, changes, additions within the spirit and scope of the present invention, such modifications, Modifications and additions should be considered to be within the scope of the following claims.

도 1은 본 발명의 일실시예에 따른 행동인지 장치의 구성을 도시한 블록도.1 is a block diagram showing the configuration of a behavior recognition apparatus according to an embodiment of the present invention.

도 2는 일반적인 행동이론의 구조를 도시한 도면.2 illustrates the structure of a general theory of behavior.

도 3은 본 발명의 일실시예에 따른 행동을 구성하는 동작들을 정의한 개념도.3 is a conceptual diagram defining actions constituting an action according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른 시간축에 따른 동작의 인지를 설명하기 위한 그래프.Figure 4 is a graph for explaining the recognition of the motion along the time axis according to an embodiment of the present invention.

도 5는 본 발명의 일실시예에 따른 계측 데이터를 이용하여 인지된 동작을 나타낸 예시도.5 is an exemplary view showing a recognized operation using the measurement data according to an embodiment of the present invention.

도 6은 본 발명의 일실시예에 따른 학습예제 데이터의 설정을 위한 사용자 인터페이스를 도시한 예시도.6 is an exemplary diagram illustrating a user interface for setting learning example data according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 따른 학습예제 데이터를 이용한 학습 데이터의 생성 개념을 도시한 테이블.7 is a table illustrating a concept of generation of learning data using learning example data according to an embodiment of the present invention.

도 8은 본 발명의 일실시예에 따른 학습 데이터의 형식을 도시한 도면.8 illustrates a format of learning data according to an embodiment of the present invention.

도 9는 본 발명의 일실시예에 따른 행동 패널티의 산출 방법을 도시한 개념도.9 is a conceptual diagram illustrating a method of calculating a behavior penalty according to an embodiment of the present invention.

도 10은 본 발명의 일실시예에 따른 사용자 피드백에 의해 인지된 행동을 이용한 학습 데이터의 갱신을 위한 사용자 인터페이스를 예시한 도면.FIG. 10 illustrates a user interface for updating learning data using behaviors perceived by user feedback in accordance with one embodiment of the present invention. FIG.

도 11은 본 발명의 일실시예에 따른 행동인지 과정을 도시한 흐름도.11 is a flowchart illustrating a behavior recognition process according to an embodiment of the present invention.

Claims (19)

사용자의 행동을 인지하는 행동인지 장치에 있어서, In the device for recognizing the behavior of the user, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 동작 인지부; 및A motion recognition unit for recognizing any one of predefined operations as a user's motion by using measured external physical data; And 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 행동 판단부를 포함하되,It includes a behavior determination unit for determining the observed behavior of the user corresponding to the one or more cognitive actions recognized by the motion recognition unit using the learning data that is information on the action (action) consisting of one or more actions, 상기 행동 판단부는, 하나 이상의 학습예제 데이터를 이용하여 상기 학습 데이터를 생성하기 위한 행동 학습부; 상기 학습 데이터를 저장하기 위한 학습정보 저장부; 및 상기 학습 데이터를 이용하여 상기 인지 동작에 상응하는 사용자의 관측 행동을 인지하는 학습 인지부를 포함하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.The behavior determination unit may include: a behavior learning unit for generating the learning data using at least one learning example data; A learning information storage unit for storing the learning data; And a learning cognition unit for recognizing the observed behavior of the user corresponding to the cognitive motion by using the learning data. 제 1항에 있어서,The method of claim 1, 상기 동작은 머물기(stay), 잡기(hold), 이동하기(move), 만지기(touch) 및 놓기(release) 중 어느 하나로 인지되는 것을 특징으로 하는 행동이론 기반의 행동인지 장치. Wherein the action is one of stay theory, action hold, move, touch, and release. 삭제delete 제 1항에 있어서, The method of claim 1, 상기 행동 학습부는 상기 학습예제 데이터를 이용하여 각 행동에 따른 발생 확률
Figure 112010031537879-pat00060
, 상기 행동이 수행될 때 임의의 동작이 발생할 확률
Figure 112010031537879-pat00061
, 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 학습 데이터를 생성하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.
The behavior learning unit generates probability according to each action using the learning example data.
Figure 112010031537879-pat00060
, The probability that any action will occur when the action is performed.
Figure 112010031537879-pat00061
Behavioral theory based behavioral cognition device, characterized in that for generating training data, including the action time, the number of motions and the set of behaviors (action-action set).
제 4항에 있어서, The method of claim 4, wherein 상기
Figure 112008087206982-pat00062
는 복수개의 상기 학습예제 데이터를 이용한 포아송 분포를 이용하여 산출되는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.
remind
Figure 112008087206982-pat00062
Is a behavior theory based behavior recognition device, characterized in that calculated using a Poisson distribution using a plurality of the learning example data.
제 1항에 있어서The method of claim 1 상기 행동 인지부는 상기 학습 데이터의 각 행동에 따른 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 산출한 패널티를 각 행동에 적용하여 상기 관측 행동을 인지하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.The behavior recognition unit recognizes the observed behavior by applying a penalty calculated by using the inconsistency between the behavior-action set corresponding to each behavior of the learning data and the behavior set of the cognitive behavior to each behavior. Behavioral Cognitive Device Based. 제 6항에 있어서,The method of claim 6, 상기 불일치 수는 상기 행동-동작 세트에서 상기 인지 동작의 동작 세트를 차감함으로써 계산되는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.The discrepancy number is calculated by subtracting the action set of the cognitive action from the action-action set. 제 4항 또는 제 6항에 있어서, The method according to claim 4 or 6, 상기 행동 인지부는 하기의 수학식을 이용하여 상기 관측 행동을 인지하되, 하기 수학식의 패널티 함수(
Figure 112008087206982-pat00063
)는 상기 학습 데이터의 상기 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 계산되는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.
The behavior recognition unit recognizes the observed behavior using the following equation, but the penalty function (
Figure 112008087206982-pat00063
Is calculated using the number of inconsistencies between the action-action set of the learning data and the action set of the cognitive action.
Figure 112008087206982-pat00064
Figure 112008087206982-pat00064
제 6항에 있어서,The method of claim 6, 상기 불일치 수는 고정 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간과 동일한 시간 간격동안 인지된 동작들의 동작 세트를 이용하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.Wherein the number of discrepancies uses an action set of perceived actions during the same time interval as the action time of the learning data, according to a fixed action time method. 제 6항에 있어서, The method of claim 6, 상기 불일치 수는 확장 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간보다 일정 범위 내에서 확장된 시간 간격동안 인지된 동작들의 동작 세트를 이용하여 산출되는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.The discrepancy number may be calculated using an action set of actions recognized for a time interval extended within a predetermined range from the action time of the learning data, according to an extended action time method. . 제 10항에 있어서, The method of claim 10, 상기 패널티(
Figure 112008087206982-pat00065
)는 하기의 수학식에 따라 상기 불일치 수에 따른 불일치 패널티와 함께 상기 확장된 시간만큼의 시간 패널티를 이용하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치.
The penalty (
Figure 112008087206982-pat00065
) Uses a behavioral theory based behavioral cognition apparatus according to the following equation, using the time penalty for the extended time together with the inequality penalty according to the number of inconsistency.
Figure 112008087206982-pat00066
Figure 112008087206982-pat00066
(여기서,
Figure 112008087206982-pat00067
는 확장 시간에 따른 시간 패널티,
Figure 112008087206982-pat00068
는 불일치 수에 따른 불일치 패널티)
(here,
Figure 112008087206982-pat00067
Is the time penalty over expansion time,
Figure 112008087206982-pat00068
Is a penalty for discrepancies based on the number of discrepancies)
제 1항에 있어서, The method of claim 1, 상기 행동 판단부는 상기 관측 행동에 따라 입력된 사용자의 피드백 데이터에 상응하도록 상기 학습 데이터가 갱신되도록 상기 행동 학습부를 제어하는 피드백 처리부를 더 포함하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치. The behavior determining unit further includes a feedback processing unit controlling the behavior learning unit to update the learning data to correspond to the feedback data of the user input according to the observed behavior. 제 1항에 있어서, The method of claim 1, 상기 동작 인지부는 상기 계측된 외부의 물리적 데이터를 시간의 흐름에 따른 Time series 분석을 통해 상기 정의된 동작 중 어느 하나로 인지하는 것을 특징으로 하는 행동이론 기반의 행동인지 장치. And the motion recognition unit recognizes the measured external physical data as any one of the defined motions through time series analysis over time. 제 1항에 있어서, The method of claim 1, RFID 태그 정보, GPS 위치 정보, 가속도 정보 중 어느 하나 이상의 상기 외부 물리적 데이터를 계측하기 위한 계측부를 더 포함하는 행동이론 기반의 행동인지 장치. And a measurement unit for measuring the external physical data of at least one of RFID tag information, GPS location information, and acceleration information. 사용자의 행동을 인지하는 행동인지 방법에 있어서, In the method of recognizing the user's behavior, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 단계; 및Recognizing any one of a predefined operation as a user's operation using the measured external physical data; And 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 단계를 포함하되,Determining the observed behavior of the user corresponding to the one or more cognitive actions recognized by the motion recognition unit using the learning data that is information on the action consisting of one or more actions, 상기 사용자의 관측 행동을 판단하는 단계는, 미리 저장된 각 행동에 따른 행동-동작 세트와 상기 동작 인지부에 인지된 동작 세트의 불일치 수를 비교하여 패널티를 산출하는 단계; 및 상기 패널티를 적용하여 상기 인지 동작에 상응하는 관측 행동을 인지하는 단계를 포함하는 것을 특징으로 하는 행동이론 기반의 행동인지 방법.The determining of the observed behavior of the user may include: calculating a penalty by comparing a number of inconsistencies between an action-action set according to each pre-stored action and an action set recognized by the gesture recognition unit; And applying the penalty to recognize the observed behavior corresponding to the cognitive behavior. 제 15항에 있어서,The method of claim 15, 행동명, 동작에 대한 정보, 행동 수행 시각을 포함하는 복수개의 학습예제 데이터를 이용하여, 각 행동에 따른 발생 확률
Figure 112008087206982-pat00069
, 상기 행동이 수행될 때 임의의 동작이 발생할 확률
Figure 112008087206982-pat00070
, 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 상기 학습 데이터를 생성하는 단계를 선행하여 포함하는 행동이론 기반의 행동인지 방법.
Probability of occurrence for each action using a plurality of learning example data including action name, action information, and action execution time
Figure 112008087206982-pat00069
, The probability that any action will occur when the action is performed.
Figure 112008087206982-pat00070
And generating the learning data comprising a time of action, a number and a set of actions (action-action sets) that constitute an action.
삭제delete 제 15항에 있어서, The method of claim 15, 상기 관측 행동에 따른 정보를 표시하는 단계를 더 포함하되,The method may further include displaying information according to the observation behavior. 사용자로부터 피드백 데이터가 입력되면, 상기 피드백 데이터를 이용하여 상기 학습 데이터를 갱신하는 것을 특징으로 하는 행동이론 기반의 행동인지 방법.When feedback data is input from a user, behavior theory based behavior recognition method, characterized in that for updating the learning data using the feedback data. 제 15항 내지 제 16항 및 제 18항 중 어느 한 항의 방법을 수행하기 위한 명령어들의 조합이 유형적으로 구현되어 있으며 디지털 정보 처리 장치에 의해 판독 가능한 프로그램이 기록된 기록 매체. 19. A recording medium on which a combination of instructions for performing the method of any one of claims 15 to 16 and 18 is tangibly embodied and in which a program readable by a digital information processing apparatus is recorded.
KR1020080129680A 2008-12-18 2008-12-18 Method and device for recognition of human activity based on activity theory KR100982164B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080129680A KR100982164B1 (en) 2008-12-18 2008-12-18 Method and device for recognition of human activity based on activity theory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080129680A KR100982164B1 (en) 2008-12-18 2008-12-18 Method and device for recognition of human activity based on activity theory

Publications (2)

Publication Number Publication Date
KR20100070929A KR20100070929A (en) 2010-06-28
KR100982164B1 true KR100982164B1 (en) 2010-09-14

Family

ID=42368599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080129680A KR100982164B1 (en) 2008-12-18 2008-12-18 Method and device for recognition of human activity based on activity theory

Country Status (1)

Country Link
KR (1) KR100982164B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043251B2 (en) 2012-07-06 2015-05-26 Samsung Electronics Co., Ltd. Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102554848B1 (en) 2022-10-31 2023-07-12 주식회사 디퍼아이 Behavioral cognitive apparatus and method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003102077A (en) 2001-09-25 2003-04-04 Matsushita Electric Ind Co Ltd Home electric appliance controller, home electric appliance and home electric appliance network system
KR20050118822A (en) * 2004-06-15 2005-12-20 한국과학기술원 Learning method based on inhabitant's behavioral pattern in the intelligent residential space
KR20070061078A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 System and method for interfacing between human and service robot based on action

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003102077A (en) 2001-09-25 2003-04-04 Matsushita Electric Ind Co Ltd Home electric appliance controller, home electric appliance and home electric appliance network system
KR20050118822A (en) * 2004-06-15 2005-12-20 한국과학기술원 Learning method based on inhabitant's behavioral pattern in the intelligent residential space
KR20070061078A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 System and method for interfacing between human and service robot based on action

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043251B2 (en) 2012-07-06 2015-05-26 Samsung Electronics Co., Ltd. Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors
US10332011B2 (en) 2012-07-06 2019-06-25 Samsung Electronics Co., Ltd. Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors

Also Published As

Publication number Publication date
KR20100070929A (en) 2010-06-28

Similar Documents

Publication Publication Date Title
US10217027B2 (en) Recognition training apparatus, recognition training method, and storage medium
Chien et al. Data-driven innovation to capture user-experience product design: An empirical study for notebook visual aesthetics design
CN106446488B (en) risk assessment system and data processing method
KR101960835B1 (en) Schedule Management System Using Interactive Robot and Method Thereof
Minor et al. Forecasting occurrences of activities
EP1975783A1 (en) Method and system for adapting a user interface of a device
US20110125700A1 (en) User model processing device
US20100318576A1 (en) Apparatus and method for providing goal predictive interface
Chikhaoui et al. A frequent pattern mining approach for ADLs recognition in smart environments
JP6437376B2 (en) Decision support system and decision support method
CN112368720A (en) Information processing apparatus, information processing method, and program
KR100982164B1 (en) Method and device for recognition of human activity based on activity theory
CN109117071A (en) A kind of control method for screen display and device
CN106886294A (en) A kind of input method error correction method and device
JP2018500686A (en) Confirm merchant business circle information
CN109189437A (en) Software upgrading reminding method, device, computer equipment and readable storage medium storing program for executing
KR20100137963A (en) Apparatus and method for activity pattern extraction and intention inference using incremental statistical methods
US11928163B2 (en) Apparatus, method and computer program for creating digital memories for a particular person
JP2020021226A (en) QOL analysis device and program
US11836587B2 (en) System and method for real-time artificial intelligence situation determination based on distributed device event data
CN111797874A (en) Behavior prediction method, behavior prediction device, storage medium and electronic equipment
CN115237967A (en) Scene recommendation method, electronic device, storage medium and product
US20210097884A1 (en) Work support apparatus, work support system, and work support method
KR20130014332A (en) Method and apparatus for perceiving emotional state of user
CN116917923A (en) Content recommendation system, content recommendation method, content library, method for generating content library, and target input user interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140703

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150526

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee