KR100982164B1 - Method and device for recognition of human activity based on activity theory - Google Patents
Method and device for recognition of human activity based on activity theory Download PDFInfo
- Publication number
- KR100982164B1 KR100982164B1 KR1020080129680A KR20080129680A KR100982164B1 KR 100982164 B1 KR100982164 B1 KR 100982164B1 KR 1020080129680 A KR1020080129680 A KR 1020080129680A KR 20080129680 A KR20080129680 A KR 20080129680A KR 100982164 B1 KR100982164 B1 KR 100982164B1
- Authority
- KR
- South Korea
- Prior art keywords
- action
- behavior
- learning
- data
- time
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/448—Execution paradigms, e.g. implementations of programming paradigms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
행동이론 기반의 행동인지 방법 및 장치가 개시된다. 본 발명의 일측면에 따른 사용자의 행동을 인지하는 행동이론 기반의 행동인지 장치는 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 동작 인지부; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 행동 판단부를 포함한다. 본 발명에 따르면, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하며, 사람의 행위의 가장 기초가 되는 행위인 동작을 제한하여 디바이스에서 처리 가능한 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공할 수 있다.Disclosed are a behavior theory based behavior recognition method and apparatus. Behavior theory-based behavior recognition apparatus for recognizing user's behavior according to an aspect of the present invention is a motion recognition unit for recognizing any one of the predefined operation (operation) using the measured external physical data as the user's motion ; And an action determination unit that determines an observation behavior of the user corresponding to one or more cognitive actions recognized by the action recognition unit by using learning data that is information about an action consisting of one or more actions. According to the present invention, an action recognition method and apparatus based on a behavior theory divided into an activity, an action, and an action, and based on an action theory that can be processed in a device by limiting an action that is the most basic action of a person's action Can provide.
행동, 행동이론, 동작, operation, action, 학습 Action, theory of action, action, action, learning
Description
본 발명은 사용자의 행동인지에 관한 것으로, 보다 상세하게는 행동이론 기반의 행동인지 방법 및 장치에 관한 것이다.The present invention relates to whether the user's behavior, and more particularly, to a method and apparatus for behavior theory based behavior recognition.
유비쿼터스(Ubiquitious)란, '언제 어디서나 존재한다'는 뜻을 가진 라틴어로서, 유비쿼터스 컴퓨팅 환경이란 사용자가 언제 어디서나 통신 속도 등의 제약 없이 인터넷으로 공간적으로 연결된 장치들을 사용할 수 있도록 하는 컴퓨팅 환경을 의미하는 개념이다. 이러한 유비쿼터스 컴퓨팅 환경은 기존 홈 네트워크나 모바일 컴퓨팅보다 한 단계 더 발전된 컴퓨팅 환경을 말한다. Ubiquitious is a Latin word meaning 'anywhere, anytime', and the ubiquitous computing environment means a computing environment that allows users to use spatially connected devices over the Internet without restriction of communication speed anytime, anywhere. to be. This ubiquitous computing environment is one step further than the existing home network or mobile computing.
유비쿼터스 컴퓨팅 환경의 일 예로서, 홈 네트워크를 예로 들면, 세탁기, 냉장고, TV, 테이블 등 집과 관련된 모든 물리 공간과 객체에 컴퓨팅 기능을 추가하여 해당 사물과 대상을 지능화시키고 인터넷에 연결시켜 서로 정보를 주고받을 수 있게 하는 것을 들 수 있다. As an example of a ubiquitous computing environment, a home network, for example, adds a computing function to all physical spaces and objects related to a house such as a washing machine, a refrigerator, a TV, a table, and intelligently connects objects and objects to each other to connect information to each other. One can give and receive.
유비쿼터스 컴퓨팅의 기반 기술에 속하는 상황 인식 시스템은, 사용자가 필요로 하는 서비스를 제공하기 위해서, 일상생활 곳곳에 편재된 센서 및 컴퓨터들이 수집한 각종 환경 정보를 효과적으로 상호 공유하여 사용자 및 주변 환경의 상황을 알아내는 상황 인식 처리 기술을 필요로 한다. Context-aware system, a basic technology of ubiquitous computing, effectively shares various environmental information collected by sensors and computers in various places of daily life in order to provide services that users need. It requires situational awareness processing techniques to find out.
특히 사용자의 현재 행동에 상응하는 서비스를 제공하기 위해서는 현재 사용자가 어떠한 행동을 하고 있는지를 판단할 필요가 있다. 즉, 사용자의 현재 행동을 인식해야만 그에 따른 서비스를 제공할 수 있기 때문이다. 하나의 예를 들면, 사용자가 저녁식사를 준비 중일 경우, 이를 인식하고 환기를 시킬 수 있도록 창문이 자동으로 열리게 할 수 있다.In particular, in order to provide a service corresponding to the current behavior of the user, it is necessary to determine what the current user is doing. In other words, it is because the user's current behavior must be recognized to provide the service accordingly. For example, when a user is preparing dinner, the window can be automatically opened to recognize and ventilate.
이러한 사용자의 행동을 인지하기 위한 기술들로서, 종래의 기술들은 크게 규칙기반 시스템 및 확률 모델 시스템으로 분류할 수 있다. 규칙기반 시스템의 경우 구현이 용이하지만 예외적인 행동에 적절하게 대처하지 못하며 확장성에 대한 문제를 안고 있다. 해석 가능한 경우나 인식을 원하는 행동에 대한 인식 규칙을 지식 베이스에 규칙을 명시해야 하기 때문이다. 확률 모델은 사용자의 행동 히스토리를 기반으로 통계 모델을 만들고 이를 기반으로 주어진 일련의 행동을 분류하는 방식으로 행동을 인지한다. 대부분의 시스템들이 은닉마코프모델이나 CRF(Conditional Random Field) 방식을 이용하여 모델을 만들었다. 그러나 이와 같은 모델은 순차적인 상황에 대해서는 잘 동작하나 예외적 행동에 대처하지 못하는 문제점을 가지고 있다. 즉, 사용자의 특정 목적을 가진 행동(예를 들어 식사 준비 등)이 항상 동일한 순서의 동작으로 이루어지지 않을 확률이 높으며, 이에 따른 예외적 행동을 상기한 종래 방식으로는 정확히 인지하지 못하는 문제가 있다. As techniques for recognizing the user's behavior, the conventional techniques can be largely classified into a rule-based system and a probability model system. Rule-based systems are easy to implement but do not adequately handle exceptional behavior and suffer from scalability. This is because the rules of knowledge should be specified in the knowledge base if they can be interpreted or for behaviors that require recognition. The probabilistic model recognizes behavior by creating a statistical model based on the user's history of behavior and classifying a given set of behaviors based on it. Most systems use hidden Markov models or Conditional Random Field (CRF) methods. However, such a model works well for sequential situations but does not cope with exceptional behavior. That is, there is a high probability that the user's specific purpose of action (for example, meal preparation, etc.) is not always performed in the same order of action, and thus the exceptional behavior is not accurately recognized in the conventional manner.
더욱이, 상기한 종래 방식은 미들웨어나 오프라인 시스템에서만 사용자의 행 동 인지가 가능하여, 휴대폰과 같은 휴대장치에 이식되어 실시간으로 이용되지 못한다.Moreover, the above-described conventional method can recognize a user's behavior only in a middleware or an offline system, and thus can not be used in real time because it is implanted in a portable device such as a mobile phone.
따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공하기 위한 것이다.Accordingly, the present invention has been made to solve the above-described problems, and to provide a method and apparatus for recognizing a behavior based on a behavioral theory divided into activities, behaviors, and behaviors.
또한, 본 발명은 휴대 디바이스에서 구현 가능하도록 처리 속도가 보다 빠른 행동인지 방법 및 그 장치를 제공하기 위한 것이다.It is also an object of the present invention to provide a method and apparatus for recognizing a faster processing speed to be implemented in a portable device.
또한, 본 발명은 행동 인지에 있어 동작 및 시간에 따른 패널티를 부가하여 보다 정확한 행동인지 방법 및 장치를 제공하기 위한 것이다.In addition, the present invention is to provide a more accurate behavior recognition method and apparatus by adding a penalty according to the action and time in the behavior recognition.
본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the preferred embodiments described below.
본 발명의 일측면에 따르면, 사용자의 행동을 인지하는 행동인지 장치에 있어서, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 동작 인지부; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 행동 판단부를 포함하는 행동이론 기반의 행동인지 장치가 제공된다.According to an aspect of the present invention, there is provided a device for recognizing a user's behavior, the apparatus comprising: a motion recognition unit for recognizing any one of a predefined operation as a user's motion by using measured external physical data; And an action determination unit that determines a user's observed behavior corresponding to one or more cognitive actions recognized by the action recognition unit by using learning data that is information about an action consisting of one or more actions. Behavioral awareness devices are provided.
여기서, 상기 동작은 머물기(stay), 잡기(hold), 이동하기(move), 만지기(touch) 및 놓기(release) 중 어느 하나로 인지될 수 있다.In this case, the operation may be recognized as any one of a stay, a hold, a move, a touch, and a release.
또한, 상기 행동 판단부는, 하나 이상의 학습예제 데이터를 이용하여 상기 학습 데이터를 생성하기 위한 행동 학습부; 상기 학습 데이터를 저장하기 위한 학습정보 저장부; 및 상기 학습 데이터를 이용하여 상기 인지 동작에 상응하는 사용자의 관측 행동을 인지하는 학습 인지부를 포함한다.The behavior determining unit may include a behavior learning unit for generating the learning data using at least one learning example data; A learning information storage unit for storing the learning data; And a learning cognition unit for recognizing the observing behavior of the user corresponding to the cognitive motion using the learning data.
그리고, 상기 행동 학습부는 상기 학습예제 데이터를 이용하여 각 행동에 따른 발생 확률 , 상기 행동이 수행될 때 임의의 동작이 발생할 확률 , 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 학습 데이터를 생성할 수 있다.And, the behavior learning unit using the learning example data using the probability of occurrence according to each action , The probability that any action will occur when the action is performed. Learning data can be generated, including the action time, the number of actions that make up the action, and the set (action-action set).
또한, 상기 는 복수개의 상기 학습예제 데이터를 이용한 포아송 분포를 이용하여 산출될 수 있다.In addition, May be calculated using a Poisson distribution using a plurality of the learning example data.
또한, 상기 행동 인지부는 상기 학습 데이터의 각 행동에 따른 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 산출한 패널티를 각 행동에 적용하여 상기 관측 행동을 인지할 수 있으며, 상기 불일치 수는 상기 행동-동작 세트에서 상기 인지 동작의 동작 세트를 차감함으로써 계산될 수 있다.In addition, the behavior recognition unit may recognize the observed behavior by applying a penalty calculated by using the inconsistency between the behavior-action set corresponding to each behavior of the learning data and the behavior set of the cognitive behavior to each behavior. The number of discrepancies can be calculated by subtracting the action set of the cognitive action from the action-action set.
또한, 상기 행동 인지부는 하기의 수학식을 이용하여 상기 관측 행동을 인지하되, 하기 수학식의 패널티 함수는 상기 학습 데이터의 상기 행동-동작 세트와 상기 인지 동작의 동작 세트의 불일치 수를 이용하여 계산될 수 있다.In addition, the behavior recognition unit recognizes the observed behavior by using the following equation, the penalty function of the following equation Can be calculated using the number of inconsistencies of the behavior-action set of the learning data and the behavior set of the cognitive action.
또한, 상기 불일치 수는 고정 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간과 동일한 시간 간격동안 인지된 동작들의 동작 세트를 이용할 수 있다. 또는 상기 불일치 수는 확장 행동 시간 방식에 따라, 상기 학습 데이터의 상기 행동 시간보다 일정 범위 내에서 확장된 시간 간격동안 인지된 동작들의 동작 세트를 이용하여 산출될 수 있다. The discrepancy number may also use an action set of perceived actions during the same time interval as the action time of the learning data, according to a fixed action time scheme. Alternatively, the number of inconsistencies may be calculated using an action set of recognized actions for a time interval extended within a predetermined range than the action time of the learning data, according to an extended action time scheme.
또한, 상기 패널티는 하기의 수학식에 따라 상기 불일치 수에 따른 불일치 패널티와 함께 상기 확장된 시간만큼의 시간 패널티를 이용할 수 있다.In addition, the penalty Can use the time penalty of the extended time together with the discrepancy penalty according to the discrepancy number according to the following equation.
(여기서, 는 확장 시간에 따른 시간 패널티, 는 불일치 수에 따른 불일치 패널티)(here, Is the time penalty over expansion time, Is a penalty for discrepancies based on the number of discrepancies)
또한, 상기 행동 판단부는 상기 관측 행동에 따라 입력된 사용자의 피드백 데이터에 상응하도록 상기 학습 데이터가 갱신되도록 상기 행동 학습부를 제어하는 피드백 처리부를 더 포함할 수 있다.The behavior determiner may further include a feedback processor configured to control the behavior learner to update the learning data to correspond to the feedback data input by the user according to the observed behavior.
또한, 상기 동작 인지부는 상기 계측된 외부의 물리적 데이터를 시간의 흐름에 따른 Time series 분석을 통해 상기 정의된 동작 중 어느 하나로 인지할 수 있 다.In addition, the motion recognition unit may recognize the measured external physical data as any one of the defined motions through time series analysis according to the passage of time.
또한, 상기 행동이론 기반의 행동인지 장치는 RFID 태그 정보, GPS 위치 정보, 가속도 정보 중 어느 하나 이상의 상기 외부 물리적 데이터를 계측하기 위한 계측부를 더 포함할 수 있다.The behavioral theory-based behavioral recognition device may further include a measurement unit for measuring the external physical data of any one or more of RFID tag information, GPS location information, and acceleration information.
본 발명의 다른 측면에 따르면, 사용자의 행동을 인지하는 행동인지 방법에 있어서, 계측된 외부의 물리적 데이터를 이용하여 미리 정의된 동작(operation) 중 어느 하나를 사용자의 동작으로 인지하는 단계; 및 하나 이상의 동작으로 이루어지는 행동(action)에 대한 정보인 학습 데이터를 이용하여 상기 동작 인지부에 의해 인지된 하나 이상의 인지 동작에 상응하는 사용자의 관측 행동을 판단하는 단계를 포함하는 행동이론 기반의 행동인지 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a method for recognizing a user's behavior, the method comprising: recognizing any one of a predefined operation as a user's motion by using measured external physical data; And determining the observed behavior of the user corresponding to one or more cognitive motions recognized by the motion cognition unit by using learning data that is information about an action consisting of one or more motions. There is provided a recording medium on which a recognition method and a program for executing the method are recorded.
여기서, 행동명, 동작에 대한 정보, 행동 수행 시각을 포함하는 복수개의 학습예제 데이터를 이용하여, 각 행동에 따른 발생 확률 , 상기 행동이 수행될 때 임의의 동작이 발생할 확률() , 행동 시간, 행동을 이루는 동작의 개수 및 세트(행동-동작 세트)를 포함하는 상기 학습 데이터를 생성하는 단계가 선행될 수 있다.Here, the occurrence probability according to each action using a plurality of learning example data including the action name, the action information, and the action execution time , The probability that any action will occur when the action is performed ( Generating the learning data, the action time, the number of actions that make up the action, and the set (action-action set).
또한, 상기 사용자의 관측 행동을 판단하는 단계는, 미리 저장된 각 행동에 따른 행동-동작 세트와 상기 동작 인지부에 인지된 동작 세트의 불일치 수를 비교 하여 패널티를 산출하는 단계; 및 상기 패널티를 적용하여 상기 인지 동작에 상응하는 관측 행동을 인지하는 단계를 포함할 수 있다.The determining of the observed behavior of the user may include: calculating a penalty by comparing a number of inconsistencies between an action-action set according to each pre-stored action and an action set recognized by the motion recognition unit; And applying the penalty to recognize the observation behavior corresponding to the cognition operation.
또한, 상기 관측 행동에 따른 정보를 표시하는 단계를 더 포함하되, 사용자로부터 피드백 데이터가 입력되면, 상기 피드백 데이터를 이용하여 상기 학습 데이터를 갱신할 수 있다.The method may further include displaying information according to the observed behavior. When feedback data is input from a user, the learning data may be updated using the feedback data.
본 발명에 따르면, 활동, 행동, 동작으로 구분되는 행동이론을 기반으로 하며, 사람의 행위의 가장 기초가 되는 행위인 동작을 제한하여 디바이스에서 처리 가능한 행동이론을 기반으로 하는 행동인지 방법 및 장치를 제공할 수 있다.According to the present invention, an action recognition method and apparatus based on a behavior theory divided into an activity, an action, and an action, and based on an action theory that can be processed in a device by limiting an action that is the most basic action of a person's action Can provide.
또한, 본 발명에 따르면, 미리 학습 데이터를 설정하여 행동인지를 위한 산출 방식을 간편하게 할 수 있어 휴대 디바이스와 같은 처리 능력이 작은 장치에서도 적용할 수 있는 효과가 있다.In addition, according to the present invention, it is possible to simplify the calculation method for behavior recognition by setting the learning data in advance, so that the present invention can be applied to a device having a small processing capability such as a portable device.
또한, 본 발명에 따르면 동작 및 시간에 따른 패널티를 부가하여 보다 정확하고 신뢰성이 높은 행동인지 방법을 제공할 수 있다.In addition, according to the present invention it is possible to provide a more accurate and reliable behavior recognition method by adding a penalty according to the operation and time.
또한, 본 발명은 인지되는 행동을 사용자로부터 피드백 받아 학습 데이터를 갱신함으로써, 자체적인 행동의 학습이 가능한 행동인지 방법 및 장치를 제공할 수 있다.In addition, the present invention can provide a method and apparatus for recognizing a behavior capable of learning its own behavior by receiving feedback from a user from a recognized behavior and updating the learning data.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
이하, 첨부한 도면들을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in describing the present invention with reference to the accompanying drawings, the same or corresponding elements are denoted by the same reference numerals regardless of the reference numerals, and duplicates thereof. The description will be omitted.
도 1은 본 발명의 일실시예에 따른 행동인지 장치의 구성을 도시한 블록도이고, 도 2는 일반적인 행동이론의 구조를 도시한 도면이고, 도 3은 본 발명의 일실시예에 따른 행동을 구성하는 동작들을 정의한 개념도이다.1 is a block diagram showing the configuration of a behavior recognition apparatus according to an embodiment of the present invention, Figure 2 is a view showing the structure of a general behavior theory, Figure 3 is a behavior according to an embodiment of the present invention This is a conceptual diagram that defines the operations that make up.
본 발명에 따른 행동인지 장치를 설명하기에 앞서, 행동이론에 대해 간략하게 설명하기로 한다.Prior to describing the behavioral recognition apparatus according to the present invention, the behavioral theory will be briefly described.
일반적인 행동이론은 사람에 의해 행해진 한 행동이 왜 이루어졌는지를 설명하기 위해 사용된다. 이러한 행동이론에 대한 연구는 심리학자 및 인류학자들에 의해 주로 이루어졌으나, 전통적인 행동이론들은 대부분 모호하며 명확한 범위와 주장하는 이론이나 모델을 적용하기 위한 선행조건들에 대한 정의 없이 선언적인 형태로 알려져 있다. 따라서 전통적인 행동이론을 그대로 행동 인지를 위해 사용하는 것은 사실상 거의 불가능하다.The general theory of behavior is used to explain why an action is done by a person. Although research on behavioral theories is mainly done by psychologists and anthropologists, traditional behavioral theories are mostly ambiguous and known in declarative form without defining the scope and prerequisites for applying the asserting theory or model. . Therefore, it is virtually impossible to use traditional behavior theory as it is for behavior recognition.
본 실시예에서는 이러한 행동이론을 컴퓨터에서 계산 가능한 모델로 변형하 고 이를 토대로 데이터를 표현한다. 행동이론은 구 소련에서 1920대에 제안된 이론으로 다양한 인간 행동을 설명하기 위해 행동을 유발할 수 있는 다양한 관계를 포함하도록 설계되어 있다. In this embodiment, this behavior theory is transformed into a computer-computable model and data is expressed based on this. Behavior theory is a theory proposed in the 1920s in the former Soviet Union and is designed to include a variety of relationships that can induce behavior to explain various human behaviors.
도 2를 참조하면, 행동이론은 크게 활동(activity), 행동(action) 및 동작(operation)으로 이루어져 있다. 활동(activity)은 장시간을 통해서 이루어지는 인간의 해동을 모델링하며 행동(action)의 집합으로 이루어진다. 활동은 특정 행동이 유발되는 이유를 설명할 수 있다. 행동은 활동보다 상대적으로 단시간에 이루어지는 행위를 나타내기 위해 사용된다. 행동은 항상 목적 지향적이며 이 목적을 위해서 수행된다. 행동은 동작(operation)의 연속으로 표현된다. 동작(Operation)은 행동이론의 최하위의 행위이며 어떤 목적을 위해서 사람이 주어진 현재의 상태에서 무의식적으로 하는 행위를 말한다. Referring to Figure 2, the behavioral theory is largely composed of activity (activity), action (action) and operation (operation). Activity models the thawing of humans over long periods of time and consists of a set of actions. An activity can explain why a particular action is triggered. Actions are used to represent actions that occur relatively shortly than activities. Action is always purpose-oriented and performed for this purpose. An action is represented as a sequence of operations. Operation is the lowest act of the theory of action and is the act of unconsciousness in a present state given to a person for some purpose.
이러한 전통적인 행동이론은 실세계에 적용하기가 어려울 정도로 모호성을 내포하고 있다. 특히 동작의 정의가 어려우며 동작과 행동과의 관계에서도 상황에 따라 동작 하나가 어떠한 행동이 되기도 한다. This traditional theory of behavior is so vague that it is difficult to apply to the real world. In particular, it is difficult to define an action, and even in the relationship between an action and an action, an action may be any action depending on the situation.
이에 따라 본 발명에서는 사람의 기본 행위인 동작을 정의하고 행동이론에 기반하는 행동인지 방법을 제공하고자 한다. 본 발명의 일실시예에 따르면, 동작(operation)을 도 3과 같이 인간의 기본동작을 타원으로 표현된 다섯 가지 기본 동작(머물기(stay), 잡기(hold), 이동하기(move), 만지기(touch) 및 놓기(release))으로 제한하고 이를 그래프 모델로 표현한다. 도 3에서 사각형으로 표현된 노드는 하나의 동작이 끝났음을 의미하는 것으로, 물론 별도의 동작은 아니며 하나 이상의 동작들로 하나의 행동이 결정될 수 있음을 표현하기 위한 의미상의 노드이다. Accordingly, the present invention is to define a behavior that is a basic behavior of a person, and to provide a method of behavior recognition based on behavior theory. According to one embodiment of the present invention, the operation (operation) as shown in Figure 3 the basic operation of the human being represented by five ellipses (stay, hold, move, touch ( touch) and release) and express it as a graph model. A node represented by a rectangle in FIG. 3 means that one operation is finished. Of course, the node is a semantic node for expressing that one action may be determined by one or more operations.
즉 본 발명의 일실시예에 따르면, 행동이론의 기본구조는 그대로 사용하면서 동작(operation)을 다섯 가지로 정의함으로써, 기존의 행동이론을 계산가능하게 만든다. 물론, 동작을 반드시 상기한 바와 같이 다섯 가지의 동작으로 제한할 필요는 없으며 이는 일실시예에 불과하다. 예를 들어, 계측 장치로서 텍타일 센서(textile sensor)를 이용하는 경우, 감지된 촉각 정보(거침, 부드러움 등)를 이용한 촉감 느끼기(textile)란 동작이 추가될 수도 있다.That is, according to an embodiment of the present invention, by using the basic structure of the behavior theory as it is defined as five (operation), the existing behavior theory makes it possible to calculate. Of course, the operation is not necessarily limited to the five operations as described above, which is merely an embodiment. For example, when a textile sensor is used as the measurement device, an operation called a textile using sensed tactile information (roughness, softness, etc.) may be added.
그리고, 본 발명에서는 상기한 동작(Operation)에 따른 행동(Action)을 인지하는 것을 위주로 설명하기로 하되, 행동들에 따른 활동을 인지하는 방법도 동작에 따른 행동 인지 방법과 동일 또는 유사하게 수행될 수 있음은 이하의 설명을 통해 당업자에게는 더욱 자명하게 될 것이다.In the present invention, a description will be mainly focused on recognizing the action according to the above operation, but the method of recognizing the activity according to the actions may be performed in the same or similar manner as the action recognition method according to the action. It will be more apparent to those skilled in the art through the following description.
이하, 본 발명에 따른 사용자의 행동을 인지하는 행동인지 장치에 대해 설명하기로 한다.Hereinafter, a device for recognizing a user's behavior according to the present invention will be described.
도 1을 참조하면, 본 실시예에 따른 행동인지 장치는 계측부(10), 동작 인지부(30), 행동 판단부(50), 입력부(70) 및 표시부(90)를 포함한다.Referring to FIG. 1, the behavior recognition apparatus according to the present embodiment includes a
행동인지 장치의 구성부 및 그 기능을 개략적으로 설명하자면, 계측부(10)는 사용자의 행동을 판단하기 위한 외부의 물리적 정보를 취득하기 위한 것이며, 동작 인지부(30)는 취득된 물리적 정보를 근거로 동작을 인지하며, 행동 판단부(50)는 인지된 하나 이상의 동작을 이용하여 사용자의 행동을 인지하도록 기능한다. 입력 부(70)는 사용자로부터 임의의 정보를 입력받기 위한 것이며, 표시부(90)는 인지된 행동에 대한 정보를 사용자에게 알리기 위한 것으로 예를 들어 LCD와 같은 디스플레이 장치일 수 있다.To explain the components of the behavior recognition device and its function schematically, the
이하 각 구성부의 기능을 상세히 설명한다. The function of each component is described in detail below.
계측부(10)는 사용자의 동작을 판단하기 위한 기초 데이터로써, GPS 수신기에 의한 위치 정보, RFID(Radio Frequency IDentification) 수신기에 의한 임의의 물체에 부착된 RFID의 태그 정보 등의 외부 물리정보를 계측하기 위한 것이다. 상기한 바와 같이 계측부(10)는 GPS 수신기, RFID 수신기, 가속도계(accelerometer) 등의 계측장치를 포함할 수 있으며 이로 인해, 계측부(10)는 GPS 수신기에 의한 위치 정보(x,y), RFID에 의한 태그 정보(해당 물체의 ID, 상세 정보(예를 들어, 위치 등)), 가속도계에 의한 측정값 등의 외부 물리정보를 취득할 수 있다. 물론 계측부(10)에 의해 취득되는 외부 물리정보로는 상기한 위치 정보, 태그 정보, 가속도 정보 외에도 상술한 바와 같이 텍타일 센서(textile sensor)에 의한 촉감 정보 등의 다른 정보도 더 포함될 수 있음은 당연하다. 여기서, 본 실시예에서는 행동인지 장치가 계측부(10)를 포함하는 것으로 설명하였으나, 다른 실시예에 따르면 계측부(10)는 별도의 장치로 구현될 수도 있다. 즉, 행동인지 장치는 계측부(10)와 유선 또는 무선으로 연결되고, 계측부(10)로부터 계측된 외부 물리정보를 수신할 수도 있다.The
계측된 외부 물리정보들은 행동이론을 바탕으로 인코딩된다. 일실시예에 따르면 계측 데이터의 표현 규칙은 하기의 표 1을 따른다. 동작(OP)은 계측 장치의 종류에 따라 결정될 수 있다. 예를 들어, 다섯 가지 기본정보 중 "MOVE"와 "STAY"는 GPS 수신기 또는 가속도계에 의한 계측 데이터를 이용하여 인지되며, "HOLD"와 "TOUCH" 그리고 "RELEASE"는 RFID 태그와 같은 전자태그 정보를 바탕으로 인지하게 된다. Measured external physical information is encoded based on behavioral theory. According to one embodiment, the rule of representation of measurement data follows Table 1 below. The operation OP may be determined according to the type of the measuring device. For example, "MOVE" and "STAY" of five basic information are recognized using measurement data by a GPS receiver or accelerometer, and "HOLD", "TOUCH" and "RELEASE" are electronic tag information such as RFID tag. Based on the perception.
RFID 태그 정보 및 GPS 정보를 사용자가 인식할 수 있는 문자로 변환하는 기능은 동작 인지부(30)에 의해 수행될 수 있으며, 이에 대한 정보는 미리 정의된 변환 테이블 또는 데이터베이스(미도시)를 이용하여 수행될 수 있다. 이해의 편의를 위해 하나의 예를 들면, ‘칼’이란 물체에 부착된 RFID 태그의 태그 정보가 해당 물체인 ‘칼’을 의미하는 ‘ID=0001’을 포함하는 경우, ‘RFID 0001=칼’이란 정보가 변환 테이블로써 저장되어 동작 인지부(30)에 의해 해당 물체가 칼이라는 것이 인지될 수 있다.The function of converting the RFID tag information and the GPS information into characters that can be recognized by the user may be performed by the
계측된 물리적 정보들은 동작 인지부(30)에 의해 Time series 분석을 통해 다섯 가지 정보 중 어느 하나로 표현된다. The measured physical information is represented by any one of five pieces of information through time series analysis by the
도 4는 본 발명의 일실시예에 따른 시간축에 따른 동작의 인지를 설명하기 위한 그래프이다.4 is a graph illustrating recognition of motion along a time axis according to an embodiment of the present invention.
계측된 정보들은 도 4와 같이 시간축에 따라 표현될 수 있다. 본 발명의 일실시예에 따르면, 동작 인지부(30)는 time series 분석 방법 중 slide windows 방식을 통해서 계측 데이터를 분석하여 동작을 인지한다. Slide windows 방식은 시작점으로부터 조건을 만족할 때 까지 windows를 연장하는 방식으로 도 4에서와 같이 time windows Δ를 미리 설정된 조건이 만족할 때 까지 확장한다. 예를 들어 "TOUCH"의 경우는 Δ를 “2”로 설정한 경우 Δ가 “3”인 경우에도 계측된 데이터는 표현 규칙에 따라 "TOUCH(ID, Location)"으로 변환된다. 여기서 TOUCH의 속성 값들로는 터치된 해당 물체의 태그 정보인 ID와 위치정보를 가질 수 있다.The measured information may be represented along the time axis as shown in FIG. 4. According to one embodiment of the invention, the
도 5는 본 발명의 일실시예에 따른 계측 데이터를 이용하여 인지된 동작을 나타낸 예시도이다. 도 5는 계측부(10)의 실제 계측 장치로부터 전송된 데이터를 바탕으로 동작 인지부(30)가 Time series 분석을 통해서 변형한 동작 데이터에 대한 일실시예를 보여준다. 5 is an exemplary view showing a recognized operation using the measurement data according to an embodiment of the present invention. FIG. 5 illustrates an embodiment of motion data modified by the
상기한 바와 같이 동작 인지부(30)는 계측부(10)에 의해 계측된 데이터(이하 계측 데이터)를 기반으로, 특정 동작을 결정한다. 예를 들어, GPS 수신기에 의한 위치 정보가 (x,y)에서 (a,b)로 변경된 경우, 사용자가 '이동하기(move)' 동작을 수행했음을 인지할 수 있다.As described above, the
각 동작을 나타내는 동작 데이터는 해당 동작에 따른 속성 정보를 가진다. 도 5에 도시된 바와 같이 MOVE의 경우에는 ‘move(location1, location2)’와 같이 이동하기 이전의 위치와 움직인 이후의 위치에 대한 위치 정보를 속성 정보로 가질 수 있다. 상기한 속성 정보를 이하에서는 ‘동작 속성’이라 칭하기로 한다.Action data representing each action has attribute information corresponding to the action. As shown in FIG. 5, in the case of MOVE, location information on a location before moving and a location after moving may be included as attribute information, such as 'move (location1, location2)'. The above attribute information will be hereinafter referred to as "operation attribute".
마찬가지로, 일실시예에 따르면 TOUCH는 접촉된 물체(ID) 및 그 위치(location)에 대한 정보를 속성 정보로 가질 수 있으며, RELEASE는 물체 및 위치, STAY는 위치 및 유지시간, 마지막으로 HOLD는 물체, 위치 및 유지시간을 속성 정보로 가질 수 있다.Similarly, according to an embodiment, the TOUCH may have information on the contacted object ID and its location as attribute information, where RELEASE is an object and a location, STAY is a location and a holding time, and finally HOLD is an object. , Location and maintenance time may be included as attribute information.
행동 판단부(50)는 동작 인지부(30)에 의한 하나 이상의 동작 정보를 이용하여 사용자의 행동이 무엇인지 판단하도록 기능한다. The
행동 판단부(50)는 도 1에 도시된 바와 같이 행동 학습부(52), 학습정보 저장부(54), 행동 인지부(56) 및 피드백 처리부(58)를 포함한다.The
행동 학습부(52)는 각 행동이 어떠한 시간에 어떤 동작들로 어떻게 이루어지는지를 학습하기 위한 것으로, 행동 학습부(52)에 의해 학습된 학습 데이터는 학습정보 저장부(54)에 저장된다. 학습 데이터로는 각 행동에 따른 하나 이상의 동작들에 대한 집합(이하, 행동-동작 세트(set)), 총 유지 시간(이하, 행동 시간), 수행 시각정보(여기서의 시각은 시, 분, 초를 말하는 절대시각 정보임, 이하 수행 시각), 수행되는 동작의 개수 등이 포함될 수 있다. 그리고 임의의 시간에 해당 행동이 수행될 확률이 학습 데이터로서 함께 이용될 수 있다. 정리하자면, 각 행동에 대한 학습 데이터로는 특정 행동이 해당 시간대에 발생할 확률 "", 특정 행동이 수행될 때 해당 동작이 발생할 확률"", 행동 시간, 행동에 따른 동작 개수 및 행동을 이루는 동작 세트(즉, 행동-동작 세트)가 있을 수 있다(도 7 또는 도 9 참조). 학습 데이터에 대해서는 도 7 및 도 9를 참조하여 상세히 후술하기로 한다.The
행동 인지부(56)는 학습정보 저장부(54)에 저장된 학습 데이터를 이용하여 동작 인지부(30)에 의한 하나 이상의 인식 동작(operation)에 따른 사용자의 행동(이하 관측 행동)을 인식하도록 기능한다. 즉, 행동 인지부(56)는 동작 인지부(30)에 의해 인식된 하나 이상의 동작들이 어떤 행동을 의미하는 것인지를 미리 저장된 학습 데이터를 이용하여 판단한다. 행동 인지부(56)의 기능 및 수행 방법은 후술하기로 하며, 이하 어떠한 방법으로 행동이 학습되어 학습 데이터가 설정되는지를 설명하기로 한다.The
우선, 최초 각 행동에 따른 학습 데이터는 하나 이상의 학습예제 데이터(도 7참조)에 의해 설정될 수 있다. 보다 정확한 학습 데이터의 설정을 위해 학습예제 데이터는 다수개가 이용되는 것이 바람직하다. 학습예제 데이터가 복수개인 경우, 행동 학습부(52)는 각 학습예제 데이터를 통계한 학습 데이터를 생성한다. 통계 방법은 후술하기로 한다.First, the training data according to each initial behavior may be set by one or more training example data (see FIG. 7). In order to more accurately set the training data, it is preferable that a plurality of training example data be used. When there are a plurality of learning example data, the
일실시예에 따르면, 학습예제 데이터는 사용자에 의해 입력부(70)를 통해 입력될 수 있다. 예를 들어, “저녁식사 준비”란 행동에 대한 학습 데이터로 {MOVE(A,주방), HOLD(칼,1분), TOUCH(냉장고,주방), STAY(주방,9분}에 따른 행동-동작 세트와 해당 행동이 시작되는 수행 시각(예를 들어 저녁 7시)이 입력될 수 있다. 여기서 행동의 전체 행동 시간은 최초의 동작 시작 시간관 마지막 동작 완료 시간의 차이로 인식될 수 있다. 이러한 학습예제 데이터가 하나의 행동에 대해 복수개가 입력되면, 복수개의 학습예제 데이터가 통계되어 학습 데이터가 설정된다. 학습예제 데이터는 학습정보 저장부(54)에 저장될 수 있으며, 또는 도시되지는 않았으나 별도로 구비된 학습예제 저장부에 저장될 수 있으며 행동 학습부(52)에 의해 참조되어 학습 데이터의 생성 및 갱신에 이용된다.According to an embodiment, the learning example data may be input by the user through the
도 6은 본 발명의 일실시예에 따른 학습예제 데이터의 설정을 위한 사용자 인터페이스를 도시한 예시도이다. 도 6을 참조하면, 사용자는 행동의 명칭을 정하고, 샘플로 제공되는 다수의 동작들 중 하나 이상을 선택하여 하나의 행동에 따른 학습예제 데이터를 생성할 수 있다. 다시 말해, 임의의 동작에 따른 학습예제 데이터가 사용자에 의해 정의되어 생성되는 것이다. 도면에 도시된 바와 같이, 휴식(Take a rest)이란 행동에 대해 네 개의 동작이 사용자에 의해 설정되는 것을 알 수 있다.6 is an exemplary diagram illustrating a user interface for setting learning example data according to an embodiment of the present invention. Referring to FIG. 6, a user may determine a name of an action and select one or more of a plurality of actions provided as a sample to generate learning example data according to one action. In other words, learning example data according to an operation is defined and generated by the user. As shown in the figure, it can be seen that four actions are set by the user for the action of Take a rest.
이렇게 복수의 학습예제 데이터를 입력하여 하나의 학습 데이터를 설정하는 이유는, 다수의 사용자마다 그 행동을 취하는 패턴이 상이할 수 있기 때문이며, 또한 동일한 사용자일지라도 그 행동을 취하는 패턴이 항상 동일하다고 볼 수 없기 때문이다. 따라서 행동 학습부(52)는 다수의 학습예제 데이터를 이용하여 학습 데이터를 설정하는 것이 바람직하다.The reason for setting one learning data by inputting a plurality of learning example data is that the pattern of taking the action may be different for a plurality of users, and even the same user may always be the same pattern of taking the action. Because it is not. Therefore, it is preferable that the
물론, 이후 사용자의 행위에 따라 관측되어 인지된 행동에 따른 실제 동작들에 대한 정보를 갖는 데이터(이하 “인지 행동 데이터“라 칭함)를 이용하여 기존의 학습 데이터가 변경될 수도 있다. 다시 말해, 인지된 행동에 따른 인지 행동 데이터는 피드백(feedback)되어 학습을 위한 학습예제 데이터로써 이용될 수 있음을 의미한다. Of course, the existing learning data may be changed by using data (hereinafter referred to as “cognitive behavioral data”) that has information about actual behaviors observed and recognized according to the behavior of the user. In other words, the cognitive behavioral data according to the recognized behavior may be fed back and used as learning example data for learning.
도 1에 도시된 피드백 처리부(58)에 의해 인지된 행동에 따른 인지 행동 데이터가 행동 학습부(52)에 의해 학습 데이터에 반영될 수 있다. 물론 실제 인지된 행동에 따른 인지 행동 데이터는 최초에 사용자에 의해 입력된 학습예제 데이터보다 가중치가 높을 수 있다. 피드백 처리부(58)의 상세한 기능은 후술하기로 한다. 따라서 학습이 많이 진행될수록 보다 정확히 사용자의 행동을 인지할 수 있게 된다. Cognitive behavioral data according to the behavior recognized by the
도 7은 본 발명의 일실시예에 따른 학습예제 데이터를 이용한 학습 데이터의 생성 개념을 도시한 테이블이다.FIG. 7 is a table illustrating a concept of generation of learning data using learning example data according to an embodiment of the present invention.
도 7을 참조하면, 학습예제 데이터로서 2개의 “저녁식사”와 1개의 “샤워”가 행동 학습부(52)에 입력되는 것을 예로 들었다. 먼저, 행동 “샤워”를 관찰하면, 시간 t분동안 동작 A,E,F,G,E가 수행되었다. 여기서, 행동-동작 세트를 설정하는 방법에는 크게 두가지 방법이 있을 수 있다. 첫 번째 방법은 동작의 순서 및 횟수가 모두 행동-동작 세트에 반영될 수 있으며, 두 번째 방법은 집합개념으로 횟수 및 순서가 반영되지 않도록 행동-동작 세트가 설정될 수도 있다. “샤워”의 행동-동작 세트는 첫 번째 방법에 따르면 {A,E,F,G,E}이고, 두 번째 방법에 따르면 {A,E,F,G}이다. 순서 및 횟수를 고려하지 않고 두 번째 방법을 이용하는 이유는 순서정보 및 발생횟수를 지정하면 시스템이 올바른 인지를 수행할 수 없게 될 우려가 있기 때문이다. 예를 들어, 사용자가 매번 샤워할 때 동일한 순서 및 횟수로 비누를 만지는 것이 아니므로, 집합개념으로 학습 데이터를 설정할 수 있다. 대신, 도면에 도시된 바와 같이 학습 데이터에는 각 행동을 이루는 동작의 개수가 포함된다. 상기한 두 번째 방식으로 행동-동작 세트를 이용할 경우 후술할 패널티 함수의 계산이 용이해진다.Referring to FIG. 7, two “dinners” and one “shower” are input to the
물론, 보다 정확한 행동 인지를 위해 행동-동작 세트는 동작의 순서 및 횟수를 고려하여 설정할 수 있음은 당업자에게는 자명할 것이다. 다만, 이하에서는 설명의 편의를 위해 행동-동작 세트는 순서 및 횟수를 고려하지 않는 경우를 가정하여 설명하기로 한다.Of course, it will be apparent to those skilled in the art that the action-action set may be set in consideration of the order and number of actions for more accurate action recognition. However, hereinafter, it will be described on the assumption that the action-action set does not consider the order and the number of times for convenience of description.
행동 “저녁식사”를 살펴보면, 두 개의 학습예제 데이터가 행동 학습부(52)에 입력됨을 알 수 있다. 이 경우 도면에 도시된 바와 같이 두개의 학습예제 데이터에 따른 행동 시간의 평균((t+t')/2)이 학습 데이터의 행동 시간으로 설정될 수 있다. 마찬가지로 동작 개수도 산술평균될 수 있다.Looking at the behavior “dinner”, it can be seen that two learning example data is input to the
도 7의 학습 데이터에 대한 테이블을 참조하면, 행동 학습부(52)는 상기한 바와 같이 특정 행동이 해당 시간대(여기서의 시간 정보는 시각 정보임)에 발생할 확률 ""특정 행동에 대해 해당 동작이 발생할 확률 "", 행동 시간, 행동에 따른 동작 개수 및 행동을 이루는 동작 세트(즉, 행동-동작 세트)에 대해 그 통계값을 산출하여 학습 데이터로써 저장한다.에 대해서는 도면에 도시되지 않았으나, 행동-동작 세트의 각 동작마다 가 산출되어 함께 학습 데이터로써 저장될 수 있다(관련 도면 도 9참조). 예를 들어, 행동 “샤워”의 동작 E의 는 2/5(0.4)일 수 있다.Referring to the table of the training data of FIG. 7, the
본 실시예에서는 의 학습을 위해서 하기의 수학식 1과 같은 포아송 분포를 이용할 수 있다. 포아송 분포를 이용하는 이유는 행동과 시간과의 관계를 유지하기 위해서이다. 즉, 특정 시간대에 이루어지는 특정한 행동을 모델에 반영하고 이를 이용하여 인지의 성능을 높이기 위해서 사용한다. In this embodiment For learning the Poisson distribution as shown in
여기서 행동이 발생한 시간을 의미하며 은 전체 샘플의 개수(즉, 학습예제 데이터의 개수)를 의미한다. here Means when the action occurred Means the total number of samples (ie, the number of learning example data).
그리고 의 학습을 위해서 수학식 2와 같은 maximum likelihood estimation을 이용한다.And For learning, we use the maximum likelihood estimation as in
수학식 2에서 는 가상값이며 일반적으로 샘플의 크기만큼 설정되며 는 작은 값으로 설정된다. In equation (2) Is an imaginary value, typically set to the size of the sample Is set to a small value.
행동 시간은 특정 행동 를 이루고 있는 동작 중 첫 번째 동작 과 마지막 동작 의 차이를 통해 개별 행동의 유지시간을 산출할 수 있으며 학습 예제에서 같은 개별행동의 산술평균을 통해서 평균 행동 시간을 얻을 수 있다. Action time is a specific action The first one that makes up And last action The difference in time can be calculated from the retention time of individual behaviors, and in the learning example, the average behavior time can be obtained from the arithmetic mean of the same individual behaviors.
또한, 행동 를 이루고 있는 평균 동작(operation)의 수는 하나의 행동이 몇 개의 동작으로 이루어져 있는지 셀 수 있고, 평균 행동 시간과 같이 학습예제 전체를 통해서 산술평균값으로 얻을 수 있다(도 7 참조).Also, act The average number of operations making up the number of operations can be counted as a number of operations, and can be obtained as an arithmetic mean value through the whole learning example as the average time of action (see FIG. 7).
또한, 마찬가지로 행동 를 이루는 동작의 세트 즉 행동-동작 세트는 학습예제 전체를 통해서 산출할 수 있는데, 그 산출 방법은 다양하게 이용될 수 있다. 하나의 예를 들자면, 학습예제 전체 중 80% 이상 포함되는 동작들의 집합이 행동-동작 세트로 설정될 수 있다. 물론, 이에 한정되는 것은 아니며 다른 예를 하나 더 들면, 각 동작의 이 일정 수치 이상인 동작들로만 구성되도록 행동-동작 세트가 설정될 수도 있다.Also, act as The set of actions constituting the action, that is, the action-action set may be calculated through the entire learning example, and the calculation method may be used in various ways. As an example, a set of actions included in more than 80% of all learning examples may be set as an action-action set. Of course, the present invention is not limited thereto. For another example, An action-action set may be set to consist only of actions that are above this certain number.
정리하면, 행동 학습부(52)는 다수의 학습예제 데이터를 이용하여 각 행동들에 대해 통계하며, 이에 따른 데이터를 학습 데이터로써 학습정보 저장부(54)에 저 장한다. In summary, the
이하, 실제 학습 데이터가 저장되는 형식에 대해 설명하기로 한다.Hereinafter, the format in which the actual learning data is stored will be described.
도 8은 본 발명의 일실시예에 따른 학습 데이터의 형식을 도시한 도면이다. 도 8을 참조하면, 행동 인덱스(810)는 하나의 행동에서 발생되었던 모든 동작들과 행동이 가지는 시간정보(행동 시간), 시각정보(행동이 수행된 시각 정보)를 가지고 있다. 참조번호 810은 "Prepare dinner"라는 행동에 대한 정의이며 "#"은 행동의 시작을 의미한다. "TIMEZONE"은 이 행동이 주로 발생한 시간의 평균 시간대(시각정보임)를 의미한다. "AD"는 행동의 평균 행동 시간이며 "AO"는 평균적으로 발생한 동작의 수를 의미한다. "PRIOR"는 행동이 얼마나 빈번하게 발생하는지를 나타내는 학습된 파라미터이다. "PRIOR P 18.77"은 학습된 파라미터가 포아송 분포에 따른 파라미터로 그 값이 "18.77"임을 나타낸다. 즉, PRIOR의 값을 이용하여 해당 시간대의 가 산출될 수 있다.8 is a diagram illustrating a format of learning data according to an embodiment of the present invention. Referring to FIG. 8, the
동작 인덱스(830)는 동작들에 대한 색인 파일로 "#"은 동작의 시작을 의미하며 각각의 동작이 포함된 행동에서 발생할 확률값을 가진다. 예를 들어 "plates cupboard"를 주방에서 들고 있는 동작 "HOLD(Plates Cupboard, K)“는 "Prepare Breakfast"와 "Leave House"라는 행동에서 발생했으며 각각의 발생 확률은 대략 0.56, 0.35임을 나타내고 있다. 본 실시예에서 이와 같은 내용을 저장하는 이유는 본 실시예에 따른 행동인지 장치가 모바일 디바이스로 구현되는 경우, 보다 빠르게 데이터 처리를 수행하기 위해서이다. 실제 행동인지 장치의 학습정보 저장부(54)에는 학습 데이터가 도면에 도시된 행동 인덱스(810) 및 동작 인덱스(830)의 "#"뒤에 나타나는 행동 이름과 동작 이름을 키로 사용하는 해쉬 테이블 등으로 구현될 수 있다.The
이하에서는 행동 인지부(56)가 학습정보 저장부(54)에 저장된 학습 데이터를 이용하여, 동작 인지부(30)가 인지한 동작 데이터에 상응하는 사용자의 관측 행동을 인지하는 방법에 대해 설명하기로 한다.Hereinafter, a method of recognizing a user's observed behavior corresponding to the motion data recognized by the
본 발명의 일실시예에 따르면, 행동 인지부(56)는 0-other 마코프 모델을 사용한다. 일반적으로 고차원 마코프 모델이 성능이 좋은 것으로 알려져 있으나 고차원 마코프 모델을 사용하는 경우 고려해야하는 상황이 기하급수적으로 증가하여 모바일 디바이스와 같은 장비에서는 계산이 불가능할 수 있다. 하지만 0-order 마코프 모델을 사용하는 경우 앞에서 언급한 것과 같이 학습은 가능할 수 있으나 학습 결과를 토대로 사용자의 행동을 인지하는 단계에서 성능의 저하가 발생할 수 있다.According to one embodiment of the invention, the
본 실시예에서는 이러한 문제를 해결하기 위해 패널티(penalty) 함수를 도입하여 행동을 인지하는데 이용한다. In this embodiment, to solve this problem, a penalty function is introduced and used to recognize the behavior.
행동 인지부(56)는 하기의 수학식 3을 이용하여 인지된 동작들에 따른 관측 행동을 인식한다. 사용자의 상황 (o,t)가 주어졌을 때 가장 발생 가능한 행동 는 사용자가 시간 t-1까지한 동작으로 인식된다.The
여기서 행동인지를 위해, 특정 행동에 대해 발생할 확률 ""및 특정 행동 수행 시 해당 동작이 발생할 확률""는 학습 데이터로서 미리 저장되어 있으므로, 만을 산출하면 된다.Whether it's a behavior here, the probability that "And the probability that the action will occur when you perform that action" "Is pre-stored as training data, Calculate only.
상기한 수학식 3에서는 패널티 함수이다. 수학식 3을 해석하자면, 특정 행동의 발생 확률와 해당 행동에서의 특정 동작의 발생 확률을 이용한 수치 를 패널티 함수 로 나누어 각 행동에 대한 패널티가 부여된 수치를 이용하여 인지된 동작들에 따른 행동을 판단하는 것이다.In Equation 3 above Is a penalty function. To interpret Equation 3, the probability of occurrence of a specific behavior And numerical value using probability of occurrence of a specific action in the action Penalty function By dividing by, it is used to determine the behavior according to the perceived movements using the numerical value assigned to each action.
본 실시예에서는 상기한 패널티 함수에 대해 두 가지 해석 방법을 사용할 수 있다. 첫 번째 해석방법은 학습단계에서 산출된 행동의 평균 진행 시간(즉 행동 시간)을 고정시키고, 해당 행동 시간 안에 발생한 인식 동작 세트와 학습 시에 학습한 행동-동작 세트와의 불일치 정도를 산출하고 이를 패널티로 부과하는 것이다. 두 번째 해석방법은 불일치 정도를 최소화하기 위해 평균 행동 시간을 확장하는 방법이다. 이 때 하나의 예로써 확장될 수 있는 시간의 최대값은 평균시간의 편차(즉, 학습예제 데이터를 이용하여 통계한 행동 시간의 편차)를 이용할 수 있다. In this embodiment, two interpretation methods can be used for the penalty function. The first interpretation method fixes the average progress time (ie behavior time) of the behaviors calculated in the learning phase, calculates the degree of inconsistency between the set of cognitive behaviors that occurred within the behavior time and the behavior-action set learned during the learning, and then It is a penalty. The second method is to extend the average action time to minimize the degree of inconsistency. At this time, as an example, the maximum value of the time that can be extended may use the deviation of the average time (that is, the deviation of the behavior time statistically calculated using the learning example data).
상기한 패널티 함수를 적용하는 방법을 예시하기 위해, 도 7을 함께 참조하기로 한다. 도 7에 도시된 학습 데이터를 참조하면, To illustrate how to apply the penalty function described above, reference is made to FIG. 7 together. Referring to the training data shown in Figure 7,
(예제)(example)
1. 학습 데이터(도 7참조)1. Training data (see Figure 7)
1)저녁식사 학습 : 행동 시간 t분, 행동-동작 세트 {A,B,C,D,H}1) Dinner lesson: t minutes of action, action-action set {A, B, C, D, H}
2)샤워 학습 : 행동 시간 t분, 행동-동작 세트 {A,E,F,G}2) Shower Learning: Action Time t Minutes, Action-Action Set {A, E, F, G}
2. 실제 관측된 동작(즉, 동작 인지부(30)에 의해 인지된 하나 이상의 동작)2. Actually observed motion (ie one or more motions recognized by motion recognition unit 30)
소요 시간 t분 동안 인지된 동작 (A,B,C,D,B,E), t분 이후 t'분 동안 인지된 동작 - (H)]Actions recognized for t minutes (A, B, C, D, B, E), actions recognized for t 'minutes after t minutes-(H)]
만일 행동 시간을 고정한 상태에서의 행동 패널티를 산출하자면, 학습 데이터의 행동-동작 세트에서 인지된 행동에 따른 행동 데이터의 인지 동작 세트를 차감한 값이 행동 패널티로 산출된다. 상기한 예제를 적용해 보면, 저녁식사 행동 패널티는 1이고, 샤워 행동 패널티는 2일 수 있다. 저녁식사의 동작 집합 {A,B,C,D}에서 관측된 동작 집합{A,B,C,D,E}를 차감한 결과 1({H})이 저녁식사의 행동 패널티이고, 마찬가지로 샤워 동작 집합 {A,E,F,G}에서 관측된 동작 집합{A,B,C,D,E}를 차감한 결과 2({F,G})가 샤워의 행동 패널티이다. 이하에서는 동작 집합의 패널티를 “동작 불일치”라 칭하기로 한다. 즉 저녁식사의 동작 불일치는 1, 샤워의 동작 불일치는 2이다.If the behavior penalty is fixed with the behavior time fixed, the behavior penalty is calculated by subtracting the cognitive behavior set of the behavior data according to the perceived behavior from the behavior-action set of the training data. Applying the example above, the dinner behavior penalty may be one and the shower behavior penalty may be two. Subtracting the observed motion set {A, B, C, D, E} from the dinner set {A, B, C, D} for dinner, 1 ({H}) is the behavioral penalty for dinner, and similarly showers Subtracting the observed motion set {A, B, C, D, E} from the motion set {A, E, F, G}, 2 ({F, G}) is the behavior penalty of the shower. In the following, the penalty of an action set will be referred to as "operation mismatch". In other words, the dinner discrepancy is 1, and the shower discrepancy is 2.
다른 실시예에 따른 행동 시간을 확장하는 방법에 따른 행동 패널티를 산출하자면, 추가시간 t'분 동안 관측된 동작은 H이며 이에 따르면 저녁식사의 동작 불일치는 0이 되고, 샤워의 동작 불일치는 그대로 2({F,G})가 됨을 알 수 있다.To calculate the behavioral penalty according to the method of extending the behavioral time according to another embodiment, the motion observed during the additional time t 'minutes is H, and accordingly, the motion inconsistency of the dinner becomes 0, and the motion inconsistency of the shower remains 2 It can be seen that ({F, G}).
순서 및 발생횟수를 별도로 고려하지 않고 집합(set)만을 이용하더라도, 각 행동에서 취하는 동작마다 서로 상이하기 때문에 행동인지가 가능하게 된다. 예를 들어, 저녁식사에서는 포크를 쥘 수 있지만, 샤워에서는 포크를 쥐는 동작이 거의 수행되지 않기 때문이다. 따라서 각 행동 마다 서로 겹치는 동작이 많이 발생하지 않아 집합(set) 개념에서 불일치수를 산출하더라도 하나의 행동을 인지하는데 큰 어려움이 없게 된다.Even if only a set is used without considering the order and the number of occurrences separately, it is possible to recognize an action because the actions taken in each action are different from each other. For example, you can remove the fork at dinner but rarely hold the fork in the shower. Therefore, each action does not have many overlapping actions, so even if the number of discrepancies is calculated in the set concept, there is no great difficulty in recognizing one action.
도 9는 본 발명의 일실시예에 따른 행동 패널티의 산출 방법을 도시한 개념도이다.9 is a conceptual diagram illustrating a method of calculating a behavior penalty according to an embodiment of the present invention.
도 9를 참조하면, 참조번호 950은 이미 학습된 행동 의 동작(operation)들을 보여주고 있으며, 참조번호 910은 첫 번째 해석방법(행동 시간 고정)을, 그리고 참조번호 930은 두 번째 해석방법(행동 시간 확장)을 설명하고 있다. 행동 시간 고정 방법(910)에서는 상술한 것과 같이 현재 진행된 동작들이 인지를 판별하기 위해서 의 평균 행동 시간을 고정()하고 의 동작과 도면에 나타난 동작 집합과의 불일치한 동작의 수를 통해서 패널티를 받게 된다. 행동 시간 확장 방법(930)은 평균 행동 시간을 확장()한 후 도면과 같은 방식으로 불일치 정도를 따져 패널티를 받게 된다.9,
표 2는 패널티의 부과를 상황에 따라 도표화 한 것이다.Table 2 charts the imposition of penalties according to circumstances.
따라서 두개의 패널티 함수가 필요하지만 본 발명에서는 수학식 4와 같은 지수분포(exponential distribution)를 시간과 행동의 불일치를 위한 패널티 함수로 사용한다. Therefore, although two penalty functions are required, the present invention uses an exponential distribution such as Equation 4 as a penalty function for inconsistency between time and behavior.
수학식 4에서 지수분포의 는 동작의 불일치된 개수이며 파라미터 는 1.2이하의 작은 값을 사용한다. 시간에 대한 패널티 는 동작 불일치 지수분포를 따르는 와 같이 계산할 수 있다.Of the exponential distribution in equation (4). Is the mismatched number of actions Uses a value less than 1.2. Penalty for time Follows the behavior mismatch exponential distribution It can be calculated as
그리고 최종 패널티는 수학식 5와 같이 각 패널티에 가중치를 부여하여 필요에 따라 비중을 달리 할 수 있도록 한다.The final penalty is weighted to each penalty as shown in
여기서, 본 실시예에서는 행동 시간 확장의 경우, 시간 패널티와 동작 불일치 수를 함께 행동 패널티로 이용하는 경우를 예로 들었으나, 반드시 이에 한정될 필요는 없으며 행동 시간 확장 시에도 시간 패널티는 가하지 않고 불일치 수만을 행동 패널티로 이용할 수도 있다. 임의의 동작은 매번 동일한 행동 시간을 가질 경우가 크지 않으므로, 미리 지정된 어느 정도의 시간은 패널티 없이 확장될 수 있기 때문이다.In this embodiment, in the case of extending the behavior time, the time penalty and the number of motion inconsistency are used as an action penalty. However, the present invention is not necessarily limited thereto. It can also be used as an action penalty. Since any operation is not likely to have the same action time each time, a predetermined amount of time can be extended without penalty.
이하에서는 행동 판단부(50)의 피드백 처리부(58)의 기능에 대해 설명하기로 한다. 피드백 처리부(58)는 행동 인지부(56)에서 인지한 결과를 표시부(90)를 통해 사용자에게 알려주고 그 결과가 맞는지에 대한 피드백을 입력부(70)를 통해 입력받아 인지가 잘못된 경우 학습한 모델에 따라 학습 데이터를 수정하도록 행동 학습부(52)를 제어하는 기능을 수행한다.Hereinafter, the function of the
도 10은 본 발명의 일실시예에 따른 사용자 피드백에 의해 인지된 행동을 이용한 학습 데이터의 갱신을 위한 사용자 인터페이스를 예시한 도면이다.FIG. 10 illustrates a user interface for updating learning data using behaviors recognized by user feedback according to an embodiment of the present invention.
도 10을 참조하면, 피드백 처리부(58)는 참조번호 1010과 같은 행동 인지부(56)로부터 인지된 인식 행동 데이터에 따른 정보를 포함한 행동 결과 화면을 표시부(90)를 통해 사용자에게 표시하고 인지된 정보가 맞는지를 입력부(70)를 통해 사용자로부터 입력받는다. 이때 사용자가 인지된 정보가 맞다고 선택하는 경우는 추가적인 작업이 필요 없지만, 만약 사용자가 인지된 정보가 맞지 않다고 선택하는 경우 피드백 처리부(58)는 참조번호 1030과 같은 수정 화면을 출력한다. 수정 화면에서는 행동 인지부(56)에서 현 행동으로 판단하게 된 동작들을 보여주고 잘못된 부분을 사용자로부터 입력받게 된다. 피드백 처리부(58)는 이렇게 수정된 데이터(동작 또는 행동 명칭 등)를 행동 학습부(52)로 전송하여 잘못 인지된 행동과 사용 자가 입력한 행동에 대한 모델 수정을 지시하게 된다. 행동 학습부(52)는 피드백 처리부(58)로부터 수신된 데이터(이하 피드백 데이터)를 학습예제 데이터로써 이용하여 학습 데이터를 갱신한다. 물론, 피드백 처리부(58)로부터 수신된 피드백 데이터는 학습예제 데이터보다 가중치가 더해져 학습 데이터 갱신에 이용될 수 있다. Referring to FIG. 10, the
피드백 데이터에 의한 학습 데이터의 갱신에 대한 하나의 예를 들면, 인지된 행동이 “저녁식사 준비”였으나, 사용자의 피드백 결과 실제 수행된 행동은 “설거지”인 경우, 피드백 처리부(58)는 인지 행동 데이터와 실제 행동의 명칭 “설거지”이에 대한 정보를 행동 학습부(52)로 제공한다. 이에 따라 행동 학습부(52)는 피드백 데이터를 행동 “설거지”에 대한 학습 데이터에 반영하여 수정한다. As an example of updating the training data by the feedback data, if the perceived behavior was "preparation for dinner," but the user's feedback actually performed the action "washing dishes," the
정리하자면 행동의 인지가 잘못된 경우, 피드백 화면에서 관측된 동작들을 보여주고, 사용자가 잘못된 동작을 제거 또는 추가하게 되면 피드백된 정보를 기반으로 사용자의 학습 모델이 수정(즉, 학습 데이터가 수정)된다.In summary, when the behavior is not recognized, the feedback screen shows the observed motions, and when the user removes or adds the wrong motion, the user's learning model is modified based on the feedback information (ie, the training data is modified). .
다른 예를 하나 더 들면, 저녁식사 행동으로 관측된 동작이 A, B가 있으며 각 동작은 2번, 3번이 수행된 경우를 가정한다. 여기서, 피드백에 의해 첫 번째 동작이 제거된 경우, 저녁식사의 동작 A, B는 각각 1번, 3번으로 나타난 것으로 수정된다. 따라서 해당 행동에서 동작 A가 발생할 확률 는 처음 2/5에서 1/4로 수정된다.As another example, it is assumed that there are A and B motions that are observed as dinner behaviors, and 2 and 3 motions are performed. Here, when the first operation is removed by the feedback, the operations A and B of dinner are corrected to appear as 1 and 3 times, respectively. Therefore, the probability that action A will occur in the action Is modified from the first 2/5 to 1/4.
이하, 본 발명에 따른 행동인지 장치의 행동인지 수행 과정을 설명하기로 한다.Hereinafter, a description will be given of the process whether the behavior of the device according to the present invention.
도 11은 본 발명의 일실시예에 따른 행동인지 과정을 도시한 흐름도이다.11 is a flowchart illustrating a behavior recognition process according to an embodiment of the present invention.
도면을 참조하여 행동인지 과정을 설명하는데 있어, 학습예제 데이터를 이용한 학습 데이터의 설정, 학습 데이터를 이용한 사용자의 행동 인지, 사용로부터의 피드백 데이터를 이용한 학습 데이터의 갱신 방법은 행동인지 장치의 기능을 설명하며 상술하였으므로 중복되는 설명은 생략한다.In describing the behavior cognition process with reference to the drawings, the method of setting learning data using learning example data, user's behavior recognition using learning data, and updating the learning data using feedback data from the use is a function of the behavior recognition device. Since it has been described and described above, duplicate description thereof will be omitted.
도 11을 참조하면, 행동인지 장치는 사용자의 동작에 따른 외부 물리정보에 근거한 사용자 동작을 인지한다(S100). 전술한 바와 같이 행동인지 장치는 RFID 태그 정보, GPS 위치정보 등의 외부 물리정보를 취득하기 위한 계측 장치를 구비하여 자신이 직접 상기한 바와 같은 외부 물리정보를 취득하거나, 연결된 외부의 계측 장치로부터 수신되는 외부 물리정보에 따른 계측 데이터에 상응하는 동작을 인지할 수도 있다. 따라서 행동인지 장치는 인지된 외부 물리정보에 근거하여 MOVE, HOLD, RELEASE, TOUCH, STAY 중 어느 하나에 따른 사용자의 동작을 인지한다.Referring to FIG. 11, the behavior recognition apparatus recognizes a user's motion based on external physical information according to the user's motion (S100). As described above, the behavior recognition device includes a measurement device for acquiring external physical information such as RFID tag information and GPS location information, and directly acquires the external physical information as described above, or receives it from a connected external measurement device. An operation corresponding to measurement data according to external physical information may be recognized. Therefore, the behavior recognition device recognizes a user's motion according to any one of MOVE, HOLD, RELEASE, TOUCH, and STAY based on the recognized external physical information.
이후, 행동인지 장치는 현재까지 인지된 동작들이 어떠한 행동인지를 미리 학습되어 저장된 학습 데이터를 이용하여 판단한다(s102). 만일 인지된 동작의 수가 적거나 어떠한 행동도 인지되지 않으면, 다시 s100으로 진행하여 다음 동작을 인지한다.Thereafter, the behavior recognition apparatus determines whether the behaviors recognized to date are previously learned using stored learning data (S102). If the number of recognized motions is small or no behavior is recognized, the process proceeds to s100 again to recognize the next motion.
이전까지 인지된 동작들에 상응하는 행동에 대한 학습 데이터가 존재한다면, 해당 학습 데이터에 따른 행동을 사용자의 행동으로 인지한다(s104). 즉 행동인지 장치는 현재까지 관측된 사용자의 동작들에 상응하는 행동을 인지한다. If there is learning data on the behavior corresponding to the previously recognized behaviors, the behavior according to the corresponding learning data is recognized as the user's behavior (s104). That is, the behavior recognition device recognizes a behavior corresponding to the user's motions observed to date.
인지된 행동에 대한 정보는 사용자에게 표시된다(s106).Information about the perceived behavior is displayed to the user (s106).
행동인지 장치는 사용자로부터 피드백 데이터가 입력되는지 여부를 판단하고(s108), 피드백 데이터가 입력되는 경우 해당 피드백 데이터에 따른 학습 데이터를 갱신한다(s110).The behavior determining apparatus determines whether feedback data is input from the user (s108), and when the feedback data is input, updates the learning data according to the feedback data (s110).
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드디스크, 광자기디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented in a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).
또한, 상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다. In addition, preferred embodiments of the present invention described above are disclosed for the purpose of illustration, those skilled in the art will be able to various modifications, changes, additions within the spirit and scope of the present invention, such modifications, Modifications and additions should be considered to be within the scope of the following claims.
도 1은 본 발명의 일실시예에 따른 행동인지 장치의 구성을 도시한 블록도.1 is a block diagram showing the configuration of a behavior recognition apparatus according to an embodiment of the present invention.
도 2는 일반적인 행동이론의 구조를 도시한 도면.2 illustrates the structure of a general theory of behavior.
도 3은 본 발명의 일실시예에 따른 행동을 구성하는 동작들을 정의한 개념도.3 is a conceptual diagram defining actions constituting an action according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 시간축에 따른 동작의 인지를 설명하기 위한 그래프.Figure 4 is a graph for explaining the recognition of the motion along the time axis according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따른 계측 데이터를 이용하여 인지된 동작을 나타낸 예시도.5 is an exemplary view showing a recognized operation using the measurement data according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 학습예제 데이터의 설정을 위한 사용자 인터페이스를 도시한 예시도.6 is an exemplary diagram illustrating a user interface for setting learning example data according to an embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 학습예제 데이터를 이용한 학습 데이터의 생성 개념을 도시한 테이블.7 is a table illustrating a concept of generation of learning data using learning example data according to an embodiment of the present invention.
도 8은 본 발명의 일실시예에 따른 학습 데이터의 형식을 도시한 도면.8 illustrates a format of learning data according to an embodiment of the present invention.
도 9는 본 발명의 일실시예에 따른 행동 패널티의 산출 방법을 도시한 개념도.9 is a conceptual diagram illustrating a method of calculating a behavior penalty according to an embodiment of the present invention.
도 10은 본 발명의 일실시예에 따른 사용자 피드백에 의해 인지된 행동을 이용한 학습 데이터의 갱신을 위한 사용자 인터페이스를 예시한 도면.FIG. 10 illustrates a user interface for updating learning data using behaviors perceived by user feedback in accordance with one embodiment of the present invention. FIG.
도 11은 본 발명의 일실시예에 따른 행동인지 과정을 도시한 흐름도.11 is a flowchart illustrating a behavior recognition process according to an embodiment of the present invention.
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080129680A KR100982164B1 (en) | 2008-12-18 | 2008-12-18 | Method and device for recognition of human activity based on activity theory |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080129680A KR100982164B1 (en) | 2008-12-18 | 2008-12-18 | Method and device for recognition of human activity based on activity theory |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100070929A KR20100070929A (en) | 2010-06-28 |
KR100982164B1 true KR100982164B1 (en) | 2010-09-14 |
Family
ID=42368599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080129680A KR100982164B1 (en) | 2008-12-18 | 2008-12-18 | Method and device for recognition of human activity based on activity theory |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100982164B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9043251B2 (en) | 2012-07-06 | 2015-05-26 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102554848B1 (en) | 2022-10-31 | 2023-07-12 | 주식회사 디퍼아이 | Behavioral cognitive apparatus and method therefor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003102077A (en) | 2001-09-25 | 2003-04-04 | Matsushita Electric Ind Co Ltd | Home electric appliance controller, home electric appliance and home electric appliance network system |
KR20050118822A (en) * | 2004-06-15 | 2005-12-20 | 한국과학기술원 | Learning method based on inhabitant's behavioral pattern in the intelligent residential space |
KR20070061078A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | System and method for interfacing between human and service robot based on action |
-
2008
- 2008-12-18 KR KR1020080129680A patent/KR100982164B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003102077A (en) | 2001-09-25 | 2003-04-04 | Matsushita Electric Ind Co Ltd | Home electric appliance controller, home electric appliance and home electric appliance network system |
KR20050118822A (en) * | 2004-06-15 | 2005-12-20 | 한국과학기술원 | Learning method based on inhabitant's behavioral pattern in the intelligent residential space |
KR20070061078A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | System and method for interfacing between human and service robot based on action |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9043251B2 (en) | 2012-07-06 | 2015-05-26 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors |
US10332011B2 (en) | 2012-07-06 | 2019-06-25 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing representative user behavior based on recognition of unit behaviors |
Also Published As
Publication number | Publication date |
---|---|
KR20100070929A (en) | 2010-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10217027B2 (en) | Recognition training apparatus, recognition training method, and storage medium | |
Chien et al. | Data-driven innovation to capture user-experience product design: An empirical study for notebook visual aesthetics design | |
CN106446488B (en) | risk assessment system and data processing method | |
KR101960835B1 (en) | Schedule Management System Using Interactive Robot and Method Thereof | |
Minor et al. | Forecasting occurrences of activities | |
EP1975783A1 (en) | Method and system for adapting a user interface of a device | |
US20110125700A1 (en) | User model processing device | |
US20100318576A1 (en) | Apparatus and method for providing goal predictive interface | |
Chikhaoui et al. | A frequent pattern mining approach for ADLs recognition in smart environments | |
JP6437376B2 (en) | Decision support system and decision support method | |
CN112368720A (en) | Information processing apparatus, information processing method, and program | |
KR100982164B1 (en) | Method and device for recognition of human activity based on activity theory | |
CN109117071A (en) | A kind of control method for screen display and device | |
CN106886294A (en) | A kind of input method error correction method and device | |
JP2018500686A (en) | Confirm merchant business circle information | |
CN109189437A (en) | Software upgrading reminding method, device, computer equipment and readable storage medium storing program for executing | |
KR20100137963A (en) | Apparatus and method for activity pattern extraction and intention inference using incremental statistical methods | |
US11928163B2 (en) | Apparatus, method and computer program for creating digital memories for a particular person | |
JP2020021226A (en) | QOL analysis device and program | |
US11836587B2 (en) | System and method for real-time artificial intelligence situation determination based on distributed device event data | |
CN111797874A (en) | Behavior prediction method, behavior prediction device, storage medium and electronic equipment | |
CN115237967A (en) | Scene recommendation method, electronic device, storage medium and product | |
US20210097884A1 (en) | Work support apparatus, work support system, and work support method | |
KR20130014332A (en) | Method and apparatus for perceiving emotional state of user | |
CN116917923A (en) | Content recommendation system, content recommendation method, content library, method for generating content library, and target input user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130628 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140703 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150526 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160701 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |