KR101369810B1 - Empirical Context Aware Computing Method For Robot - Google Patents

Empirical Context Aware Computing Method For Robot Download PDF

Info

Publication number
KR101369810B1
KR101369810B1 KR1020100032792A KR20100032792A KR101369810B1 KR 101369810 B1 KR101369810 B1 KR 101369810B1 KR 1020100032792 A KR1020100032792 A KR 1020100032792A KR 20100032792 A KR20100032792 A KR 20100032792A KR 101369810 B1 KR101369810 B1 KR 101369810B1
Authority
KR
South Korea
Prior art keywords
empirical
model
situation
step
interaction
Prior art date
Application number
KR1020100032792A
Other languages
Korean (ko)
Other versions
KR20110113414A (en
Inventor
이초강
Original Assignee
이초강
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이초강 filed Critical 이초강
Priority to KR1020100032792A priority Critical patent/KR101369810B1/en
Publication of KR20110113414A publication Critical patent/KR20110113414A/en
Application granted granted Critical
Publication of KR101369810B1 publication Critical patent/KR101369810B1/en

Links

Images

Abstract

본 발명은 로봇을 위한 경험적 상황인식 방법에 관한 것으로, 로봇의 인간 또는 로봇과 같은 주체와의 상호작용을 발생시키고 변화시키는 요인으로 인한 상황 및 그 상황에서 나타나는 상호작용의 경험적 사실을 고려하여 그것의 경험적 관계와 확률관계를 통해 상황에 대한 상호작용("상황: 상호작용")이라는 경험적 모델을 대상으로 하여 상황을 인지하고 미지의 환경이나 정보에 대해 스스로 경험을 통해서 적응하고 배워가는 학습의 능력을 수행하는 지능체계를 로봇에 구현하기 위한 기술적 방법을 제공함에 그 목적이 있다. The present invention relates to an empirical situation recognition method for a robot, in view of the empirical fact of interaction appear in the situation and the situation due to the factors which may lead to the interaction of the subject and such as a human or a robot of the robot to change its (for "interaction context"), the ability of that empirical models recognize the situation and targets and have adapted through their own experience about the environment and the information in the image and baewoga learning empirical relationships and interactions of the situation with a probability relations to provide a technical method for implementing an intelligent system to perform the robot has its purpose.
본 발명을 적용하면, 로봇이나 응용프로그램 및 다양한 시스템에 있어서 향상된 인공지능 업무처리 수행과 미지의 환경과 지식정보에 대해서 적응하고 알아가는 능력을 구현하기 위한 기술적 어려움을 최소화하고, 새로운 요구와 환경에 대해서도 활용성이 좋고 확장성이 우수하여 개발의 번거로움을 줄이고 복잡한 상황인식의 기술적 문제를 용이하게 해결할 수 있는 장점이 있다. When applying the invention to minimize the technical challenges for implementing robots and applications, and advanced artificial intelligence business process performance and environmental knowledge and information on the go the ability to adapt and learn about the unknown in a variety of systems, and the new requirements and environment Good usability scalability reduces the hassle of developing excellent also has the advantage that you can easily solve the technical problem of complex situational awareness.

Description

로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.{Empirical Context Aware Computing Method For Robot} A computer-readable recording medium storing a program for executing the empirical situation recognition method for a robot. Empirical {Context Aware Computing Method For Robot}

본 발명은 로봇을 위한 경험적 상황인식 방법에 관한 것으로, 보다 상세하게는 로봇이 주어진 상황을 인식하여 인간이나 로봇과 같은 어떤 주체와의 상호작용을 수행하는데 있어서 그 상황과 상호작용의 경험적 사실을 고려하여 그것의 경험적 관계와 확률관계를 기반으로 상황을 인지하고 미지의 환경이나 정보에 대해 스스로 경험을 통해서 적응하고 배워가는 학습의 능력을 수행할 있도록 하는 인간의 지능적인 상호작용 능력과 같은 지능체계를 로봇에 구현 할 수 있기 위한 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체를 제공하는 것이다. The present invention relates to an empirical situation recognition method for a robot, and more particularly, consider the empirical facts of the situation and interact according to the robot to recognize a given situation, perform interaction with a subject such as a human or robotic and it's an empirical relationship probability that the situation is based on relationships and human-like intelligent interaction capability that allows to perform the skills of learning to adapt and baewoga through the experience themselves about the environment or information of unknown intelligence system to provide a computer readable recording medium storing a program for executing a method for being able to implement the robot.

로봇의 이상적인 지능은 스스로 판단하여 작동하는 능력이 되어야 할 것이다. Ideal intelligence of the robot will be the ability to work with self-determination. 똑똑한 로봇이라면 모르는 환경에서도 스스로 적응하고 주어진 상황을 올바르게 인지하여 인간처럼 대화하고 느끼면서 상호작용을 수행 할 것이다. If you do not know the environment in intelligent robots will adapt themselves and interact while performing a conversation and feel like a human being to recognize the given situation correctly.

이러한 로봇의 상호작용 능력이 인간의 수준까지 이르기 위해서는 많은 기술적 어려움과 난제를 극복해야만 한다. The ability to interact with these robots down to the human level must overcome many technical difficulties and challenges. 예컨대, 종래의 음성인식, 얼굴인식, 동작인식, 감정인식 등과 같은 HRI 기술과 무선네트워크 기술, 유비쿼터스(Ubiquitous)네트워크 시스템이 서로 융합되면서 로봇의 지능적 한계를 극복하고 있다. For example, as the HRI technology and wireless network technologies, ubiquitous (Ubiquitous) network system, such as a conventional voice recognition, facial recognition, gesture recognition, emotion recognition fused to each other and overcome the limitations of the intelligent robot.

하지만 아직까지는 대부분이 단순한 명령이나 동작패턴 등의 수행에 지나지 않으며 개발과정이 복잡하고 일회적인 경우가 많다. But not just yet, most of the implementation of such a simple command or behavior patterns until many cases the development of complex one-off.

이러한 종래 기술들은 로봇이 인식한 대상(정보 또는 데이터) 각각에 대하여 미리 저장된 데이터(지각인자)를 기초로 상호작용을 수행하기 때문에 실제 상황과 맞지 않는 상호작용을 수행할 가능성이높다. This prior art is likely to perform an interaction that is not consistent with the actual situation, because it performs an interaction on the basis of the previously stored data (perception factor) for each destination (or information data), the robot recognizes. 즉, 인식한 대상 각각에 대응하여 상호작용을 결정하므로 하나의 상호작용을 결정하는 많은 요인간의 상관관계의 고려가 결여되어 현실과 부적합한 상호작용이 발생 할 수 있다. That is, it determines the interaction in response to a recognition target, respectively the consideration of the correlation between a number of factors that determine the single interaction is lacking can be the real and inappropriate interactions to occur. 따라서 가능한안 많은 경우를 설정해야 하고 새로운 요구와 환경에 대하여 활용이 제한적이고 프로그램을 추가로 작성해야 한다. Therefore, you must not set up a lot if possible and should create additional leverage is limited and the program for the new needs and circumstances. 물론 이런 단점을 보완하기 위해 스스로 학습 가능하도록 하는 기술이 나오고 있지만 여전히 같은 방법의 선상에 있다는 점에서 근본적인 문제 해결을 할 수 없다. Of course, the technology that allows itself to learn to compensate for these shortcomings, but still can not come out to solve a fundamental problem in that the line in the same way.

본 발명은 이러한 방법의 문제가 상황과 상호작용간의 경험적 사실에 대한 충분한 고려가 되지 않은 것에서 비롯된 것으로 보고 경험적 지식정보 이해를 기반으로 상황에 따른 상호작용을 판단하고 예측할 수 있게 하려 한다. The present invention seeks to make an issue of these methods can determine and predict the interactions of the situation based on empirical knowledge to understand reports that stemmed from not enough consideration of the situation between the empirical fact and interaction. 그러기 위해서 인간의 지능적인 상호작용 원리를 이해하고 그것을 바탕으로 구현 가능한 상황인식의 모델을 제시해야 된다. Understanding the interaction of human intelligence principles in order to do so, and it will be presented a model of the possible implementation of situational awareness based. 예컨대, 인간의 지능적 상호작용은 단순히 동물적인 감각과 지각에 의해 수행되는 것이 아니라 오랜 시간동안의 체험이나 학습을 통한 경험적 지식정보 이해를 기반으로 이루어지기 때문에 가능한 것이다. For example, the intelligent human interaction is possible simply because it made based on empirical knowledge and understanding through experiential learning for a long time rather than being done by an animal sense and perception.

즉 인간의 지식정보 활동의 99% 이상이 경험과 학습에 의해 이루어지며 그렇지 않은 것은 극히 일부분이다. That is a fraction more than 99% of human knowledge or activity that is done by experience and learning. 그렇다면 정보를 매개로 하는 인간과 로봇과 같은 주체의 상호작용에 있어서 경험과 학습에 의한 지식정보만을 취급해도 무관하다는 결론이 나온다. Then comes the conclusion that even if only the knowledge of handling information by experienced and independent learning in subjects such as the interaction of humans and robots information as parameters.

따라서 "인간과 주체의 상호작용에 대한 지능적 범위는 주체가 갖고 있는 경험적 지식정보 체계에만 의존한다"라는 상호작용 지능 합리성의 명제를 제시할 수 있다.(도1a참조) 예를 들어, A와B가 전화통화를 한다고 하자. Therefore, it is possible to present a proposition of interaction intelligent rationality of "intelligent range for the interaction of humans and subject depends only on the empirical knowledge and information system in a subject having,". For example, A and B (see Fig. 1a) Let's say on the phone. A가 B에게 뭐하는지 물어보자 B는 회의 중이라고 말한다. Let A to B B to ask whether what is said jungyirago meeting. A는 B가 회의 중이라고 알려 주자 조용한 목소리로 그럼 나중에 통화하자고 전화를 끊는다. A runner is known jungyirago B meeting hangs up. So let's call later, in a quiet voice. 여기서 A가 B에게 물어보지 않고 B가 뭐 하는지는 알 수 없다. Where A is not looking to ask B you can not know what B is doing. 물어보지 않고 알아야 할 만큼의 지능은 필요하지 않다는 것을 의미한다. Enough to know without asking intelligence means that it is not necessary. A가 뭐하는 지를 물어보고 대답을 통해 그 상황에 맞게 대처한다는 것은 경험을 통해 필요한 지능을 얻었다는 것을 보여 준다. A thing that is asked to look through the answers for coping with the situation if doing shows that the experience gained with the necessary intelligence. 즉, 물어보고 대답을 듣는 경험을 함으로써 필요한 지능을 얻었다는 것이다. In other words, it is necessary to obtain intelligence by listening to the experience of asking to see the answer. 또한 그 상황에 맞게 대처하는 것 역시 과거의 경험에 의한 것이다. In addition to coping with the situation also it will fit according to past experience. 이와 같은 실제 인간의 지능적 상호작용 원리는 도1b와 같은 의사모델(Pseudo Model)로 표현할 수 있다. The actual human intelligent interaction same principle can be expressed as a pseudo-model (Pseudo Model) as shown in Fig. 1b.

본 발명은 위에서 본 바와 같은 실제의 인간의 지능적 상호작용 원리(도1b)를 로봇과 같은 인공지능에 적용하기 위해 경험화와 경험적 상황인식모델을 제시한다. The present invention provides a screen experience and empirical situation recognition models to reflect the reality of human intelligent interaction principle (Fig. 1b), such as the described above, the artificial intelligence, such as a robot. 즉 도1b의 실제적인 인간의 지능적 상호작용 원리를 의사화해서 도1c와 같은 의사모델로하고 이를 해결하기 위한 경험화 모델(도1d)과 경험적 상황인식 모델(도1e)을 제시하는 것이다. That is, it is a pseudo-model, as shown in Fig. 1c by a doctor screen for the actual human intelligent interaction principles of Figure 1b presents the experience modeled (Figure 1d) and empirical situation recognition model (Fig. 1e) to fix it.

기본적으로 상호작용을 발생시키고 변화시키는 요인들 자체는 독립된 상황이 아니며 상황은 그 요인들의 집합체로서 상호작용에 대해서 일대일의 관계("상황: 상호작용")를 갖는다. By default, the factors for generating a self-interaction is changed is not an independent one-to-one relationship status situation for the interaction as an aggregate of those factors: having the ( "situation interaction"). 이로써 경험적 지식정보체계는 그러한 상황과 상호작용의 쌍으로 이루어진 경험적 모델들을 관리하며 입출력을 제어하는 인터페이스 역할을 제공하는데 이러한 경험적 지식정보 체계는 경험화를 통해서 스스로 계속 변화되고 갱신된다. This empirical knowledge information system such situations and mutual this empirical knowledge management system to provide an interface for controlling the input and output of the empirical model consists of pairs of action it is constantly changing and updated themselves through the experience screen. 이는 경험적 지식정보 이해를 기반으로 경험적 상황인식의 방법을 해결할 수 있음을 시사한다. This suggests that to address the situation of the empirical recognition method based on empirical knowledge to understand.

이와 같이, 본 발명의 목적은 경험적 상황인식과 경험화의 모델을 구현하는 기술적 방법을 제공함으로써 로봇의 지능적 한계를 극복하기 위한 경험적 지능체계를 구현할 수 있도록 한다. Thus, it is an object of the present invention enables to implement a heuristic system intelligence to overcome the limitations of the intelligent robot by providing technical means for implementing a model of the empirical situation awareness with experiences screen.

상기한 바와 같이, 로봇의 지능적인 상호작용을 수행하기 위한 지능적 한계의 문제를 해결하기 위한 것이 본 발명의 목적인데, 이를 위해서는 로봇과 어떤 주체(인간 또는 로봇 등)간의 상호작용을 발생시키고 변화시키는 요인들로부터 상황요인과, 상황 그리고 상황에 대한 상호작용("상황: 상호작용")이라는 경험적 모델을 생성하고 그 모델들 간의 경험적 관계와 확률관계를 알아 낼 수 있는 상황법칙을 제시해야 하며, 이를 통해 주어진 상황에 적합한 상호작용을 결정할 수 있는 경험적 상황인식의 알고리즘을 제시해야 하며, 경험적 모델을 관리하고 그것의 입출력을 제어하는 C와 같은 컴퓨터 프로그램 기술로 구현이 가능한 특정한 인터페이스를 제공하여(후술되는 PAL 인터페이스 ) 경험적 지식정보의 변화에 따라 경험적 지식정보체계를 작성하고 , Inde It is an object of the present invention for solving the problem of intelligent limit for carrying out the intelligent interaction of the robot as described above, to generate the interaction between the robot and a subject (human or robotic, etc.) To do this, changing mutual for the situational factors and circumstances and situations from factors action: create an empirical model called ( "situation interaction") and and the empirical relationship probability relationship between the model must present situation, the law can find out, it Administration mutual must present the algorithm of the empirical situation awareness that can determine a function, an empirical model is appropriate for a given situation by providing a specific interface, a possible implementation as a computer program written in C-like for controlling its output to (to be described later PAL interface) to create the empirical knowledge and information systems in accordance with the change of empirical knowledge 수정할 수 있는 경험화의 구현모델을 제시해야 한다. The implementation model of screen experience that can be modified to be presented.

본 발명은 크게 4단계로 구성되는데, 입력된 원시데이터로부터 상황의 경험적 모델을 생성하는 경험적 모델 생성단계와 제1알고리즘을 수행하는 단계와 제2알고리즘을 수행하는 단계와 상기 제1,제2알고리즘 수행 단계에서 미지의 상황이나 새로 추가된 상황에 대한 상호작용의 경험적 모델에 대한 경험화를 수행하는 단계로 이루어진다. The present invention largely consists of four stages, an input of an empirical model generating step of generating an empirical model of the situation from the raw data, and performing a first algorithm, and performing a second algorithm to the first, second algorithm perform steps performed in the step of performing experience anger for the empirical model of interaction with the unknown circumstances or new circumstances.

상기 경험적 모델 생성단계는, 입력된 원시 데이터들의 경험적 모델을 생성하기 위한 정규화를 수행하는 제 11단계와; And the step 11 that the empirical model generating step, performing a normalization to generate an empirical model for the input of raw data; 정규화가 완료된 데이터들을 상황법칙 1,2,3에 기반해서 경험적 지식정보체계의 계층화를 거쳐 경험적 모델을 생성하는 제 12단계와; It based on the normalized data to the completion of the situation via the layering of a rule and third empirical knowledge and information system and the step 12 to generate an empirical model; 제 12단계에서 새로 생성된 상황요인들의 경험적 모델들에서 상황법칙 3과 스칼라 변위(Scalar Displacement)의 대소 관계를 통해 마스터 상황요인을 획득하는 제 13단계와; STATUS rule 3 in the empirical model of the newly generated context and the factor in step 12 and step 13 for obtaining a master status factors through the magnitude relationship between the scalar displacement (Scalar Displacement); 제 12단계의 상황요인들의 경험적 모델들에 대하여 상황법칙 1,2에 기반해서 상황의 경험적 모델을 생성하기 위한 정규화 과정을 수행하는 제 14단계와; And the operation 14 that with respect to the empirical model of the step 12 based on the situation to situation factors rule 1,2 performs a normalization process for generating an empirical model of the situation; 제 14단계에서 선택된 상황요인들의 경험적 모델들을 스칼라 변위로 구성하는 집합체인 상황의 원시모델을 생성하는 제 15단계와; Claim 15 and the step of generating a model for raw circumstances aggregate constituting the empirical model of the situation factor selected in step 14 to the scalar displacement; 제 15단계의 상황요인들의 경험적 모델의 집합체인 상황의 원시모델을 통해 상황의 경험적 모델을 생성하는 제 16단계로 이루어진다. Through the raw aggregate model of the circumstances of the empirical model of the situation factor of step 15 consists of claim 16 further comprising: generating an empirical model of the situation.

여기서, 상기 원시 데이터는 원 데이터와 메타 정보로 구분되어 전송된다. Here, the raw data is transmitted is divided into original data and meta-information. 또한 상기 12단계에서 계층화는 데이터의 종류와 수평, 수직적 관계에 의해 분류되는 작업을 기초로 이뤄지고 또한 PAL 인터페이스가 구축이 되고, 원시모델과 분류모델, 파생모델을 생성하는 것을 특징으로 한다. In addition, layered in the step 12 is being made on the basis of the work sorted by the type and the horizontal and vertical relationships of the data and also to build a PAL interface, characterized in that for generating a primitive classification model and the model, the model is derived.

상기 제1알고리즘은 인식하기 위한 상황의 경험적 모델을 입력 받는 제 17단계와; Wherein the first stage 17 for receiving an empirical model of the situation for one recognition algorithm and; 제 17단계의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 제 17단계의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 제17단계의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 제 18단계와; In the intersection of the set of items of a PAL disc driver on aspects factors element of the empirical model of the step 17 the situation there is an empirical model of the 17th stage situation that number of elements is 1 whether or not the meet the conditions law 1 a step 18 of determining determines a model that satisfies the conditions in the model experience with the empirical model of the 17th step and the conditions; 제 18단계의 조건에서 상황법칙 1을 만족하지 않고 제 18단계에서 교집합의 원소가 1보다 큰 경우 상황법칙 5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 제 17단계의 경험된 모델로 간주하는 판단을 수행하는 제 19단계와; The cost of the situation rule for each condition of the element (the situation factor), the least number of elements is by the situation rule 5, if the element of the intersection is greater than 1, the step 17 from step 18 does not satisfy the one under the conditions of step 18 experience of claim 19 further comprising: performing a determination to be considered as a model and; 제 19단계의 조건을 만족하지 않는다면 경험적 지식정보체계의 경험화된 모델들로부터 확률적 추론을 통해서 제 17단계의 경험된 모델을 획득하는 제 20단계와; And the second stage 20, which through a probabilistic inference from the experiences of modeled empirical knowledge information system does not satisfy the condition of step 19 obtain an empirical model of the step 17; 제 20단계에서 경험된 모델을 획득하지 못할 경우, 제 17단계의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 제 21단계와; Failure to obtain a model experience in operation 20, to select a model of the empirical experience of the situation model, step 17 and the step 21 of performing experience to request screen for the model; 알고리즘 전체에 걸쳐 제 17단계의 상황의 경험적 모델에 대한 경험된 모델을 획득하지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 제 22단계와; If one does not obtain the model experience with the empirical model of the 17th stage conditions over the entire algorithm or the second step 22 to request an exception is experienced if a screen and; 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 제 23단계로 이루어진다. The operating section of the perceptual experience Chemistry circuit composed of claim 23 further comprising: requesting the screen experience on empirical models of the image.

여기서 상기 제 11단계는 데이터들의 유효성을 검증하고, 문자열 기반의 정보 명세서가 부여되며, 고유 ID가 할당되는 고유화 등의 데이터 재정의가 이루어지고, 후행 단계의 계층화를 위한 데이터 분류 작업을 수행하는 것을 포함한다. Wherein in that the first step 11 verifies the validity of the data, is given a character string based on the information herein, made the data override, such as unique screen which is a unique ID that is assigned is performing a data classification for the layering of trailing step It includes. 또한 상기 제 19단계에서, 경험화된 모델이 다중 선택이 된다면 제 17단계에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정하고, 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있으므로 상황법칙 5에 의해 원소 개수가 적은 것을 택하도록 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다. In addition, models in PAL disk driver element of the set of items on the in the 19th step, the master status factors of empirical models that if a is multiple selection experienced modeled for the 17th stage situation (when a master status factors are present) it may select or situation determined by priority to the size relationship of the scalar displacement, and the candidate small a number of elements the situation during the circumstances of the situation factor by applying the rule 3 of the included in the number of elements in many situations by the situation rule 5 the empirical situation recognition method for a robot which comprises a number of elements so as to select the less is provided.

상기 제2알고리즘은 인식할 상황의 경험적 모델을 입력 받는 제 24단계와; Wherein the first stage 24 for receiving an empirical model of the second algorithm is to recognize the situation; 경험적 지식정보체계의 PAL 디스크라이버와 경험적 확률 추론으로 제 24단계의 상황에 대한 상호작용의 경험적 모델을 획득하는 제 25단계와; Step 25 as a PAL disc driver and empirical probability inference of empirical knowledge systems acquired an empirical model of the interaction of the 24th stage and situation; 제 25단계에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 제 26단계와; And the second stage 26 in consideration of the situation and laws of three master status factors among the empirical model of the interaction obtained in step 25 of selecting one of the highest empirical models; 제 25단계에서 상호작용의 경험적 모델을 획득하지 못할 경우 제 24단계에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 제 27단계와; Claim 27 and the method comprising: obtaining an empirical model of the interaction of the candidate model, the mutual failure to obtain an empirical model of the working conditions of the empirical model for the 24th stage from the stage 25; 상황법칙 3,5와 마스터 상황요인을 고려하여 제 24단계의 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 제 28단계와; Status rule 3,5 and claim 28 further comprising: considering the master status factors create a new experimental model of the interaction of the empirical model of the situation in the 24th step; 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 제 29단계와; These final cross runtime model of the empirical model of the action (Model Run Time) The step 29 of generating and ACT; 새롭게 생성된 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 제 24단계의 해당 상황을 미지의 상황으로 간주하고 경험화를 요청하는 제 30단계로 이루어진다. New empirical models of the interaction of the situation with respect to the resulting empirical model of interaction for the conditions of the step 24: and requesting the experience screen as ( "situation interaction"), mutually about the status of the 24th step If failed to obtain the empirical model consists of the working conditions of the step of claim 24 to claim 30, further comprising: considered to be the unknown conditions and requests the screen experience.

또한 미지의 상황이나 새로 추가된 상황에 대한 상호작용의 경험적 모델에 대한 경험화를 수행하는 단계는 상기 제1알고리즘과 제2알고리즘을 수행하는 단계에서 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 제 31단계와; In addition, the step of the first algorithm and the additional conditions the new or empirical model of the unknown situation in the step of performing the second algorithm for performing experience screen on empirical models of the interaction of the unknown situation or newly added conditions for interaction ( "situation interaction") step 31: receiving the empirical models and; 상황법칙 1,2,3에 의한 제 31단계의 경험적 모델들의 경험적 지식정보체계의 계층화를 수행하는 제 32단계와; Operation 32 to perform the empirical knowledge of the hierarchical information system of empirical models of the step 31 by the rule condition and 2,3; 상황법칙 1,2,3에 의한 경험적 모델간의 스칼라 변위를 조정하는 제 33단계와(바람직하게, 33단계에서는 경험적 모델의 경험치나 주체의 속성과 현시점의 상황 등이 고려 될 수도 있다.); Claim 33 and the step of adjusting the scalar displacement between the empirical model of the situation Law 1,2,3 (preferably in the step 33 may be considered, such as the attributes of experience or empirical model of the subject and the present time conditions); 제 33단계의 경험적 모델들을 경험적 지식정보체계의 소속된 계층의 PAL 요소 그룹에 추가하는 제 34단계와; Claim 34 and the step of adding an empirical model of the step 33 to the PAL element belonging to the group of the hierarchy of heuristic knowledge and information system; 상황법칙 1,2,3에 의한 제 34단계의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 제 35단계와; Of claim 35 further comprising: reviewing the need to define a new relationship for correlation of empirical models of the 34 steps by the situation and laws of 2,3; 제 34단계의 PAL요소들을 PAL 디스크라이버에 추가하는 제 36단계와; The PAL element 34 of the step and the step 36 of adding a PAL disc driver; 제 34단계의 경험적 모델들 중에서 상황법칙 1,2,3에 의한 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 제 37단계로 이루어진다. Claim is made to step 37 to create a PAL disc driver for the model to define a new relationship between the model of the situation in the laws and third empirical model of step 34.

바람직하게, 상기 제 28단계는 상황법칙 3에 의해 제 24단계 상황의 상황요인들의 스칼라 변위로 그 작용의 우선순위를 판단하고 상황법칙 5에 의거해 우선순위가 낮은 상황요인을 제거하여 제 24단계 상황의 경험적 모델을 수정하는 과정이 포함되며, 최종적으로 수정된 제 24단계의 해당 상황의 경험적 모델의 계층관계를 고려하여 허용범위 안에 들어오는 상호작용의 경험적 모델을 생성하는 것을 특징으로 한다. Preferably, the twenty-eighth step comprises the steps of claim 24 to determine the priority of the action to the scalar displacement of situational factor of step of claim 24 by the situation rule 3 conditions and removes it lower priority status factors under the circumstances law 5 and including the step of modifying the empirical model of the situation, in view of the empirical model hierarchy of eventually the status of the claim 24, characterized in that the phase corrected to generate an empirical model of the incoming interaction within the allowable range.

바람직하게, 상기 제 32단계는 경험적 상황인식의 계층화를 통해 원시모델, 분류모델, 파생모델로 계층화가 되어 있는 경험적 모델들에 경험치를 반영하여 다시 계층화를 수행하고 상기 경험치는 경험적 상황인식을 거치면서 얻어진 데이터들로 상황요인들의 작용빈도, 상황의 노출빈도, 상황에 대한 상호작용의 친밀도, 상호작용의 결과 등으로 이루어진 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다. Preferably, the Step 32 is performed a layered back reflecting the experience points to the empirical model is a layered, in source model, the classification model, variant through the layering of empirical situation awareness and the experiential value is over the course of experimental situation awareness the empirical situation recognition method for a robot, which is characterized by being a visibility of the working frequency, the condition of the situation factor with the data obtained, the affinity interaction of the situation, a result of the mutual action, etc. is provided.

바람직하게, 상기 제 35단계에서 모델간의 상호관계는 상황요인에 대한 상황, 상황에 대한 상호작용 등을 의미한다. Preferably, the interrelationship between models in the first stage 35 means such as the interaction of the situation, the situation of the situation factor. 예를 들면 새로운 종류의 상황요인이 생성 됐다면 그것에 대한 상황의 새로운 PAL 디스크라이버를 작성해야 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다. For example dwaetdamyeon produce a new kind of situation, there is provided a factor empirically situation recognition method for a robot, characterized in that the need to create the new PAL disk driver of the conditions for it.

본 발명에서 정의되고 해석되는 상황법칙 1은 동일 상황 공존 불가의 법칙(Equivalent Context Incompatible Law; ECIL)이며, 같은 상황은 동시에 다른 개체에 대해서 존재 할 수 없다는 법칙이다. Status rule 1 is defined and construed in the present invention the law of non-co-equal status; a rule can not exist for a (Equivalent Context Incompatible ECIL Law), the same situation is at the same time to other objects. 똑같은 상황이 두 개라면 그 상황요인도 두 개이어야 한다. If the two pieces are exactly the same situation should also be two more factors that situation. 그러나 하나의 개체가 다른 상황으로 함께 존재 할 수는 없다. However, there is one object can exist together in a different situation. 개체는 유일하기 때문이다. Objects because unique.

본 발명에서 정의되고 해석되는 상황법칙 2는 상황요인 대립 불가의 법칙 (Condition Confrontation Incompatible Law; CCIL)으로, 하나의 상황에서 대립적으로 공존 할 수는 없는 상황요인이 있다는 법칙이다. Circumstances law defined and construed by the present invention 2 is not conflict situation law of factors; the rule that the (Condition Confrontation Incompatible Law CCIL), to co-exist with oppositional In one situation, the situation factors outside. 예를 들면 같은 상호작용에 대하여 서로 다른 장소나 시간이 하나의 상황에 존재 할 수 없고, 조용한 도서관에서 전화를 하는 것은 맞지 않으므로 도서관과 전화하는 것은 대립하여 같은 상황에 공존 할 수 없다. For example, such interaction is not against different place and time can exist in one situation, but to call it a quiet library to library and calls can not coexist in the same situation it does not match the conflict.

본 발명에서 정의하는 상황법칙 3은 상황요인 작용 우선의 법칙(Condition Operation Precedence Law; COPL)이며, 최근에 발생한 상황요인이 상호작용에 우선적으로 작용한다는 법칙이다.(최근 상황요인 우선의 법칙) 상호작용의 화제(Attentional Topic)에 관련된 상황요인이 우선적으로 작용한다(상황요인 관계 우선의 법칙). Status rule 3 is a law of the situation factor action priority defined in the present invention; and (Condition Operation Precedence Law COPL), the rule that the most recent status factors occurred preferentially acts on interaction cross (law of the first latest status factors) the factors involved in this situation, agents (Attentional topic) of action acts in the first (the law of relation situation factors precedence). 예를 들면 소란한 교실에 수업 선생이 들어오면 학생들은 조용히 하고 선생님에게 집중하여 소란했던 교실의 상호작용은 변화된다. For example, when in a noisy classroom teachers enter the classroom, students are interacting in the classroom was noisy to quiet and focused teacher change.

본 발명에서 정의되고 해석되는 상황법칙 4는 상호작용 무차별 법칙(Interaction Indiscrimination Law; IIL)으로서, 대기상황(Idle Context)에서 발생할 수 있는 상호작용은 제한이 없다는 것이다. Status rule 4 to be defined and construed in the present invention are promiscuous interaction rule; a (Interaction Indiscrimination Law IIL), interactions that might occur in the standby status (Idle Context) is that there is no restriction. 즉, 대기상황에서 임의의 상호작용이 발생할 수 있다. That is, it may result in any interaction from the standby situation. 따라서 임의의 상호작용이 발생 할 수 있는 확률은 모든 상호작용에 대해서 같다. Thus the probability that any interaction to occur is the same for all interaction. 예를 들면, 전화기에 어떤 사람의 전화가 걸려 올지 모르듯이 누구와의 대화도 없는 혼자 있는 사람에게 어떤 일이 발생 할 지는 아무도 모른 다. For example, some people do not know the phone will come to the phone hanging, as the person who is not a conversation with anyone alone, none knowing where you want to what is happening. 이것은 대기상황에서 발생할 수 있는 상황요인 또한 무차별하다는 의미와도 상통한다. It also equals and situational factors also mean that indiscriminate which may occur in atmospheric conditions. 이 법칙은 주체로 하여금 지능적인 상호작용을 시작하는 데 있어서 매우 유연한 지능적 범위를 제공해 준다. This law allows to provide a very flexible range of intelligent method to allow the subject to start the intelligent interaction.

본 발명에서 정의되고 해석되는 상황법칙 5는 상호작용 가시범위 축소의 법칙-상황요인 개수 비례법칙(Interaction Visibility Scope Restrict Law: IPNC)으로, 상황요인의 개수가 적을수록 그 상황에 대한 상호작용의 개수 역시 줄어들게 된다는 법칙이다. Status rule 5 is defined and construed in the present invention the law of interaction Perceptual reduced-status factors number proportional law (Interaction Visibility Scope Restrict Law: IPNC), the more the number of the situation factor less the number of interactions of the situation law is also being reduced. 즉, 상황요인의 개수가 적을수록 그 상황에 대해 발생할 수 있는 상호작용 개수가 줄어들어 상호작용 선택의 범위를 좁힐 수 있다. That is, the situation that the number of small factors may narrow the cross-select action by reducing the number of interactions that may occur on the situation. (Interaction in Proportion to Number of Condition) (Interaction in Proportion to Number of Condition)

본 발명에 따른 경험적 상황인식 방법은 종래 로봇의 상호작용수행의 지능 능력을 더욱 향상시켜주며 로봇뿐만 아닌 응용프로그램이나 다양한 시스템에 적용하여 향상된 인공지능 업무처리 수행을 할 수 있도록 기술적 어려움을 해결할 수 있게 되는 효과가 있다. Can solve the technical problems to be empirical situation recognition method according to the present invention gives further enhance the intelligence capabilities of the interactions carried out in a conventional robot to perform processing improved artificial intelligence duties applied to applications or diverse systems, not only robots there is an effect that. 또한, 본 발명의 경험적 상황인식의 경험적 지능체계는 스스로 미지의 환경과 지식정보에 대해서 적응하고 알아가는 능력을 구현하는 것으로 새로운 요구와 환경에 대해 활용성이 좋고 확장성이 우수하여 개발의 번거로움을 줄이고 복잡한 상황인식의 기술적 문제를 효율적으로 해결할 수 있는 효과가 있다. In addition, empirical intelligence system of the empirical situation awareness of the present invention hassles of development and good usability to new needs and circumstances scalability is excellent by implementing the skills themselves going to adapt and learn about the environment and the knowledge of the unknown to reduce the effect to efficiently solve complex technical problems in situational awareness.

도 1a는 인간의 경험에 대한 지능합리성을 설명하기 위한 개념도이고, 도 1b는 인간의 실제적인 지능적 상호작용 모델을 설명하기 위한 개념도이고, 도 1c는 본원 발명에서 도입된 ECA 지능적 상호작용 모델을 설명하기위한 개념도이고, 도 1d는 ECA경험화모델을 도 1e는 ECA경험적 상황인식 모델을 각 설명하기 위한 개념도이다. Figure 1a is a conceptual diagram illustrating an intelligent rationality for the human experience, Figure 1b is a conceptual diagram illustrating a human actual intelligent interaction model, Figure 1c describes the ECA intelligent interaction model introduced in the present invention to the concept, and FIG. 1d 1e is also the ECA experience screen model is a conceptual diagram for explaining the ECA each experimental situation recognition model.
도 2는 로봇을 위한 경험적 상황인식 방법을 구현한 ECA지각회로가 적용된 시스템 전체의 외부 모습으로 데이터 입출력 흐름에 따른 구성층간의 연계성을 보여주기 위해 예시한 도면이다 2 is a view illustrative to show the linkage of the inter-layer configuration according to the data input stream to the ECA perception circuit for an external appearance of the entire system implementing a heuristic applied situation recognition method for a robot
도 3은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 경험적 상황인식 과정의 상위흐름을 나타내는 흐름도, Figure 3 is a flow chart showing a flow of a higher empirical situation recognition process included in the experimental situation recognition method for a robot according to the invention,
도 4는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 3의 경험적 모델의 계층화와 상황의 경험적 모델 생성 과정의 하위 흐름도 4 is a sub flow chart of an empirical model generation process of the layered state of an empirical model of Figure 3 contains the empirical situation recognition method for a robot according to the invention
도 5는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 4의 상황에 대한 경험된 모델을 획득하는 과정의 하위 흐름을 구현하는 알고리즘을 도시한 도면 Figure 5 illustrates a diagram of an algorithm which implements a sub-flow of the process of obtaining the model experience with the situation of Figure 4 contains the empirical situation recognition method for a robot according to the invention
도 6은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도2의 경험적 상황에 대한 경험적 상호작용 모델을 획득하는 과정의 하위 흐름을 구현하는 알고리즘을 도시한 도면, Diagram Figure 6 shows an algorithm which implements a sub-flow of the process for obtaining an empirical interaction models for experimental conditions of Figure 2 contained in an empirical situation recognition method for a robot according to the invention,
도 7은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로의 경험화 과정의 하위 흐름을 나타내는 도면, 7 is a diagram showing a sub-flow of the development process of experience perceived ECA circuit empirical situation recognition method for a robot according to the present invention is implemented,
도 8, 9, 10은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함되는 경험적 지식정보 체계를 구현하는 PAL인터페이스의 디스크라이버의 수행 상태를 예시한 도면이다 8, 9, 10 is a view showing the performing state of the disk driver of the PAL interface that implements the empirical knowledge information system included in the experimental situation recognition method for a robot according to the invention

이하, 본 발명에 대해 도면을 참조하여 상세하게 설명한다. With reference to the drawings the present invention will be described in detail.

본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 인간이 경험에 의해 지식정보 활동을 한다는 생태학적 근거에 착안하여, 인간의 상호작용 원리를 하나의 모델로 만들어 냄으로써 지능적인 상호작용을 효율적으로 구현하고 복잡한 상황인식 구현의 문제를 쉽게 해결 해 줄 수 있다. The empirical situation recognition method for a robot according to the invention: in view of the (Empirical Context Aware Computing Method ECA) ecological grounds that the knowledge and information activities by the human experience, by creating human interaction principles as a model implementing intelligent interaction efficiently and can give you easily solve the problem of complex situational awareness implemented. 또한 그렇게 구축된 모델은 인간의 지식정보 활동의 대사를 모방한 것이기 때문에 상호작용의 목적과 환경의 변화에도 추가적인 개발 과정이 대부분 필요하지 않은 스스로 경험을 통한 지능성장으로 유연하게 대응해 갈 수 있다. In addition, it built models can be used to make even changes in interact with objects and environment, further development corresponds flexibly intelligent growth through their own experience, most do not need to because that mimic the metabolism of human knowledge and information activities.

즉, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)이 적용된 로봇이나 시스템, 응용프로그램 등은 인간처럼 스스로 경험하고 지능체계를 성장시켜 감으로써 미지의 정보와 환경에 대해서도 적응해 갈 수 있다. In other words, the empirical situation recognition method for a robot (Empirical Context Aware Computing Method: ECA) is as sensitive, such as applied to robots or systems, applications by own experience as a human being and growth of the intelligent systems able to adapt even to the unknown information and environment have.

이를 통해, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 기존의 HRI 기술에서 보여주는 단답형 기반의 명령문, 의문문과 같은 질의에서 주체(로봇 등)의 의견이나 관심 배려 또는 의도와 같은 고등적 의사표현의 대화 수행이 가능 하도록 상호작용의 지능을 향상시켜 준다. Through this, the empirical situation recognition method for a robot (Empirical Context Aware Computing Method: ECA) has the same thoughts and interests care or intent of the subject (robots, etc.) in the short-answer-based show from existing HRI technical statements, queries, such as interrogative It enhances the interaction intelligent conversation carried out in higher decision-representation is possible.

보다 상세하게, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 지능적인 상호작용 구현에 필요한 복합적 정보 분석 체계를 "상황에 대한 상호작용"이라는 경험적 이미지로 추상화 하고 주어진 상황요인들로부터 상호작용과, 상호작용을 결정하는 상황정보를 모델링 한다. To: (ECA Empirical Context Aware Computing Method) is a combination of information analysis system of "interaction on context" of abstraction and a given situation as empirical images factors necessary for the implementation of intelligent interaction More specifically, the empirical situation recognition method for a robot from the model the context information to determine the interaction, and the interaction.

따라서, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 로봇의 지능적인 상호작용 구현과 AI 구현에 보다 향상된 솔루션이 될 수 있다. Thus, the empirical situation recognition method for a robot (Empirical Context Aware Computing Method: ECA) may be a better solution to the implementation of intelligent interaction with the implementation of AI robots.

본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 기술적 가치를 살펴본다. Look at the technical value of: (ECA Empirical Context Aware Computing Method) empirical situation recognition method for a robot according to the present invention.

기존 로봇의 HRI 기술이 단순형 질의방식이라면, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 고등적 대화가 가능하다. If HRI technology this way simple query of an existing robot, empirical situation recognition method for a robot according to the invention (Empirical Context Aware Computing Method: ECA) can be a high dialogue.

예시 1) 경험을 통해 상대방에 대해 적응된 표현과 취지를 인식한 상태에서의 대화 Interactive while through Example 1) experience recognizes the express purpose and adapt to the other

- 단순형질의: 안녕하세요! - a simple trait: Hello! (항상 일정한 패턴의 인사) (HR always a constant pattern)

- 본 발명의 방법이 적용되는 경우: 안녕하세요. - If the method of the present invention is applied: Hi. 지난번에 부탁한 일은 잘 처리 되었습니다. The last thing you asked was handled well. 또는 안녕하세요. Or hello. 진행하는 일은 잘 되고 있나요? Do you do well to proceed? 또는 안녕하세요. Or hello. 지난 번 보다 건강이 좋아 진 것 같습니다 This seems Jean health better than last time

예시 2) 경험에 의한 분석과 예측으로 의견이 반영되는 대화 Dialogue comments reflect the analysis and prediction by Example 2) experience

- 단순형질의: - a simple trait:

사용자: 이 근처에 가까운 한식집을 찾아줘? User: Find me a Korean house close to the area?

3시 방향으로 200m에 한식집이 있습니다 To 3 o'clock in the Korean house 200m

- 본 발명의 방법이 적용되는 경우: - when the method of the present invention is applied:

사용자: 이 근처에 한식집이 있으면 점심 먹고 갈까? User: If your house is near the Korean go eat lunch? (고등적 대화) (High school dialogue)

3시 방향으로 200m에 한식집이 있는데 맛이 없어 후회 한 적이 있습니다. To 3 o'clock there is a Korean house at 200m You've no regrets taste.

3시 방향으로 200m에 한식집이 있지만 조금 더 가면 맛있는 집이 있는 데 The Korean house at 200m to the 3 o'clock position, but you have to go a little more tasty home

그 곳으로 갈까요? Shall I go to that place?

사용자: 환율이 오르는데 A사 주식 팔아버릴까? User: I shoo selling rate rise four A shares?

- 단순형: 팔면 안됩니다 (좀더 다양한 표현을 위해서는 절차적 방법으로 복잡한 상황 분석 필요) - Simple: Do not sell (need to analyze complex situations with procedural methods to a more diverse expressions)

- 본 발명의 방법이 적용되는 경우: 환율이 오르지만 A사 주가는 다시 오를 - If the method of the present invention is applied: the exchange rate go up 10 000 A four shares rise again

것 같으니 기다려 보는 게 좋을 것 같습니다 It seems better to wait to see like unto

예시 3) 사용자의 라이프스타일, 성격, 기분에 적응한 고등적 대화 Example 3) Higher dialogue adapted to the user's lifestyle, personality, mood

- 단순형질의: - a simple trait:

사용자: 새 상품에 대한 고객 반응이 안 좋은데 해결 방법을 알려줘 User: customer response to new products are not good, let me know the Solution

가격을 내리는 방법이 있습니다. There are ways to make the price. 또는 광고 효과를 높이는 방법이 있습니 Or there are ways to increase advertising effectiveness you

All

- 본 발명의 방법이 적용되는 경우: - when the method of the present invention is applied:

사용자: 이번에 출시된 상품에 대한 고객들의 반응이 별로 안 좋아 (고등 적 대화) User: do not like much of the customer responses to this time released product (Higher dialogue)

안타깝군요. Aw, bummer. 타사 A 제품의 영향이 커서 그런가요? Is it the influence of third-party products A cursor?

어쩌죠. So what. 이전 제품보다 가격대 품질이 떨어진 것 같습니다. It seems to have fallen more than the previous price-quality products. 구 제품으로 기존 고객층의 유동을 방지 하는 게 좋을 것 같습니다 To obtain the product seems better to prevent the flow of the existing customer base

사용자: 오늘 많이 춥네. User: freezing a lot today. (고등적 대화) (High school dialogue)

감기 조심하세요. Be careful of cold. 영하 10도인데 내일은 조금 따뜻해진다고 하네요. To minus 10 degrees tomorrow jindago'm a little warmer.

사용자: 오늘 5년 만에 만나는 친구와 약속이 있다(고등적 대화) User: I have an appointment to meet with your friends in 5 years today (Higher dialogue)

좋겠어요. It's good for you. 만나서 제일 먼저 뭘 하고 싶으세요? Want to meet first thing to do?

아 현국씨요. . Oh Hyun gukssi. 정말 오랜 만에 보게 되는군요 I see a long doeneungunyo million

오늘 저녁 식사에 돈 좀 쓰시겠네요 Evening meal getneyo Write some money

선물이라도 하나 준비하면 좋지 않을까요? Would not it be nice to prepare a gift, even?

사용자: 1년 사귄 여자 친구와 헤어졌다(고등적 대화) User: broke up with his girlfriend dating one year (high school dialogue)

슬픈 일이네요. That's sad. 힘내세요. cheer up.

왜 헤어졌어요? What broke? 좋은 분이였잖아요 You good man was an

며칠 전에도 즐겁게 시간 같이 보냈잖아요? I spent a couple of days ago as fun time?

한편, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 미지의 환경을 스스로 경험하면서 적응해 가고 미지의 정보에 대해서도 학습을 통해 배워간다. On the other hand, the empirical situation recognition method for a robot according to the invention: adapting while (Empirical Context Aware Computing Method ECA) are themselves experiencing the unknown learning environment goes through learning about the information of the image.

예컨대, 대화로 업무지시를 알려주는 것만으로 가정용 홈서비스 로봇을 공공 건물 고객 안내용 서비스 로봇으로 쉽게 변경 할 수 있다. For example, a residential home service robot by simply informing the work order to the conversation can easily be changed to a public building customer information, not a service robot. 또한 화재 방지 로봇을 수해 방지 로봇으로 전환 시켜 줄 수도 있다. You can also switch the line to the fire-prevention robots to flood prevention robots. 구체적인 예를 들면, As a specific example,

- 사람들이 대화하고 생활하는 모습을 경험하면서 어떤 상황에서 어떻게 행동한다는 것을 알아 간다. - go out that while experiencing the appearance that people talk and live how they behave in certain situations. 피곤하면 일찍 자더라, 한 동안 아무 말이 없으면 기분이 안 좋다는 것 등을 경험적으로 알아 간다. When he tired early, party, go out, etc. If there is no word for this would be no better feeling empirically.

- 처음 보는 사람과 대화를 하면서 그 사람에 대한 프로필을 작성하고, 특성을 알아간다. - While the conversation with the first person to see and create a profile for that person goes out the property.

- 모르는 문장, 사물 등을 인간처럼 단순히 대화만으로 배운다. - it does not know the sentence, only to learn simple things like talk like a human being.

이에 반해 단순지능형 로봇 경우에 미지 환경에 대한 정보를 알려주고 미지의 정보나 지식을 다시 알려 주도록 추가 개발이 필요하다. On the other hand, it informs the information about the unknown environment when Simple Intelligent Robots give us the information or knowledge of the unknown again require further development.

이하, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)을 기술하기 위한 용어를 정의한다. Hereinafter, experimental situation recognition method for a robot according to the invention: defines the terms used to describe the (Empirical Context Aware Computing Method ECA).

1) 상황(Context) 1) The situation (Context)

개체(個體)가 존재하는 시점의 모든 현실적 또는 가상적 요소들의 집합체. Object collection of all the elements of a real or virtual point of (個體) exists. 개체가 존재하는 시점은 반드시 현재일 필요는 없다. At which objects exist are not necessarily the current one. 이것은 과거 혹은 미래가 될 수도 있다. This may be a past or future. 가상적 요소는 실제로 존재하지 않는 상상 또는 관념 속의 이미지일 수 있다. Virtual elements can be imagined in the idea or image that does not actually exist. 현실적 요소는 시간, 공간, 물질의 상태, 인물, 동물, 사물, 사건 등 그 외 모든 시각적, 청각적, 후각적, 의사적, 감성적 등 인간이 느끼고 인식하는 모든 대상들이다. Practical elements of time, space, states of matter, characters, animals, objects, events, etc. All other visual, auditory, olfactory, pseudo, emotional, etc. are all subject to human feeling recognized.

2) 상황요인(Condition): 상황을 형성하고 있는 요소. 2) situational factors (Condition): elements that form the situation.

3) 상호작용(相互作用, Interaction) 3) interaction (相互作用, Interaction)

둘 이상의 개체들이 어떤 정보를 매개로 서로 간에 변화를 일으키는 행위(개체의 상태변화, 행위자의 ACT 등). Act two or more objects to each other, causing a change in any parameter information (object state changes, the actors, ACT, etc.). 하나의 개체로부터 발생된 변화를 일으키는 행위는 상호작용이 아니며 단지 그 상황의 변화이다. Acts causing a change occurs from one of the objects is not just a change in the interaction situation.

이때, 개체란 반드시 ACT를 수행하는 행위자일 필요는 없다. In this case, the object is not necessarily the actors performing the ACT. 주변 환경의 변화에 따라 반응하는 개체가 있다면 이것 역시 환경과 반응 개체간의 상호작용이다. If there are objects that react to changes in the surrounding environment, which is also the interaction between the environment and the response object.

4) 주체(主體):상호작용을 수행하는 개체(個體). 4) Subject (主體): an object that performs the interaction (個體).

5) 행위자(Actor): ACT를 수행하는 주체(主體). 5) Actors (Actor): Subject (主體) to perform the ACT.

6) 대기상황(Idle Context): 상호작용이 발생하지 않은 상황. 6) air conditions (Idle Context): situation interactions that do not occur.

7) 제로상황(Nothing Context): 어떠한 상황요인도 존재하지 않는 상황. 7) the zero situation (Nothing Context): the situation does not exist any situational factors.

8) 마스터 상황요인(Master Condition): 상황요인 중에서 상호작용이 되는 상황요인 또는 상호작용에 가장 밀접하게 영향을 미치는 상황요인. 8) Master situational factors (Master Condition): situational factors that affect most closely to the circumstances or factors that interact with the interaction among the situational factors.

9) 경험(Experience) 9) Experience (Experience)

경험의 사전적 의미를 포함해서 주체가 어떠한 사실(事實)을 겪어 가면서 정보나 지식을 알아가는 능력. Including the dictionary meaning of the suffering experienced going to a subject any fact (事實) the ability to know the information and knowledge.

10) 학습(Learning) 10) Learning (Learning)

사전적 의미를 포함해서 정보나 지식을 이해하고 습득해 가는 경험의 한 방법이다. Including the dictionary meaning is a way to go to understand the experience and acquire information and knowledge. 즉, 학습은 경험의 부분 집합이라 할 수 있다. In other words, the learning can be set as part of the experience.

11) 경험화(Self Empirical Learned): 주체가 어떠한 정보나 지식을 경험적으로 이해하고 습득해 가는 과정. 11) experienced anger (Self Empirical Learned): go to the subject to understand and acquire the kind of information or knowledge as an empirical process.

12) ACT 12) ACT

주체가 한 번에 수행할 수 있는 행위로써 행위자의 상호작용 기본 단위가 된다. The subject is the interaction of the actors as the basic unit acts that can be performed at once. 실제 구현에서는 상호작용의 실행시간 모델(Run Time Model)을 의미한다. In an actual implementation implies the mutual runtime model of action (Model Run Time). 예) 말(Speech),문자(Character),동작(Movement),명령처리(Command Operation) For example) horse (Speech), letters (Character), operation (Movement), the command processing (Command Operation)

13) PAL(Perceptual Algebra League: 지각 수리 인터페이스) 13) PAL (Perceptual Algebra League: Perceived service interface)

ECA에서 경험적 지식정보체계를 구현하기 위해 만든 인터페이스로써, 상황요인, 상황, 상호작용, 주체의 감정, 이성적 특성, 개체들 간의 계층관계 등을 대수학적 모델링을 통해서 수학적 해석과 접근이 용이하도록 정의한 인터페이스. As an interface created to implement the empirical knowledge of information systems at ECA, situational factors, situations and interactions, the subject of emotion, rational characteristics, such as hierarchical relationships between the objects for mathematical modeling of the interface defined to facilitate the mathematical analysis and approach through . 프로그램 개발 언어(예,C/C++,Java)로 구현한다. Implement a program of development languages ​​(eg, C / C ++, Java).

PAL 요소는 대수학적 대소 관계를 판별할 수 있는 수치로 정의한 코드 값을 갖는다. PAL element has a code value defined as a value that may be determined algebraically size relationship.

14) PAL 디스크라이버(Describer) 14) PAL disk driver (Describer)

PAL 내부에 있는 정의역과 치역으로 구분된 두 개의 PAL 요소 그룹의 관계를 표현한 인터페이스. PAL interface representation of the relationship between the two PAL element group is divided into domain and range inside. 정의역과 치역의 관계는 대부분 확률 분포로 나타나지만 경우에 따라서는 함수관계로 구현 될 수도 있다. Relationship between the domain and range can in some cases appears, but in most probability distribution may be implemented with a function of.

15) 경험적 지능체계와 경험적 지식정보 체계 15) Intelligent Systems and empirical knowledge empirical information system

경험적 지능체계는 경험적 상황인식과 경험화 연산을 통해서 구현한 하나의 지능체계를 의미하며 경험적 지식정보 체계라 함은 경험적 지능체계에서 다루는 경험적 모델들을 보관하고 관리하며 입출력을 제어하는 하나의 인터페이스이다. Experiential intelligence system is a means to an intelligence system implementation through the empirical situation awareness and experience angry operational and experiential knowledge information system referred to is stored and managed empirical models covered in the empirical intelligence system and an interface for controlling the input and output.

본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 주요 특성을 살펴본다. It looks at the main features of: (ECA Empirical Context Aware Computing Method) empirical situation recognition method for a robot according to the present invention.

첫 번째 특징은 상호작용에 영향을 주는 각각의 요인을 상황으로 보지 않고 경험적 모델이 되는 요소 전체를 하나의 상황으로 보고 "상황에 대한 상호작용"이라는 이미지로 추상화하여 ESGI 모델을 구현한다. The first feature to see without looking at the individual factors affecting the interaction with the whole situation, factors that empirical model to abstract a situation with an image of "the interaction of the situation" to implement the ESGI model.

두 번째 특징은 상황과 상황요인의 관계 및 상황에 적합한 상호작용을 경험적 확률로 결정하거나 예측하는 특징이다. The second feature is a feature to determine or predict the interaction between the right and the circumstances of the situation and situational factors empirical probability.

세 번째 특징은 PAL 인터페이스를 통해 주체의 경험적 지식정보체계를 매우 유연하게 관리할 수 있는 특징이다. The third feature is a feature that can be very flexible management information system of empirical knowledge of the subject through the PAL interface.

네 번째 특징은 주체가 모르는 정보나 지식에 대하여 스스로 경험하면서 이해하고 습득하게 하는 특징이다.(경험화) The fourth feature is characterized by understanding and learning experience in itself with information and knowledge of the subject's knowledge (experience, Tuesday)

다섯 번째 특징은 ESGI 모델을 통해서 주체의 상호작용 지능이 자가 성장되게 하는 특징이다. The fifth feature is characterized in that the intelligent interaction of the principal parties presented growth through ESGI model.

이러한, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 전술하였듯이 본 발명에서 정의된 상황 5대 법칙을 근간으로 이루어진다. This, empirical situation recognition method for a robot according to the invention (Empirical Context Aware Computing Method: ECA) is formed of a foundation for a situation five rule defined in the present invention As mentioned above.

이하, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 기술적 구현을 우선 개략적으로 살펴본다. Hereinafter, experimental situation recognition method for a robot according to the invention: looks at the technical implementation of (Empirical Context Aware Computing Method ECA) First schematically.

1. 지각회로의 경험적 상황인식(ECA) 1. Empirical situational awareness of perceptual circuits (ECA)

Step1. Step1. 지각회로는 음성인식, 얼굴인식, 감정인식, 동작인식 등의 원시 HRI 결과나 센서데이터 또는 GPS나 웹과 같은 다양한 정보로부터 상황요인, 상황, 상호작용의 경험적 모델을 생성하고 경험적 지식정보체계의 PAL디스크라이버와 경험적 확률 방법으로 상황에 대한 상호작용을 결정하여 상호작용의 실행시간 모델 ACT를 생성한다. Perception circuit of voice recognition, facial recognition, emotion recognition, gesture recognition, such as raw HRI results or sensor data or GPS, web and created a heuristic model of situational factors, situations and interactions from a wide variety of information and empirical knowledge of information systems such as PAL determining the interaction of the situation as a disk driver and the empirical probability of how to generate a runtime model of ACT interaction.

Step2. Step2. 외부 대화시스템에 생성된 ACT의 실행을 요청한다. It requests the execution of the generated ACT to the external dialog system.

Step3. Step3. 경험하지 않은 미지의 상황을 경험화 연산부에 경험적 학습을 요청한다. The request did not experience an experiential learning situation unknown to experience anger computing unit.

2. 지각회로의 경험화 (SEL) 2. The experience of late Tuesday circuit (SEL)

경험하지 않은 미지의 상황에 대한 경험적 모델을 경험적 지식정보체계에 적용한다. It applies a heuristic model for the unknown situation not experienced on empirical knowledge and information systems.

Step1. Step1. 미지의 경험적 모델의 계층화. Layered empirical model of the unknown. 여기서는 경험적 모델의 원시모델, 분류모델, 파생모델을 분류하고 생성하는 과정이 포함된다. This section includes the step of classification and to generate a model for raw empirical model, the classification model, the model is derived.

상기 원시모델은 모델의 본래의 속성을 잃지 않은 상태의 모델이다. The source model is a model without losing the inherent properties of the model state.

상기 분류모델은 모델의 수평, 수직적 계층관계에 의해 분류되는 모델이다. The classification model is a model which is classified by a horizontal, vertical layer relationship model.

상기 파생모델은 분류모델에서 예측하여 얻어지는 확장 가능한 모델이다. The derived model is a scalable model which is obtained by prediction from the classification model.

Step2. Step2. 미지의 경험적 모델로부터 PAL 인터페이스를 생성한다. It generates a PAL interface from the empirical model of the image.

여기에는 PAL 요소를 생성하고 PAL 디스크라이버를 재 작성하여 PAL Training Samples 을 생성하는 과정이 포함된다. This includes the process of generating a PAL element and rewrites PAL disk driver generates a PAL Training Samples. 이 과정에서는 PAL 요소간의 스칼라 변위(Scalar Displacement)가 변경이 되며 PAL 요소간의 새로운 관계성을 정의한 PAL 디스크라이버가 추가로 작성 될 수 있다. In this process the changed scalar displacement (Scalar Displacement) between the PAL element and can be written in more PAL disk driver define a new relationship between the PAL element.

이하, 도면을 참조하여 본 발명에 따른 로봇을 위한 경험적 상황인식 방법을 구체적으로 설명한다. Describes the experimental situation recognition method for a robot according to the following, the present invention will be described with reference to the drawings in detail.

도 2는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법을 구현한 ECA지각회로가 적용된 시스템 전체의 외부 흐름을 도시한 블록도이다. 2 is a diagram showing an external flow of the entire system is perceived ECA circuit implementation of the empirical situation recognition method is applied for a robot according to the present invention. 이를 참조하면, 동 도면은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로가 적용된 시스템에서 구성층간의 입출력(I/O) 흐름에 따른 연산수행의 연계성을 나타낸다. Referring to this, the figure shows the linkage of operations performed in accordance with the present invention the robot input and output (I / O) flow of the inter-layer configuration in a system applied ECA perception circuit empirical situation recognition method according to this implementation.

참조부호 ①은 상황요인의 원시 데이터를 보내주는 원시데이터 출력층(레이어)이다. Reference numerals ① is the raw data output layer (layer), which send raw data to the situational factors. 여기에는 기존의 HRI 솔루션(음성, 영상 입력 솔루션)이나 장치, 네트워크 시스템 등으로부터 반환되는 데이터들로 입력센서 데이터, HRI 데이터, GPS, 인터넷 정보 등 다양한 장치나 소프트웨어를 통해서 보내 줄 수 있다. There can send through the existing HRI solutions (voice, video input solution) or a device, the input sensor data to the data returned from the network, systems, HRI data, GPS, a variety of devices, software and Internet information. 원시데이터 형식은 그것을 보내주는 구성층(레이어)에 따라 상이하지만 미디어 원래의 데이터와 메타정보로 크게 나누어 보내져야 한다. The raw data format will be different depending on the configuration layer (Layer) to send it but send a larger share of the original media data and meta information.

예를 들면, 음성인식(SR) HRI 솔루션인 경우 문자열 형식의 단어나 문장이 입력되며 음성이해(SLU) 프로세싱이 가능 할 경우는 체계화된 데이터 형식(예,XML)으로 입력 될 수 있다. For example, it may be input to the speech recognition (SR) HRI of the word or phrase of the string type, and if the input solution if possible speech understanding (SLU) processing the structured data types (e.g., XML). 영상인식 처리 경우는 인식된 영상 미디어 데이터와 그것에 대한 메타정보가 된다. If the image recognition processing is the image recognition media data and meta-information for it.

이미지나, 소리 같은 데이터들도 미디어 원래 데이터와 그것을 설명하는 메타정보가 된다. The same image data, or sound becomes a meta-information describing it as the original media data. 미디어 원 데이터는 참조 가능하게 처리 된다. Media source data is processed enabling reference. 이렇게 입력된 원시 데이터는 ECA 지각회로에서 처리하는 데이터 형식으로 재정의 되면서 문자열 기반의 그것에 대한 정보 명세서가 부가 된다. Thus a raw data input, the information about the specification of the string based on it is added as a financial data type handled by the ECA perception circuit.

참조부호 ②는 참조부호 ①에서 보내준 원시데이터를 종류별로 분류한 상황요인 데이터(음성데이터, 이미지 데이터 등)이고, ②'는 음성이해 연산층(SLU)으로써 ①의 음성인식(SR)층에서 반환된 Words를 이해하여 Known Words를 반환시켜 준다. Reference numeral ② is a situational factor data (voice data, image data, etc.) classified as raw data type sent from the reference numerals ①, ② 'is returned from the floor speech recognition ① as speech understanding operation layer (SLU) (SR) understand the Words to give to return the Known Words. 이것은 선택적이다. This is optional. 이렇게 생성된 결과데이터는ECA의 경험적 상황인식 연산회로부(14)로 입력된다. The generated results data is input to heuristic context aware computing circuit 14 of the ECA.

참조부호 ③은 ECA 상황인식 처리단계에서 사용될 경험화된 경험적 지식정보체계의 모델 데이터들이다. ③ reference numerals are the model data of experience anger empirical knowledge and information systems used in the ECA context-aware processing steps. 이 데이터들은 PAL인터페이스에 의해 관리되고, 경험화(SEL) 단계에서 변화되고 갱신이 된다. These data are managed by the PAL interface, and this change is updated in the screen experience (SEL) step. 데이터는 상황과 상호작용, 상황과 상황요인 등 경험적 지식정보체계에서 다뤄질 대상이 되는 정보들의 경험적 모델들이다. The data are an empirical model of the information that is subject covered in the empirical knowledge and information systems, including situations and interactions, circumstances and situational factors. 이것은 PAL 인터페이스를 통해서 입출력이 이루어진다. This is made through the input-output PAL interface.

참조부호 ④는 ECA의 경험적 상황인식을 연산하는 (경험적 상황인식) 연산회로부이다. Reference numeral ④ is for calculating an empirical situation awareness of the ECA (empirical situation awareness) arithmetic circuit. 상황요인 데이터들을 정규화 하여 상황에 대한 상호작용이라는 경험적 지식정보 모델을 생성한다. Normalize the situation factor data is generated by the interaction of empirical knowledge model for the situation. 생성된 경험적 모델은 ECA 상황법칙에 준하여 경험적 관계와 확률관계의 분석을 기반으로 하는 후술하는 도 5의 알고리즘에 의해서 그것이 어떤 경험적 모델인지 알아내고 주체의 상호작용에 대한 ACT(⑥)를 생성한다. The empirical model generation is to find out whether it is any empirical model by the algorithm of Figure 5 to be described later according to the empirical relationship and based on the analysis of the probability relations in accordance with the ECA circumstances law generates the ACT (⑥) of the interactions of the subject. 또한, 생성된 경험적 모델을 경험적 지식정보체계(PAL)에 반영을 하고 경험화 연산회로층에 경험화를 요청한다. In addition, the reflected and the resulting empirical model to empirical knowledge and information system (PAL), and requests the screen to experience experiences operation, on the circuit layer.

참조부호 ⑤는 HRI 기반의 대화 시스템 연산층으로서, ECA에 의해 요청된 ACT(⑥)를 렌더링한다 Reference numeral ⑤ is an operation layer of the HRI-based dialog system, and renders the ACT (⑥) requested by the ECA

참조부호 ⑥은 상기 대화 시스템 연산층(16)에서 렌더링 되어지는 ACT이다. Reference numeral ⑥ is the ACT which is rendered in the dialog system operation layer 16. 이것은 Speech, Word, Movement, Image, Command 등 다양한 형식으로 수행될 수 있다. This can be done in a variety of formats, such as Speech, Word, Movement, Image, Command.

참조부호 ⑦은 ECA 지각회로의 경험화를 연산하는 경험화 연산부이다. Reference numeral ⑦ is experienced Chemistry computing unit for computing an empirical screen of ECA perception circuit.

도 3은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 경험적 상황인식 연산과정의 상위흐름을 나타내는 흐름도이다. 3 is a flow chart showing a flow of a higher empirical context aware computing process includes the empirical situation recognition method for a robot according to the present invention. 이를 참조하면, 즉, 동 도면은 도 2의 경험적 상황인식 연산회로부(④)의 상위 흐름을 나타낸 것으로, 참조부호 22는 입력된 원시 상황요인 정보들로부터 경험적 지식정보체계의 계층화를 거쳐 경험적 확률 추론방법으로 상황요인들의 경험적 모델을 생성하는 과정이다. Referring to this, that is, the figure is as diagram showing a higher flow of empirical context aware computing circuit (④) of FIG. 2, reference numeral 22 is inferred empirical probability through the layering of empirical knowledge information system from the input raw situation factor information a process that generates an empirical model of situational factors in the way.

참조부호 24는 전 단계 과정(22)에서 새로 생성된 상황요인들의 경험적 모델로부터 상황법칙 1,2에 기반하여 상황의 경험적 모델을 생성하는 과정이다. Reference numeral 24 is a step of generating an empirical model of the situation on the basis of the situation from the second law of empirical models of the newly created context factors in the previous step process (22).

참조부호 26은 전 단계 과정(24)에서 새로 생성된 상황의 경험적 모델의 경험된 모델을 후술하는 도 5의 알고리즘을 통해 획득하는 과정이다. Reference numeral 26 is a step of obtaining through the algorithm of Figure 5 to be described later to the empirical model of the empirical model of the newly generated context in the previous step process (24).

참조부호 28은 경험적 지식정보체계의 "상황: 상호작용"의 경험적 모델을 기반으로 전 단계 과정(24)에서 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 도 6의 알고리즘을 통해서 획득하는 과정이다. Reference numeral 28 is of the empirical knowledge information system: the process of acquiring by the "status interaction" Cross-empirical model algorithm of Figure 6 of the action on the empirical model of the situation in the previous step based on the empirical model process 24 in the .

참조부호 12는 앞서 설명한 바와 같이, 경험적 지식정보체계의 경험적 모델의 학습 데이터이며, 전 단계 과정(28)의 입력 데이터이다. Reference numeral 12, and the training data the empirical model of the empirical knowledge information system, as described above, the input data of the previous process step (28).

도 4는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 3의 경험적 모델의 계층화와 상황의 경험적 모델 생성 과정을 나타내는 흐름도이다 4 is a flow chart showing the experimental model generation process of the layered state of an empirical model of Figure 3 contains the empirical situation recognition method for a robot according to the invention

이를 참조하면, 동 도면은 도 3의 경험적 모델 생성 과정(22,24)을 보다 구체화한 흐름도로서, 참조부호 30은 입력된 원시 데이터들의 경험적 모델을 생성하기 위한 정규화를 수행하는 과정인 바, 데이터들의 유효성을 검증하고, 문자열 기반의 정보 명세서가 부여되고, 고유 ID가 할당되는 고유화 등의 데이터 재정의가 이루어지며, 후행 연산과정(예컨대, 32)의 계층화를 위한 데이터 분류 작업을 수행한다. Referring to this, the figure is a flow diagram further refine the empirical model generation process 22 and 24 of Figure 3, reference numeral 30 is a step of performing a normalization to generate an empirical model for the input of raw data, any data verification of the validity, and given a specification of the string-based information and, when the data such as a unique override screen that is a unique ID that is assigned is made, perform the data classification for the layering process of the post-operation (e.g., 32).

참조부호 32는 정규화가 완료된 데이터들을 경험적 지식정보체계의 계층화를 거쳐 경험적 모델을 생성하는 과정으로서, 계층화는 데이터의 종류와 수평, 수직적 관계에 의해 분류되는 작업을 기초로 수행된다. Reference numeral 32 is a process of normalizing is complete generate empirical models the data through the layering of empirical knowledge information system, layering is performed on the basis of the work sorted by the type of data and the horizontal and vertical relationship. (이 단계에서 PAL 인터페이스가 구축이 되며, 원시모델과 분류모델, 파생모델을 만든다) (At this stage it is to build a PAL interface, creating a raw model and classification model variant)

참조부호 34는 이전 과정(32)에서 새로 생성된 상황요인들의 경험적 모델들에서 상황법칙 3과 스칼라 변위(Scalar Displacement)의 대소 관계를 통해 마스터 상황요인을 탐색하는 과정으로서, 상기 마스터 상황요인은 상호작용 후보 모델이 되기도 하며 존재 하지 않을 수도 있다. Reference numeral 34 is a process for searching the master status factors through the size relationship of the old process conditions law 3 the scalar displacement in the empirical model of the newly generated status factor in (32) (Scalar Displacement), the master status factors Interconnects also acts candidate models, and may or may not exist.

참조부호 36은 이전 과정(32)의 상황요인들의 경험적 모델들을 상황법칙 1,2에 기반해서 상황의 경험적 모델을 생성하기 위한 정규화 과정을 수행하는 과정이다. Reference numeral 36 is a process to empirically-based model of the condition factors of the previous procedure (32) to the situation rule 1,2 performs a normalization process for generating an empirical model of the situation.

참조부호 38은 이전 과정(36)에서 선택된 상황요인들의 경험적 모델들을 스칼라 변위로 구성하는 집합체인 상황의 원시모델을 생성하는 연산과정이다. Reference numeral 38 is a computing process for generating a source model of the situation aggregate constituting the empirical model of the situation factors selected in the previous step 36 to the scalar displacement.

참조부호 40은 이전 과정(38)의 상황요인들의 경험적 모델의 집합체인 상황의 원시모델을 통해 상황의 경험적 모델을 생성하는 연산과정이다. Reference numeral 40 is a calculation process to generate the empirical model of the situation via the source model of an aggregate of an empirical model of the situation factor of the previous procedure (38) conditions.

도 5는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도3의 과정(26)의 하위 흐름으로 상황의 경험적 모델을 획득하는 알고리즘을 도시한 도면이다. 5 is a diagram showing an algorithm for obtaining an empirical model of the situation in the lower flow of the process 26 of Figure 3 comprises the empirical situation recognition method for a robot according to the present invention.

이를 참조하면, 참조부호 42는 인식하기 위한 상황의 경험적 모델을 입력 받는 연산과정이다. Referring to this, the reference numeral 42 is a calculation process of receiving an empirical model of the conditions for recognition.

참조부호 44는 이전 과정(42)의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 이전 과정(42)의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 이전 과정(42)의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 연산과정이다. Reference numeral 44 is an empirical model of the situation in the previous step 42 exists at the intersection of the set of items of a PAL disc driver on aspects factors element of the empirical model of the previous process 42, the situation is that number of elements is 1 a calculation process that determines whether or not to satisfy the conditions 1 law determining the model that satisfies the conditions in the model experience with the empirical model of the previous process (42) conditions.

참조부호 46은 이전 과정(44)의 조건에서 상황법칙1을 만족하지 않고 이전 과정(44)의 교집합의 원소가 1보다 큰 경우 상황법칙5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 이전 과정(42)의 경험된 모델로 간주하는 판단을 수행하는 연산과정이다. Reference numeral 46 is the least number of elements (the situation factor) of the previous step for each situation by situation rule 5 is larger the intersection of an element of the transfer process (44) does not satisfy the condition rule 1 in the condition of (44) than the first a calculation step of performing a determination of the elements considered in the empirical model of the previous process (42). 이때, 경험된 모델이 다중 선택이 된다면 이전 과정(42)에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정한다. In this case, choose the model belongs to the elements of a PAL disc driver set of items for the master situational factors in the empirical model that if the empirical model, multiple choice corresponds to the previous procedure (42) The situation (when the master situational factors exist), or situation 3 to apply the law to determine priority between the case of the scalar displacement of situational factors. 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있으므로 상황법칙 5에 의해 원소 개수가 적은 것을 택하는 것은 적절할 것이다. Among the candidates of the situation, so that if the number of elements is small conditions included in the number of elements in many situations it may be appropriate to select the number of elements is small by the situation rule 5.

참조부호 48은 이전 과정(46)의 조건을 만족하지 않는다면 경험적 지식정보체계의 경험화된 모델들로부터 확률적 추론을 통해서 이전 과정(42)의 경험된 모델을 획득하는 연산과정이다. Reference numeral 48 is a calculation process for obtaining an empirical model of the previous process (42) through a probabilistic inference from the experience of the modeled transfer process 46 conditions the empirical knowledge information system does not satisfy the. 이때, 상황법칙 2를 만족하는 모델을 획득하는 바, 찾은 모델의 수가 복수 개라면 이전 과정(46)의 과정을 수행한다. At this time, if the number of the plurality of status rule 2 bar, to obtain a model that satisfies the found model performs a process in the previous step (46).

참조부호 50은 이전 과정(48)에서 경험된 모델을 찾지 못할 경우, 이전 과정(42)의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 연산과정이다. Reference numeral 50 is a calculation process if it can not find a model that experienced in the previous step 48, selected as a model experience an empirical model of the situation in the previous step 42, and performed to request experience screen on this model.

참조부호 52는 알고리즘 전체에 걸쳐 이전 과정(42)의 상황의 경험적 모델에 대한 경험된 모델을 찾지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 연산과정이다. Reference numeral 52 is a case where not find the model experience with the empirical model of the situation in the previous step 42, over the entire algorithm or a calculation process of requesting the experience screen when an exception occurs.

참조부호 54는 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 연산 과정이다. Reference numeral 54 is a calculation process for requesting experience screen on empirical models of the image screen to the operation section of the experience perceived circuit.

도 6은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도3의 과정(28)의 하위 흐름으로 상호작용의 경험적 모델을 획득하는 알고리즘을 도시한 도면이다. 6 is a diagram showing an algorithm for obtaining an empirical model of the interaction with the lower flow of the process of Fig 28 is included in the empirical situation recognition method for a robot according to the present invention.

이를 참조하면, 참조부호 60은 인식할 상황의 경험적 모델을 입력 받는 과정이며, 참조부호 62는 경험적 지식정보체계의 PAL 디스크라이버와 경험적 확률 추론으로 이전 과정(60)의 상황에 대한 상호작용의 경험적 모델을 획득하는 연산과정이다. Referring to this, a reference numeral 60 is for inputting an empirical model to recognize the situation processes, reference numeral 62 is experiential interaction with the situation of the previous procedure (60) to a PAL disc driver and empirical probability inference heuristics Information System a calculation step of obtaining a model.

참조부호 64는 이전 과정(62)에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 연산과정이다. Reference numeral 64 is a calculation process in consideration of the situation and laws of three master status factors among the empirical model of the interaction obtained in the previous step (62) selecting one of the highest empirical models.

참조부호 66은 이전 과정(62)에서 상호작용의 경험적 모델을 획득하지 못할 경우 이전 과정(60)에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 과정인 바, 이 과정은 선택적인 것으로 필요에 따라 생략 될 수 있다. Reference numeral 66 is a process for obtaining an empirical model of the interaction of the candidate model, the experimental model of the situation corresponding to the previous process before the process 60, if it does not obtain an empirical model of interaction in a 62 bar, this process may be omitted as necessary to choice.

참조부호 68은 상황법칙 3, 5와 마스터 상황요인을 고려하여 이전 과정(60)에서 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 과정으로서, 여기서는 상황법칙 3에 의해 이전 과정(60)상황의 상황요인들의 스칼라 변위로 그 작용의 우선순위를 판단하고 상황법칙 5에 의거해 우선순위가 낮은 상황요인을 제거하여 이전 과정(60)상황의 경험적 모델을 수정하는 과정이 포함된다. Reference numeral 68 is a context rule 3, a process of newly generating an empirical model of the interaction of the empirical model of the situation in the previous process (60) by considering the 5 and master status factor, where the transfer process by a context rule 3 ( 60) by a scalar displacement of situational factors of the situation, determine the priorities of the action and remove it low priority situational factors under the circumstances the law. 5 includes the process of modifying an empirical model of the previous procedure 60 situation. 최종적으로 수정된 이전 과정(60)의 경험적 모델의 계층관계를 고려하여 허용 범위 안에 들어오는 상호작용의 경험적 모델을 생성한다. In consideration of the empirical model leveling of the final modified in the previous step 60 and generates an empirical model of the incoming interaction within the allowable range.

참조부호 70은 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 과정으로서, 이렇게 생성된 ACT는 대화시스템에 요청하게 된다. Reference numeral 70 is a step of generating a run-time model of the empirical model of the last selected interaction (Model Run Time) ACT, ACT so produced is requested in the conversation system.

참조부호 72는 새롭게 생성된 이전 과정(60)에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 이전 과정(60)의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 이전 과정(60)의 해당 상황을 미지의 상황으로 간주하고 경험화 연산부에 경험화를 요청하는 연산 과정이다. Reference numeral 72 is a new experimental model of the interaction of the situation with respect to the empirical model of the interaction of the generated previous course (60) with request for experience screen as ( "situation interaction"), the previous procedure (60) If it failed to obtain an empirical model of interaction for that situation a calculation process that considers the status of the migration process 60 in an unknown condition and requests a screen to experience experiences screen operation unit.

도 7은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로의 경험화 과정의 하위 흐름을 나타내는 도면이다. 7 is a view showing a sub-flow of the development process of experience perceived ECA circuit empirical situation recognition method for a robot according to the present invention is implemented.

이를 참조하면, 동 도면은 도 2의 경험화 과정(⑦)을 구체화한 과정들을 설명하는 바, 참조부호 80은 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 연산과정이다. Referring to this, the figure is a bar illustrating the process embodying the experience development process (⑦) of FIG. 2, reference numeral 80 is the interaction with the additional conditions newly or empirical model of the unknown status ( "Status: Interaction "It is an input process of receiving an empirical model).

참조부호 82는 이전 과정(80)의 경험적 모델들의 경험적 지식정보체계의 계층화를 수행하는 과정으로서, 해당 과정(82)은 경험적 상황인식의 계층화를 통해 원시모델, 분류모델, 파생모델로 계층화가 되어 있는 경험적 모델들에 경험치를 반영하여 다시 계층화를 수행한다. Reference numeral 82 is a layered into native models, classification model derived model as the process of performing the layering of empirical knowledge and information systems of the empirical model of the previous procedure (80), the process (82) through the layering of the empirical situation awareness reflect the experience in the empirical model to perform the layered again. 경험치는 경험적 상황인식을 거치면서 얻어진 데이터들로 상황요인들의 작용빈도, 상황의 노출빈도, 상황에 대한 상호작용의 친밀도, 상호작용의 결과 등으로 이루어진다. EXP is made of affinity interaction with the working frequency, and exposure frequency, how the conditions of the situation, with the resulting factor goes through empirical situation awareness data, as a result of such interaction.

참조부호 84는 경험적 모델간의 스칼라 변위를 조정하는 과정으로서, 여기서는 경험적 모델의 경험치, 주체의 속성이나 현 시점의 상황 등이 고려 될 수 있다. Reference numeral 84 is a process for adjusting the scalar displacement between the empirical model, in this case and the like of the experience, the subject attributes and the present time of the empirical model, the situation can be considered.

참조부호 86은 이전 과정(84)의 경험적 모델들을 경험적 지식정보체계의 소속된 계층의 PAL 요소 그룹에 추가하는 연산 과정이다. Reference numeral 86 is a calculation process of adding the empirical model of the previous step 84, the PAL element belonging to the group of the hierarchy of heuristic knowledge and information system.

참조부호 88은 이전 과정(86)의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 연산 과정으로서, 이때, 모델간의 상호관계는 상황요인에 대한 상황, 상황에 대한 상호작용 등을 의미한다. Reference numeral 88 is a calculation process of reviewing the need to define a new relationship of the mutual relationship of the empirical model of the previous step 86, At this time, the interrelationship between models, interaction of the situation, the situation of the situation of factors, including It means. 예를 들면 새로운 종류의 상황요인이 생성 됐다면 그것에 대한 상황의 새로운 PAL 디스크라이버를 작성해야 한다. For example dwaetdamyeon create a new kind of situational factors need to create a new situation of a PAL disc driver for it.

참조부호 90은 이전 과정(86)의 PAL요소들을 PAL 디스크라이버에 추가하는 연산 과정이다. Reference numeral 90 is a calculation process of adding the PAL element of the previous procedure (86) to the PAL disk driver. 참조부호 92는 이전 과정(86)의 경험적 모델들 중에서 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 연산 과정이다. Reference numeral 92 is a calculation process of writing PAL disk driver for the model to define a new relationship between the model from the empirical model of the previous process (86).

도 8, 9, 10은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법의 경험적 지식정보체계를 구현하는 PAL 인터페이스의 디스크라이버의 수행상태의 예로써 여기서는 시간, 이벤트 상황요인에 대한 상황의 디스크라이버와 상황에 대한 상호작용의 디스크라이버를 예시한 도면이다. 8, 9, 10 and the disk driver of the situation for the present, for example of the performance status of the disk driver of the PAL interface that implements the empirical knowledge and information system of an empirical situation recognition method for a robot according to the invention in this case, time, event status factor a view showing the disk driver interaction with the situation.

이를 참조하면, 동 도면은 ECA의 경험적 지식정보체계의 PAL 디스크라이버의 단편적인 예를 보여주며 실제 구현에서는 사용자 경험이 충분히 반영된 좀 풍부하고 계층화된 자료를 기반으로 작성을 한다. When you see this, this figure is a right based on the empirical knowledge of the system shows a fragmentary example of a PAL disk driver in the actual implementation of the user experience that reflects some rich and layered enough data for ECA.

PAL 디스크라이버는 두 종류의 경험적 모델 집합(PAL 요소 그룹)의 관계성을 확률적 분포나 함수 관계로 정의한 것인데 이때의 관계성이란 것은 반드시 정의역 X축의 모델에 대해서 치역 Y축 모델의 발생 빈도만을 정의하는 것은 아니며, 경험적 모델들 간의 관계성에 따라 다양한 PAL 디스크라이버를 정의 할 수 있다. PAL disk driver are two kinds empirical model set (PAL element group), a relationship probability distribution or geotinde defined as a function of this time relationship is not necessarily define only the frequency of the station Y-axis model for the domain model of the X axis of the it is not possible to define the various driver PAL discs depending on the relationship between the empirical model.

예를 들면, 상호작용에 상관없는 상황에 따른 주체의 라이프스타일을 표현 할 수도 있다. For example, it is also possible to express the lifestyle of the subject according to the absence of any interaction.

추가적으로 PAL 디스크라이버 상의 한 점을 PAL 아이템이라고 하는데 이 아이템은 또 다른 PAL 디스크라이버에 대한 핸들 ( C와 같은 컴퓨터 프로그램 언어로 작성된 프로그램상의 참조나 포인터 ) 을 갖고 있을 수 있다. In addition, PAL a point on the disk driver is called PAL Item This item may have another disk driver PAL handle on (see on the program written in a computer language such as C or program pointer). 그것을 PAL 서브디스크라이버라고 명명하는데, 아이템의 두 모델요소 X, Y성분에 각각 부속된 요소들에 대한 PAL 디스크라이버이다. To it named PAL sub-disk driver, a disk driver PAL for the two model elements X, each of the sub-element in the Y component of the item. 주로 아이템의 세부적인 모델들에 대한 PAL디스크라이버를 구현할 때 사용된다. It is mainly used to implement a PAL disc driver for the detailed model of the item.

도 8은 시간이라는 상황요인에 대한 상황의 PAL 디스크라이버를 보여준다. Figure 8 shows a PAL disc driver of the situation on the situation of the time factor.

도 9는 사건(Event)라는 상황요인에 대한 상황의 PAL 디스크라이버를 보여준다. Figure 9 shows a PAL disc driver of the situation on the situational factors that event (Event).

도 10은 상황에 대한 ACT의 PAL디스크라이버를 보여준다. Figure 10 shows an ACT driver of a PAL disc on the situation. 이 예에서 아이템 (친구와 함께,*라고 물어보기)은 두 모델 요소의 세부적인 모델에 대한 PAL 서브디스크라이버를 갖고 있다는 것을 보여준다. (See with your friends, ask, *) Items in this example shows that it has the PAL sub-disc driver for detailed model of the two model elements.

한편, 본 발명의 실시예에 따른 로봇을 위한 경험적 상황인식 방법은 단지 상기한 실시예에 한정되는 것이 아니라 그 기술적 요지를 이탈하지 않는 범위 내에서 다양한 변경이 가능하다. On the other hand, the empirical situation recognition method for a robot according to an embodiment of the present invention is not limited only to the embodiment described above various modifications within a range that does not deviate from the technical gist.

Claims (4)

  1. 입력된 원시데이터로부터 상황의 경험적 모델을 생성하는 경험적 모델 생성단계; Empirical model generation step of generating a model of experimental conditions from the inputted raw data; 제1알고리즘을 수행하는 단계; The method comprising: performing a first algorithm; 제2알고리즘을 수행하는 단계; The method comprising: performing a second algorithm; 및 상기 제1, 2알고리즘 수행단계에서 미지의 상황이나 새로 추가된 상황에 대한 상호작용의 경험적 모델에 대한 경험화를 수행하는 단계를 통해서 이루어지는 로봇을 위한 경험적 지식정보이해 기반의 상황 인식 방법에 있어서 And in each of the first, second algorithm performs phase of empirical knowledge to understand the basis for the formed robot by performing an empirical screen of the empirical model of interaction for the unknown conditions or new situations situation recognition method in
    상기 경험적 모델 생성단계는, The empirical model generating step,
    상황법칙 1,2,3에 기반해서 입력된 원시 데이터로부터 상황요인, 상황, 상호작용에 대한 경험적 모델을 생성하고 마스터 상황요인을 획득하는 방법을 이루고, Generate an empirical model for the situation factors, conditions, interaction from the base to the conditions 1, 2, 3 law input raw data and forms a method of obtaining a master status factors,
    상기 제1알고리즘은 The first algorithm
    인식하기 위한 상황의 경험적 모델을 입력 받는 제 17단계와; Step 17: receiving the empirical model of the conditions for recognition and; 제 17단계의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 제 17단계의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 제17단계의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 제 18단계와; In the intersection of the set of items of a PAL disc driver on aspects factors element of the empirical model of the step 17 the situation there is an empirical model of the 17th stage situation that number of elements is 1 whether or not the meet the conditions law 1 a step 18 of determining determines a model that satisfies the conditions in the model experience with the empirical model of the 17th step and the conditions; 제 18단계의 조건에서 상황법칙 1을 만족하지 않고 제 18단계에서 교집합의 원소가 1보다 큰 경우 상황법칙 5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 제 17단계의 경험된 모델로 간주하는 판단을 수행하는 제 19단계와; The cost of the situation rule for each condition of the element (the situation factor), the least number of elements is by the situation rule 5, if the element of the intersection is greater than 1, the step 17 from step 18 does not satisfy the one under the conditions of step 18 experience of claim 19 further comprising: performing a determination to be considered as a model and; 제 19단계의 조건을 만족하지 않는다면 경험적 지식정보의 경험화된 모델들로부터 확률적 추론을 통해서 제 17단계의 경험된 모델을 획득하는 제 20단계와; The first stage 20 to obtain an empirical model of the step 17 through the probabilistic reasoning does not satisfy the condition of step 19 from the experiences of modeled empirical knowledge information; 제 20단계에서 경험된 모델을 획득하지 못할 경우, 제 17단계의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 제 21단계와; Failure to obtain a model experience in operation 20, to select a model of the empirical experience of the situation model, step 17 and the step 21 of performing experience to request screen for the model; 알고리즘 전체에 걸쳐 제 17단계의 상황의 경험적 모델에 대한 경험된 모델을 획득하지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 제 22단계와; If one does not obtain the model experience with the empirical model of the 17th stage conditions over the entire algorithm or the second step 22 to request an exception is experienced if a screen and; 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 제 23단계로 이루어진 것이고, The operating section of the perceptual experience Chemistry circuit been made to claim 23 further comprising: requesting the screen experience on empirical models of the image,
    상기 제2알고리즘은, The second algorithm,
    인식할 상황의 경험적 모델을 입력 받는 제 24단계와; Step 24: receiving the empirical model to recognize the situation; 경험적 지식정보의 PAL 디스크라이버와 경험적 확률 추론으로 제 24단계의 상황에 대한 상호작용의 경험적 모델을 획득하는 제 25단계와; Step 25 as a PAL disc driver and the empirical probability inference of empirical knowledge obtained empirical model of interaction for the 24th step and the conditions; 제 25단계에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 제 26단계와; And the second stage 26 in consideration of the situation and laws of three master status factors among the empirical model of the interaction obtained in step 25 of selecting one of the highest empirical models; 제 25단계에서 상호작용의 경험적 모델을 획득하지 못할 경우 제 24단계에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 제 27단계와; Claim 27 and the method comprising: obtaining an empirical model of the interaction of the candidate model, the mutual failure to obtain an empirical model of the working conditions of the empirical model for the 24th stage from the stage 25; 상황법칙 3,5와 마스터 상황요인을 고려하여 제 24단계의 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 제 28단계와; Status rule 3,5 and claim 28 further comprising: considering the master status factors create a new experimental model of the interaction of the empirical model of the situation in the 24th step; 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 제 29단계와; These final cross runtime model of the empirical model of the action (Model Run Time) The step 29 of generating and ACT; 새롭게 생성된 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 제 24단계의 해당 상황을 미지의 상황으로 간주하고 경험화를 요청하는 제 30단계로 이루어지고, New empirical models of the interaction of the situation with respect to the resulting empirical model of interaction for the conditions of the step 24: and requesting the experience screen as ( "situation interaction"), mutually about the status of the 24th step If failed to obtain an empirical model of action is made to the state of the step 24 in claim 30, further comprising: considered to be the unknown situation requesting experience Chemistry,
    상기 제1알고리즘과 제2알고리즘을 수행하는 단계에서 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 제 31단계와; And a step 31 of receiving the empirical models ( "interaction context"); wherein the first algorithm and the second algorithm stage interaction with the empirical models or newly added conditions of unknown conditions in performing the 상황법칙1,2,3에 의한 제 31단계의 경험적 모델들의 경험적 지식정보의 계층화를 수행하는 제 32단계와; Operation 32 to perform the layering of the empirical knowledge of the empirical model of the step 31 according to the situation and laws of 2,3; 상황법칙1,2,3에 의한 경험적 모델간의 스칼라 변위를 조정하는 제 33단계와; The step 33 of adjusting the scalar displacement between the empirical model of the situation and laws of 1, 2, 3; 제 33단계의 경험적 모델들을 경험적 지식정보의 소속된 계층의 PAL 요소 그룹에 추가하는 제 34단계와; Claim 34 and the step of adding an empirical model of the step 33 to the PAL element belonging to the group of the hierarchy of heuristic knowledge information; 상황법칙1,2,3에 의한 제 34단계의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 제 35단계와; Of claim 35 further comprising: reviewing the need to define a new relationship for correlation of empirical models of the 34 steps by the situation and laws of 2,3; 제 34단계의 PAL요소들을 PAL 디스크라이버에 추가하는 제 36단계와; The PAL element 34 of the step and the step 36 of adding a PAL disc driver; 제 34단계의 경험적 모델들 중에서 상황법칙1,2,3에 의한 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 제 37단계로 이루어진 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법. Empirical situation recognition method for a robot according to claim 37 consisting of the steps to create a PAL disc driver for the empirical models the model defining the relationship between the new model according to the conditions of the rule 1, 2 and 3 from step 34 .
  2. 제 1항에 있어, In claim 1,
    상기 제 19단계에서, 경험화된 모델이 다중 선택이 된다면 제 17단계에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정하고, 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있는 경우 상황법칙 5에 의해 원소 개수가 적은 것을 택하도록 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. In the first step 19, if it is a multiple choice experienced modeled the model belonging to a PAL disc driver element of the set of items on the (in the presence of a master condition factor) master status factors of the empirical model of the situation corresponding to the 17th step If select or situation determined by priority to the size relationship of the scalar displacement, and the candidate is smaller element number of situations during the circumstances of the situation factor by applying the rule 3 is that when included in the number of elements in many situations by the situation rule 5 a computer-readable recording medium storing a program for a number of elements executing a heuristic situation recognition method for a robot, characterized in that to select the least.
  3. 제 1항에 있어서, 상기 제 28단계는 상황법칙 3에 의해 제 24단계 상황의 상황요인들의 스칼라 변위로 그 작용의 우선순위를 판단하고 상황법칙 5에 의거해 우선순위가 낮은 상황요인을 제거하여 제 24단계 상황의 경험적 모델을 수정하는 과정이 포함되며, 최종적으로 수정된 제 24단계의 해당 상황의 경험적 모델의 계층관계를 고려하여 허용범위 안에 들어오는 상호작용의 경험적 모델을 생성하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. The method of claim 1, wherein the step 28 is to determine the priority of the action to the scalar displacement of situational factor of step of claim 24 by the situation rule 3 conditions and removes it lower priority status factors under the circumstances law 5 claim and including the step of modifying the empirical model of the 24 phase conditions, in view of the empirical model hierarchy of eventually the applicable conditions of the 24th stage modified, characterized in that to generate the empirical model of the incoming interaction within the allowable range a computer-readable recording medium storing a program for executing the empirical situation recognition method for a robot.












  4. 삭제 delete
KR1020100032792A 2010-04-09 2010-04-09 Empirical Context Aware Computing Method For Robot KR101369810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100032792A KR101369810B1 (en) 2010-04-09 2010-04-09 Empirical Context Aware Computing Method For Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100032792A KR101369810B1 (en) 2010-04-09 2010-04-09 Empirical Context Aware Computing Method For Robot

Publications (2)

Publication Number Publication Date
KR20110113414A KR20110113414A (en) 2011-10-17
KR101369810B1 true KR101369810B1 (en) 2014-03-05

Family

ID=45028773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100032792A KR101369810B1 (en) 2010-04-09 2010-04-09 Empirical Context Aware Computing Method For Robot

Country Status (1)

Country Link
KR (1) KR101369810B1 (en)

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US8364694B2 (en) 2007-10-26 2013-01-29 Apple Inc. Search assistant for digital media assets
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8289283B2 (en) 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9104670B2 (en) 2010-07-21 2015-08-11 Apple Inc. Customized search or acquisition of digital media assets
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2013185109A2 (en) 2012-06-08 2013-12-12 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
CN104969289A (en) 2013-02-07 2015-10-07 苹果公司 Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR101904293B1 (en) 2013-03-15 2018-10-05 애플 인크. Context-sensitive handling of interruptions
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278592B2 (en) 2013-06-09 2017-09-07 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
JP2016521948A (en) 2013-06-13 2016-07-25 アップル インコーポレイテッド System and method for emergency call initiated by voice command
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509673A (en) 2005-09-30 2009-03-12 アイロボット コーポレーション Companion robot for personal interaction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509673A (en) 2005-09-30 2009-03-12 アイロボット コーポレーション Companion robot for personal interaction

Also Published As

Publication number Publication date
KR20110113414A (en) 2011-10-17

Similar Documents

Publication Publication Date Title
Dourish Where the action is: the foundations of embodied interaction
Sharples et al. The design and implementation of a mobile learning resource
Liu Semiotics in information systems engineering
Cheyer et al. The open agent architecture
Hevner et al. Design research in information systems: theory and practice
Sharma et al. Speech-gesture driven multimodal interfaces for crisis management
Dybkjaer et al. Evaluation and usability of multimodal spoken language dialogue systems
Borshchev et al. From system dynamics and discrete event to practical agent based modeling: reasons, techniques, tools
Werner Cooperating agents: A unified theory of communication and social structure
US8156060B2 (en) Systems and methods for generating and implementing an interactive man-machine web interface based on natural language processing and avatar virtual agent based character
Bond et al. Readings in distributed artificial intelligence
CN100392562C (en) Apparatus for generating behaviour in an object
Thrift et al. The automatic production of space
Crabtree Ethnography in participatory design
Churchill et al. Collaborative virtual environments: digital places and spaces for interaction
Maes Behavior-based artificial intelligence
US6570555B1 (en) Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
Sutcliffe User-centred requirements engineering
Wahlster Smartkom: Symmetric multimodality in an adaptive and reusable dialogue shell
Vicente Ecological interface design: Progress and challenges
Padgham et al. Developing intelligent agent systems: A practical guide
Kasap et al. Making them remember—Emotional virtual characters with memory
Baets Organizational learning and knowledge technologies in a dynamic environment
US20080096533A1 (en) Virtual Assistant With Real-Time Emotions
Normand et al. The COVEN project: Exploring applicative, technical, and usage dimensions of collaborative virtual environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170228

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee