KR102140585B1 - Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof - Google Patents

Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof Download PDF

Info

Publication number
KR102140585B1
KR102140585B1 KR1020180150737A KR20180150737A KR102140585B1 KR 102140585 B1 KR102140585 B1 KR 102140585B1 KR 1020180150737 A KR1020180150737 A KR 1020180150737A KR 20180150737 A KR20180150737 A KR 20180150737A KR 102140585 B1 KR102140585 B1 KR 102140585B1
Authority
KR
South Korea
Prior art keywords
event
fluent
intention
information
behavioral
Prior art date
Application number
KR1020180150737A
Other languages
Korean (ko)
Other versions
KR20200064534A (en
Inventor
박영택
김제민
전명중
박현규
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020180150737A priority Critical patent/KR102140585B1/en
Publication of KR20200064534A publication Critical patent/KR20200064534A/en
Application granted granted Critical
Publication of KR102140585B1 publication Critical patent/KR102140585B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Abstract

실시예에 의한 사람의 행위 의도 인지를 위한 온톨로지 기반 사건 연산 규칙 생성 장치 및 그 방법이 개시된다. 상기 사건 연산 규칙 생성 장치는 행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하여 미리 정의된 플루언트(fluent)로 변환하는 플루언트 맵퍼; 사람의 생활 패턴에 대한 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환하는 사건 인식기; 및 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 기초로 행위의도를 인지하기 위한 사건 연산 규칙을 생성하는 규칙 변환기를 포함한다.Disclosed is an apparatus and method for generating an ontology-based event operation rule for recognizing a person's intention to act according to an embodiment. The apparatus for generating an event operation rule may include a fluent mapper that extracts contents necessary for reasoning of behavioral intention from among contents included in the behavioral intention ontology and converts it into a predefined fluent; An event recognizer that converts percept information about a person's life pattern into predefined event information; And a rule converter that generates an event operation rule for recognizing an intention to act based on the converted fluent and the converted event information.

Description

사람의 행위 의도 인지를 위한 온톨로지 기반 사건 연산 규칙 생성 장치 및 그 방법{APPARATUS FOR GENERATING RULES OF EVENT CALCULUS BASED ON ONTOLOBY FOR ACTIVITY INTENSION RECOGNITION AND METHOD THEREOF}A device and method for generating an ontology-based event calculation rule for recognizing a person's behavioral intention {APPARATUS FOR GENERATING RULES OF EVENT CALCULUS BASED ON ONTOLOBY FOR ACTIVITY INTENSION RECOGNITION AND METHOD THEREOF}

실시예는 행위 의도 인지 기술에 관한 것으로, 보다 상세하게는 사람의 행위 의도 인지를 위한 온톨로지 기반 사건 연산 규칙 생성 장치 및 그 방법에 관한 것이다.Embodiments relate to a behavior intention recognition technology, and more particularly, to an ontology-based event operation rule generating apparatus and method for recognizing a person's behavior intention.

보편적인 지식 기반 규칙을 통해 행동이나 행위 의도를 추론하는 방식은 모델을 학습하기 위한 훈련데이터가 요구되지 않는다는 장점이 있다. 이러한 이유로 사건 연산을 적용하여 행위 의도를 인지하는 기술들이 발표되었다.The method of inferring behavior or intention through universal knowledge-based rules has the advantage that training data is not required to train the model. For this reason, techniques for recognizing the intention of action by applying the event operation have been published.

그러나 종래기술은 행위 의도 인지에 바탕이 되는 장기 행동 조합을 구성하기 위해 사건 연산 규칙을 직접 정의하였다. 따라서, 적용된 사건 연산 규칙은 전문가적인 정보보다는 시스템을 구축하는 개발자 개인의 지식이 반영되었다.However, in the prior art, the rules for calculating an event were directly defined in order to construct a combination of long-term actions based on the recognition of the intention to act. Therefore, the applied event operation rules reflected the knowledge of the individual developers who built the system rather than expert information.

등록특허공보 제10-1766583호Registered Patent Publication No. 10-1766583

실시예는, 사람의 행위 의도 인지를 위한 온톨로지 기반 사건 연산 규칙 생성 장치 및 그 방법을 제공할 수 있다.An embodiment may provide an ontology-based event calculation rule generating apparatus and method for recognizing a person's intention to act.

본 발명의 일 실시예에 따른 사건 연산 규칙 생성 장치는 행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 미리 정의된 플루언트(fluent)로 변환하는 플루언트 맵퍼; 사람의 생활 패턴에 대한 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환하는 사건 인식기; 및 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 기초로 행위의도를 인지하기 위한 사건 연산 규칙을 생성하는 규칙 변환기를 포함할 수 있다.An apparatus for generating an event operation rule according to an embodiment of the present invention includes: a flexible mapper that converts contents necessary for reasoning of behavioral intention from among contents included in the behavioral intention ontology into a predefined fluent; An event recognizer that converts percept information about a person's life pattern into predefined event information; And a rule converter that generates an event operation rule for recognizing an intention to act based on the converted fluent and the converted event information.

상기 플루언트 맵퍼는 상기 사건 연산 규칙에 적용되는 플루언트를 정의하는 정의부; 상기 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하는 추출부; 및 상기 추출된 내용을 상기 정의된 플루언트로 변환하는 변환부를 포함할 수 있다.The fluent mapper includes a definition unit that defines a fluent that is applied to the event calculation rule; An extracting unit for extracting contents necessary for reasoning of the intention of the behavior among contents included in the ontology of the behavior intention; And it may include a conversion unit for converting the extracted content to the defined fluent.

상기 미리 정의된 플루언트는 행위 의도 변화를 표현하는 행위 의도 플루언트, 행동 변화를 표현하는 행동 플루언트, 자세 변화를 표현하는 자세 플루언트, 주변 객체 변화를 표현하는 주변 객체 플루언트를 포함할 수 있다.The predefined fluent may include a behavior intention fluent representing a behavioral intention change, a behavioral fluent representing a behavioral change, a posture fluent representing a posture change, and a peripheral object fluent representing a surrounding object change. have.

상기 사건 인식기는 상기 사건 연산 규칙에 적용되는 이벤트 정보를 정의하는 정의부; 상기 사람의 생활 패턴에 대한 정보가 시계열적으로 정의된 퍼셉트 정보를 입력받는 입력부; 및 상기 입력된 퍼셉트 정보를 상기 정의된 이벤트 정보로 변환하는 변환부를 포함할 수 있다.The event recognizer defines a unit defining event information applied to the event operation rule; An input unit for receiving percept information in which information on the person's life pattern is defined in time series; And it may include a conversion unit for converting the input percept information to the defined event information.

상기 미리 정의된 이벤트 정보는 사람의 행동 변화에 대한 행동 이벤트, 사람의 현재 자세에 대한 자세 이벤트, 주변 객체의 상태를 변화시키는 주변 객체 이벤트를 포함할 수 있다.The predefined event information may include a behavior event for a person's behavior change, a posture event for a person's current posture, and a surrounding object event for changing a state of the surrounding object.

상기 규칙 변환기는 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 상기 행위 의도 추론에 필요한 내용에 대한 행위 의도와 행동, 자세, 주변 객체와의 관계로 조합하여 상기 조합한 결과로 상기 사건 연산 규칙을 생성할 수 있다.The rule converter combines the converted fluent and the converted event information into a relationship between a behavioral intention and an action, a posture, and surrounding objects for content necessary for inferring the behavioral intention, and sets the event calculation rule as a result of the combination. Can be created.

본 발명의 다른 실시예에 따른 사건 연산 규칙 생성 방법은 행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 미리 정의된 플루언트(fluent)로 변환하는 단계; 사람의 생활 패턴에 대한 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환하는 단계; 및 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 기초로 행위의도를 인지하기 위한 사건 연산 규칙을 생성하는 단계를 포함할 수 있다.A method for generating an event operation rule according to another embodiment of the present invention includes converting a content necessary for inferring an action intention from among content included in an action intention ontology into a predefined fluent; Converting percept information about a person's life pattern into predefined event information; And generating an event calculation rule for recognizing an intention to act based on the converted fluent and the converted event information.

상기 플루언트로 변환하는 단계는 상기 사건 연산 규칙에 적용되는 플루언트를 정의하는 단계; 상기 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하는 단계; 및 상기 추출된 내용을 상기 정의된 플루언트로 변환하는 단계를 포함할 수 있다.The converting to the fluent may include defining a fluent applied to the event calculation rule; Extracting the content necessary for reasoning of the intention of the action among the content included in the ontology of the action intention; And converting the extracted contents into the defined fluent.

상기 이벤트로 변환하는 단계는 상기 사건 연산 규칙에 적용되는 이벤트 정보를 정의하는 단계; 상기 사람의 생활 패턴에 대한 정보가 시계열적으로 정의된 상기 퍼셉트 정보를 입력받는 단계; 및 상기 입력된 퍼셉트 정보를 상기 정의된 이벤트 정보로 변환하는 단계를 포함할 수 있다.The converting to the event may include defining event information applied to the event calculation rule; Receiving the percept information in which information about the person's life pattern is defined in time series; And converting the input percept information into the defined event information.

상기 생성하는 단계에서는 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 상기 행위 의도 추론에 필요한 내용에 대한 행위 의도와 행동, 자세, 주변 객체의 관계로 조합하여 상기 조합한 결과로 상기 사건 연산 규칙을 생성할 수 있다.In the generating step, the event calculation rule is calculated as a result of combining the converted fluent and the converted event information in a relationship between action intention and action, posture, and surrounding objects for the content necessary for inferring the action intention. Can be created.

실시예에 따르면, 행위 의도 온톨로지에 포함된 내용을 플루언트로 변환하고, 사람의 생활 패턴에 대한 퍼셉트 정보를 이벤트 정보로 변환한 후, 변환된 플루언트와 이벤트 정보를 기초로 행위 의도 인지를 위한 사건 연산 규칙을 생성하도록 함으로써, 보다 쉽게 전문가적 지식을 행위 의도 인지를 위해 적용하는 것이 가능할 수 있다.According to an embodiment, the content included in the behavioral intention ontology is converted into a fluent, the percept information on a person's life pattern is converted into event information, and then the behavioral intention is recognized based on the converted fluent and the event information. For example, by generating a rule for calculating an event, it may be possible to apply expert knowledge for recognition of an intention to act more easily.

실시예에 따르면, 전문가적 지식을 행위 의도 인지를 위해 적용하는 것이 가능하기 때문에, 헬스케어를 위한 다양한 시스템 개발을 좀더 효율적으로 진행할 수 있다.According to the embodiment, since it is possible to apply expert knowledge for the recognition of the intention to act, various systems for healthcare can be developed more efficiently.

도 1은 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 장치를 나타내는 도면이다.
도 2는 도 1에 도시된 플루언트 맵퍼의 상세한 구성을 나타내는 도면이다.
도 3은 도 1에 도시된 사건 인식기의 상세한 구성을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 방법을 나타내는 도면이다.
1 is a diagram illustrating an apparatus for generating an event operation rule according to an embodiment of the present invention.
FIG. 2 is a diagram showing a detailed configuration of the fluent mapper shown in FIG. 1.
FIG. 3 is a diagram showing a detailed configuration of the event recognizer shown in FIG. 1.
4 is a diagram illustrating a method for generating an event operation rule according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical spirit of the present invention is not limited to some embodiments described, but may be implemented in various different forms, and within the technical spirit scope of the present invention, one or more of its components between embodiments may be selectively selected. It can be used by bonding and substitution.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless specifically defined and described, can be generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and commonly used terms, such as predefined terms, may interpret the meaning in consideration of the contextual meaning of the related technology.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, “A 및(와) B, C 중 적어도 하나(또는 한 개 이상)”로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In the present specification, the singular form may also include the plural form unless specifically stated in the phrase, and is combined with A, B, C when described as “at least one (or more than one) of A and B, C”. It can contain one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In addition, in describing the components of the embodiments of the present invention, terms such as first, second, A, B, (a), and (b) may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only for distinguishing the component from other components, and the term is not limited to the nature, order, or order of the component.

그리고, 어떤 구성 요소가 다른 구성요소에 ‘연결’, ‘결합’ 또는 ‘접속’된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 ‘연결’, ‘결합’ 또는 ‘접속’ 되는 경우도 포함할 수 있다.And, when a component is described as being'connected','coupled' or'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also to the component It may also include the case of'connected','coupled' or'connected' due to another component between the other components.

또한, 각 구성 요소의 “상(위) 또는 하(아래)”에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, “상(위) 또는 하(아래)”으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or disposed in the “upper (upper) or lower (lower)” of each component, the upper (upper) or lower (lower) is one as well as when the two components are in direct contact with each other. It also includes a case in which another component described above is formed or disposed between two components. In addition, when expressed as “up (up) or down (down)”, it may include the meaning of the downward direction as well as the upward direction based on one component.

실시예에서는, 행위 의도 온톨로지에 포함된 내용을 플루언트로 변환하고, 사람의 생활 패턴에 대한 퍼셉트 정보를 이벤트 정보로 변환한 후, 변환된 플루언트와 이벤트 정보를 기초로 행위 의도 인지를 위한 사건 연산 규칙을 생성하도록 한, 새로운 방안을 제안한다.In an embodiment, the content included in the behavioral intention ontology is converted into a fluent, the percept information on a person's life pattern is converted into event information, and then the behavioral intention is recognized based on the converted fluent and event information. We propose a new method to create an event operation rule.

이때, 플루언트(fluent)는 시간에 따라 값이 변화하는 1계 논리항(term) 또는 술어로 정의된다.At this time, the fluent (fluent) is defined as a term 1 term or predicate whose value changes with time.

도 1은 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 장치를 나타내는 도면이다.1 is a diagram illustrating an apparatus for generating an event operation rule according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 장치는 플루언트 맵퍼(100), 사건 인식기(200), 규칙 변환기(300), 사건연산 지식 베이스(400)를 포함할 수 있다.Referring to FIG. 1, an apparatus for generating an event operation rule according to an embodiment of the present invention may include a fluent mapper 100, an event recognizer 200, a rule converter 300, and an event operation knowledge base 400. have.

플루언트 맵퍼(100)는 행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 미리 정의된 사건 연산 규칙에 적용되는 플루언트(fluent)로 변환할 수 있다. 여기서, 행위 의도 온톨로지는 사람의 행위 의도와 사람의 행동, 자세 및 주변 객체와의 관계를 전문가적 지식을 공유 가능한 형식으로 정의한다.The flexible mapper 100 may convert content necessary for reasoning of the intention among the content included in the behavioral intention ontology into fluent applied to a predefined event operation rule. Here, the behavioral intention ontology defines the relationship between a person's behavioral intention and a person's behavior, posture, and surrounding objects in a format that can share expert knowledge.

도 2는 도 1에 도시된 플루언트 맵퍼의 상세한 구성을 나타내는 도면이다.FIG. 2 is a diagram showing a detailed configuration of the fluent mapper shown in FIG. 1.

도 2를 참조하면, 본 발명의 일 실시예에 따른 플루언트 맵퍼(100)는 의도 추론에 관련된 내용을 플루언트로 변환하고, 정의부(110), 추출부(120), 변환부(130)를 포함할 수 있다.Referring to FIG. 2, the fluent mapper 100 according to an embodiment of the present invention converts content related to intention inference into a fluent, and defines, 110, extracts 120, and converts 130 It may include.

정의부(110)는 사건 연산 규칙에 적용되는 플루언트 형식을 정의할 수 있다. 이러한 플루언트 형식은 행위 의도 플루언트, 행동 플루언트, 자세 플루언트, 주변 객체 플루언트와 같은 4가지 형식으로 정의되는데, 다음의 [표 1]과 같이 표현될 수 있다.The definition unit 110 may define a fluent form applied to an event operation rule. The form of the fluent is defined as four types such as a behavior intent fluent, a behavioral fluent, a posture fluent, and a surrounding object fluent, and can be expressed as the following [Table 1].

구분division 설명Explanation 표현 형식Expression form Intention fluentIntention fluent 행위 의도 변화를 표현Expressing a change in behavior intention(p, i)intention(p, i) Action fluentAction fluent 행동 변화를 표현Express behavior change action(p, s)action(p, s) Change of pose fluentChange of pose fluent 자세 변화를 표현Express posture change pose(p, s)pose(p, s) With object fluentWith object fluent 주변 객체의 변화를 표현Expresses changes in surrounding objects With(p, o, on/off)With(p, o, on/off)

상기 [표 1]에서, 행위 의도 플루언트(intention fluent)는 intention(person_id, intention_id)로 표현하는데, 예컨대, intention(kim, meal)의 경우 'kim'이라는 사람이 'meal' 행위 의도를 갖는 것을 표현한다. 행동 플루언트(action fluent)는 '사람이 숟가락을 집었다'와 같은 행동 변화를 action(kim, pickup_spoon)으로 표현하고, 자세 플루언트(change of pose fluent)는 '사람이 서 있다'와 같은 자세 변화를 pose(kim, stand)로 표현하고, 주변 객체 플루언트(with object fluent)는 '주변의 TV가 켜 있다'와 같은 사람 주변 또는 몸에 지니고 있는 객체 변화를 with(kim, tv, on)와 같이 표현한다.In [Table 1], intention fluent is expressed as intention (person_id, intention_id). For example, in the case of intention (kim, meal), the person named'kim' has an intention of'meal' Express. The action fluent expresses the action change such as'the person picked up the spoon' as an action(kim, pickup_spoon), and the change of pose fluent poses the same as'the person stands' The change is expressed in pose(kim, stand), and the surrounding object fluent is with(kim, tv, on) the change in the object around the person or the body such as'the surrounding TV is on'. It is expressed as

추출부(120)는 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출할 수 있다.The extraction unit 120 may extract content necessary for reasoning of the intention of the action from among contents included in the ontology of the intention to act.

이때, 행위 의도 추론에 필요한 내용을 추출하는 형식은 다음의 [표 2]와 같이 표현될 수 있다.At this time, the form for extracting the contents necessary for inferring the behavioral intention can be expressed as [Table 2] below.

Class(Intention),
subClassOf(?x, Intention), Class(?x),
Class(Person), Class(Action), Class(Pose), Class(Object)
Action(?y), Pose(?z), Object(?j)
InstanceOf(?x, ?i001)
composedAction(?i001, ?y), composedPose(?i001, ?z)
composedObjects(?i001, ?z), isTurnedOn(?z, ?b)
Class(Intention),
subClassOf(?x, Intention), Class(?x),
Class(Person), Class(Action), Class(Pose), Class(Object)
Action(?y), Pose(?z), Object(?j)
InstanceOf(?x, ?i001)
composedAction(?i001, ?y), composedPose(?i001, ?z)
composedObjects(?i001, ?z), isTurnedOn(?z, ?b)

상기 [표 2]에서, '?'가 붙은 기호는 변수를 의미하며, 술어에서 변수가 위치한 부분만 제외하고 나머지 부분이 일치하는 모든 술어를 추출하는 것을 나타낸다.In [Table 2], the symbol with'?' means a variable, and indicates that all predicates matching the rest of the predicate except for the part in which the variable is located are extracted.

상기 [표 2]의 형식을 이용하여 행위 의도 추론에 필요한 내용을 추출하는 예는 다음의 [표 3]과 같다.An example of extracting the content necessary for inferring behavioral intention using the form of [Table 2] is as shown in [Table 3] below.

Class(Intention),
subClassOf(Meal, Intention), Class(Meal), ...
Class(Person), Class(Action), Class(Pose), Class(Object), ...
Action(pickup_spoon), Action(drink_liquid), Action(use_vacuum), Action(use_remote), ...
Pose(sitOnChair), Pose(sitOnFloor), Pose(stand), ...
Object(table), Object(spoon), Object(tv), ...
InstanceOf(Meal, mealFluent001)
composedAction(mealFluent001, pickup_spoon),
composedPose(mealFluent001, sitOnChair)
composedObjects(mealFluent001, table), isTurnedOn(table, false)
...
Class(Intention),
subClassOf(Meal, Intention), Class(Meal), ...
Class(Person), Class(Action), Class(Pose), Class(Object), ...
Action(pickup_spoon), Action(drink_liquid), Action(use_vacuum), Action(use_remote), ...
Pose(sitOnChair), Pose(sitOnFloor), Pose(stand), ...
Object(table), Object(spoon), Object(tv), ...
InstanceOf(Meal, mealFluent001)
composedAction(mealFluent001, pickup_spoon),
composedPose(mealFluent001, sitOnChair)
composedObjects(mealFluent001, table), isTurnedOn(table, false)
...

상기 [표 3]에서, 행위 의도 'meal', 행동 'pickup_spoon', 'drink_liquid', 'use_vacum', 'use_remote', 자세 'sitOnChair', 'sitOnFloor', 'stand', 주변 객체 'table', 'spoon', 'tv'를 추출하는 것을 나타낸다.In [Table 3] above, the action intent'meal', action'pickup_spoon','drink_liquid','use_vacum','use_remote', posture'sitOnChair','sitOnFloor','stand', surrounding objects'table', ' It represents extracting spoon' and'tv'.

변환부(130)는 추출된 행위 의도 추론에 필요한 내용을 미리 정의된 플루언트로 변환할 수 있다. 이때, 미리 정의된 플루언트로 변환하는 예는 다음의 [표 4]와 같다.The conversion unit 130 may convert the content necessary for inferring the extracted behavioral intention into a predefined fluent. At this time, an example of converting to a predefined fluent is shown in [Table 4] below.

변환 대상Conversion target 변환되는 플루언트Fluent transformed 예시example 모든 intention class의 하위 클래스Subclass of all intention classes Intention fluentIntention fluent Class(Meal) -> intention(?p, Meal)Class(Meal) -> intention(?p, Meal) 모든 action class의 instance nameInstance name of all action classes Action fluentAction fluent Action(pickup_spoon) -> action(?p, pickup_spoon)Action(pickup_spoon) -> action(?p, pickup_spoon) 모든 pose class의 instance nameInstance name of all pose classes Change of pose fluentChange of pose fluent Pose(sitOnChair) -> pose(?p, sitOnChair)Pose(sitOnChair) -> pose(?p, sitOnChair) 모든 object class의 instance nameInstance name of all object classes With object fluentWith object fluent Object(table) -> with(?p, table, on/off)Object(table) -> with(?p, table, on/off)

상기 [표 4]에서, 온톨로지의 내용이 플루언트로 변환될 때 person_id인 '?p'는 행위 의도 인지를 위해 실시간으로 입력된 퍼셉트의 중심이 되는 인물을 기준으로 나타내기 위해 변수로 표현한다. 따라서 Meal intention을 의미하는 클래스인 Class(Meal) 술어는 임의의 사람인 '?p'가 Meal intention을 갖는다는 의미의 행위 의도 플루언트인 intention(?p, Meal)로 변환될 수 있다.In [Table 4], when the content of the ontology is converted into a fluent,'?p', which is person_id, is expressed as a variable to indicate based on the person who is the center of the percept input in real time for recognition of the intention of action. . Therefore, the Class(Meal) predicate, which is a class for Meal intention, can be converted into an intention (?p, Meal), which is a behavioral intention fluent meaning that any person'?p' has Meal intention.

즉, 행위 의도 ''meal'를 행위 의도 플루언트로 변환하고, 행동 'pickup_spoon'을 행동 플루언트로 변환하고, 자세 'sitOnChair'를 자세 플루언트로 변환하고, 주변 객체 'table'를 주변 객체 플루언트로 변환하는 것을 나타낸다.That is, the behavioral intention''meal'' is converted to the behavioral intention fluent, the behavior'pickup_spoon' is converted to the behavioral fluent, the posture'sitOnChair' is converted to the posture fluence, and the surrounding object'table' is the surrounding object fluence. Represents conversion to unt.

사건 인식기(200)는 퍼셉트(percept) 정보를 미리 정의된 이벤트(event) 정보로 변환할 수 있다. 여기서, 퍼셉트 정보는 사람의 일과 시간 내에서의 생활 패턴을 가우시안 혼합 모델을 통해 확률 모델로 생성한 후, 해당 모델을 기반으로 생성한 의도 및 행위, 자세의 발생을 초단위의 시계열로 생성한 데이터이다.The event recognizer 200 may convert percept information into predefined event information. Here, the percept information generates a life pattern within a person's work and time as a probability model through a Gaussian mixture model, and then generates intentions, actions, and attitudes generated based on the model in a time series of seconds. Data.

도 3은 도 1에 도시된 사건 인식기의 상세한 구성을 나타내는 도면이다.FIG. 3 is a diagram showing a detailed configuration of the event recognizer shown in FIG. 1.

도 3을 참조하면, 본 발명의 일 실시예에 따른 사건 인식기(200)는 퍼셉트 정보를 이벤트 정보로 변환하고, 정의부(210), 입력부(220), 변환부(230)를 포함할 수 있다.Referring to FIG. 3, the event recognizer 200 according to an embodiment of the present invention converts percept information into event information, and may include a definition unit 210, an input unit 220, and a conversion unit 230 have.

정의부(210)는 행위 의도 추론을 위한 이벤트 정보를 정의할 수 있다. 이러한 사건 정보는 행동 이벤트, 자세 이벤트, 주변 객체 이벤트와 같은 3가지 형식으로 정의되는데, 다음의 [표 5]와 같이 표현될 수 있다.The definition unit 210 may define event information for inferring an action intention. Such event information is defined in three types such as action event, posture event, and surrounding object event, and can be expressed as the following [Table 5].

구분division 설명Explanation 표현 형식Expression form action eventaction event 사람의 행동 변화에 대한 이벤트Events about human behavior changes Called_action(p)Called_action(p) pose eventpose event 사람의 현재 자세에 대한 이벤트Events about a person's current posture Called_pose(p)Called_pose(p) sense object eventsense object event 주변 객체의 상태를 변화시키는 이벤트Events that change the state of surrounding objects status(p, o, on/off)status(p, o, on/off)

상기 [표 5]에서, 이벤트는 3가지로 분류되며 각 표현 형식에 따라 입력된 퍼셉트 정보를 기반으로 현시점에 발생된 행위, 자세, 주변 객체의 상태를 표현한다.In [Table 5], the events are classified into three types, and based on percept information input according to each expression type, the events, postures, and states of surrounding objects generated at the present time are expressed.

입력부(220)는 사람의 상기 사람의 생활 패턴에 대한 정보가 시계열적으로 정의된 퍼셉트 정보를 입력받을 수 있다.The input unit 220 may receive percept information in which information about a person's life pattern of a person is defined in time series.

변환부(230)는 입력된 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환할 수 있다.The converter 230 may convert the input percept information into predefined event information.

예컨대, 변환부(230)는 'kim'이라는 사람이 수저를 들고 앉아 있으며 주변 물체가 수저와 테이블이라는 현 상황이 {kim, pickup_spoon, sitOnChair, {[spoon, off], [table, off]}}로 표현된 퍼셉트로 입력되면, 'kim'이라는 사람이 수저를 들고 있다라는 행동에 관한 event(called_action이 pickup_spoon인 pickup_spoon(kim)), 'kim'이라는 사람이 앉아 있다라는 자세에 관한 event(called_pose가 sitOnChair인 sitOnChair(kim)), 및 'kim'이라는 사람의 주변 객체가 수저라는 주변 객체에 관한 event(status(kim, spoon, off))와 같이 변환된다.For example, in the converter 230, the current situation that a person named'kim' is sitting with a spoon and the surrounding objects are a spoon and a table is {kim, pickup_spoon, sitOnChair, {[spoon, off], [table, off]}} If entered as a percept expressed as, event (called_pose about the attitude that the person named'kim' is sitting (pickup_spoon(kim) where called_action is pickup_spoon pickup_spoon) and person of'kim' is sitting. The sitOnChair, sitOnChair(kim)), and the person's surrounding object called'kim' are converted into events (status(kim, spoon, off)) about the surrounding object called spoon.

규칙 변환기(300)는 플루언트 맵퍼(100)에서 변환된 플루언트와 사건 인식기(200)에서 변환된 이벤트 정보를 기초로 행위 의도를 인지하기 위한 사건 연산 규칙을 생성할 수 있다.The rule converter 300 may generate an event calculation rule for recognizing an intention of action based on the fluent transformed by the fluent mapper 100 and the event information transformed by the event recognizer 200.

이러한 사건 연산 규칙을 생성하는 3가지 규칙 프레임 IR0, IR1, IR2은 다음의 [표 6]과 같이 정의된다.The three rule frames IR0, IR1, and IR2 that generate these event operation rules are defined as in [Table 6] below.

IR0: Happens(e, t) :: Happens(en(p), t), Happens(status(p, o, on/off), t),
en : event predicate
IR1: Initiates(e, f, t) :: Initiates(en(p), action(p, sn), t), en=sn.
Initiates(en(p), pose(p, sn), t),
en=sn, sn : event_id
Initiates(status(p, o, on/off), with(p, o, on/off), t).
IR2: HoldsAt(f1, t) ∧ HoldsAt(f2, t) ∧ HoldsAt(f3, t) => Initiates(e, f, t)
IR0: Happens(e, t) :: Happens(en(p), t), Happens(status(p, o, on/off), t),
en: event predicate
IR1: Initiates(e, f, t) :: Initiates(en(p), action(p, sn), t), en=sn.
Initiates(en(p), pose(p, sn), t),
en=sn, sn: event_id
Initiates(status(p, o, on/off), with(p, o, on/off), t).
IR2: HoldsAt(f1, t) ∧ HoldsAt(f2, t) ∧ HoldsAt(f3, t) => Initiates(e, f, t)

상기 [표 6]에서, 행위 의도를 인지하기 위해서는 다양한 사건 연산 규칙이 필요하며, 이를 자동으로 구성하기 위해 위에 명시한 3가지 기본 프레임에 따라 플루언트 맵퍼와 사건 인식기에서 자동 생성된 플루언트와 이벤트를 행위 의도 온톨로지에서 추출한 내용에 대한 행위 의도의 관계로 조합하여 행위 의도를 인지하는 규칙을 자동 생성한다. 여기서, 행의 위도의 관계는 행위 의도와 행동, 자세, 주변 객체와의 관계를 의미한다.In [Table 6], various event calculation rules are required to recognize the intention of action, and in order to automatically configure them, the fluent mapper and event recognizer automatically generated in the fluent mapper and event recognizer according to the three basic frames specified above. Rules for recognizing behavioral intention are automatically generated by combining the contents extracted from the behavioral intention ontology in relation to the behavioral intention. Here, the relationship of the latitude of the row means the relationship between the intention of action and the action, posture, and surrounding objects.

여기서, IR0는 퍼셉트 정보가 입력될 때마다 생성되며, IR1과 IR2를 구성하는 Initiates(e, f, t)는 플루언트 맵퍼에서 온톨로지로부터 행위 의도 추론을 위해 추출된 결과에 따라 intention class 객체와 composedAction, composedPose, composedObjects 및 isTurnedOn과의 술어 관계를 참조하여 동시에 자동 생성된다.Here, IR0 is generated whenever percept information is input, and Initiates (e, f, t) constituting IR1 and IR2 are intention class objects and intention class objects based on the results extracted for intention of action from ontology in the fluent mapper. It is automatically generated at the same time by referring to the predicate relationship with composedAction, composedPose, composedObjects, and isTurnedOn.

이때, 사건 연산 규칙을 생성하는 예시는 다음의 [표 7], [표 8]과 같이 나타낸다.At this time, an example of generating an event operation rule is shown in the following [Table 7] and [Table 8].

InstanceOf(Meal, mealFluent001)
composedAction(mealFluent001, pickup_spoon),
composedPose(mealFluent001, sitOnChair)
composedObjects(mealFluent001, table), isTurnedOn(table, false)
...
InstanceOf(Meal, mealFluent001)
composedAction(mealFluent001, pickup_spoon),
composedPose(mealFluent001, sitOnChair)
composedObjects(mealFluent001, table), isTurnedOn(table, false)
...

· Happen(pickup_spoon(p), t), Happens(sitOnChair(p), t), Happens(status(p, table, off), t)
· Initiates(pickup_spoon(p), action(p, pickup_spoon), t)
· Initiates(sitOnChair(p), pose(p, sitOnChair), t)
· Initiates(status(p, table, off), with(p, table, off), t)
· HoldsAt(action(p, pickup_spoon), t) ∧ HoldsAt(pose(p, sitOnChair), t) ∧
HoldsAt(with(p, table, off), t) => Initiates(pickup_spoon(p), intention(p, Meal), t)
Happen(pickup_spoon(p), t), Happens(sitOnChair(p), t), Happens(status(p, table, off), t)
Initiates(pickup_spoon(p), action(p, pickup_spoon), t)
Initiates(sitOnChair(p), pose(p, sitOnChair), t)
Initiates(status(p, table, off), with(p, table, off), t)
· HoldsAt(action(p, pickup_spoon), t) ∧ HoldsAt(pose(p, sitOnChair), t) ∧
HoldsAt(with(p, table, off), t) => Initiates(pickup_spoon(p), intention(p, Meal), t)

정의한 형식에 따라 자동 생성된 이벤트(pickup_spoon(kim), sitOnChair(kim), status(kim, spoon, off) 등)는 시점 t를 중심으로 Happens(pickup_spoon(kim), t)와 같이 Happens(e, t) 형식의 IR0로 생성된다. IR0가 수행되면 IR1에서는 행위 의도 온톨로지에서 추출한 행위 의도의 관계를 바탕으로 이에 대응되는 action fluent 및 change of pose fluent와 with object fluent를 true로 만들어 IR2에 적용되며 IR2에 의해 조합되어 사건 연산 규칙 Initiates(pickup_spoon(p), intention(p, Meal), t)이 생성된다.사건연산 지식 베이스(400)는 생성된 사건 연산 규칙과 플루언트, 이벤트 정보를 저장할 수 있다.Events that are automatically generated according to the defined format (pickup_spoon(kim), sitOnChair(kim), status(kim, spoon, off), etc.) are Happens(e, e, such as Happens(pickup_spoon(kim), t) around the time t t) It is generated in IR0 format. When IR0 is performed, IR1 makes action fluent and change of pose fluent and with object fluent corresponding to it based on the relationship between the behavioral intention extracted from the behavioral intention ontology, and applies it to IR2. pickup_spoon(p), intention(p, Meal), and t) are generated. The event operation knowledge base 400 may store the generated event operation rules, fluents, and event information.

도 4는 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 방법을 나타내는 도면이다.4 is a diagram illustrating a method for generating an event operation rule according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 사건 연산 규칙 생성 장치는 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하고(S410), 추출된 의도 추론에 관련된 내용을 미리 정의된 플루언트로 변환할 수 있다(S420).Referring to FIG. 4, the apparatus for generating an event operation rule according to an embodiment of the present invention extracts content necessary for inferring an action intention from among content included in an intention to act (S410 ), and extracts content related to the extracted intention inference. It can be converted to a predefined fluent (S420).

다음으로, 사건 연산 규칙 생성 장치는 사용자로부터의 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환할 수 있다(S430).Next, the apparatus for generating an event operation rule may convert percept information from a user into predefined event information (S430).

다음으로, 사건 연산 규칙 생성 장치는 변환된 플루언트와 변환된 이벤트 정보를 기초로 행위 의도를 인지하기 위한 사건 연산 규칙을 생성할 수 있다(S440). 이때, 사건 연산 규칙 생성 장치는 변환된 플루언트와 변환된 이벤트 정보를 추출된 내용에 대한 행위 의도의 관계로 조합하여 그 조합한 결과로 사건 연산 규칙을 생성할 수 있다.Next, the apparatus for generating an event calculation rule may generate an event calculation rule for recognizing an intention of action based on the converted fluent and the converted event information (S440). In this case, the apparatus for generating an event operation rule may generate the event operation rule as a result of combining the converted fluent and the converted event information in a relationship of intention to act on the extracted content.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term'~ unit' used in this embodiment refers to hardware components such as software or field-programmable gate array (FPGA) or ASIC, and'~ unit' performs certain roles. However,'~ wealth' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables. The functions provided within components and'~units' may be combined into a smaller number of components and'~units', or further separated into additional components and'~units'. In addition, the components and'~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to preferred embodiments of the present invention, those skilled in the art variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You can understand that you can.

100: 플루언트 맵퍼
110: 정의부
120: 추출부
130: 변환부
200: 사건 인식기
210: 정의부
220: 입력부
230: 변환부
300: 규칙 변환기
400: 사건연산 지식 베이스
100: fluent mapper
110: justice
120: extraction unit
130: conversion unit
200: event recognizer
210: Justice
220: input
230: converter
300: rule converter
400: case operation knowledge base

Claims (10)

행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 미리 정의된 플루언트(fluent)로 변환하는 플루언트 맵퍼;
사람의 생활 패턴에 대한 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환하는 사건 인식기; 및
상기 변환된 플루언트와 상기 변환된 이벤트 정보를 기초로 행위의도를 인지하기 위한 사건 연산 규칙을 생성하는 규칙 변환기를 포함하고,
상기 미리 정의된 플루언트는 행위 의도 변화를 표현하는 행위 의도 플루언트, 행동 변화를 표현하는 행동 플루언트, 자세 변화를 표현하는 자세 플루언트, 주변 객체 변화를 표현하는 주변 객체 플루언트를 포함하고,
상기 미리 정의된 이벤트 정보는 사람의 행동 변화에 대한 행동 이벤트, 사람의 현재 자세에 대한 자세 이벤트, 주변 객체의 상태를 변화시키는 주변 객체 이벤트를 포함하고,
상기 규칙 변환기는 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 상기 행위 의도 추론에 필요한 내용에 대한 행위 의도와 행동, 자세, 주변 객체와의 관계로 조합하여 상기 조합한 결과로 상기 사건 연산 규칙을 생성하는, 사건 연산 규칙 생성 장치.
A Fluent Mapper that converts the content included in the behavioral intention ontology into a predefined fluent;
An event recognizer that converts percept information about a person's life pattern into predefined event information; And
And a rule converter for generating an event calculation rule for recognizing an intention to act based on the converted fluent and the converted event information,
The predefined fluent includes a behavior intention fluent representing a behavioral intention change, a behavioral fluent representing a behavioral change, a posture fluent representing a posture change, and a peripheral object fluent representing a surrounding object change,
The predefined event information includes a behavior event for a person's behavior change, a posture event for a person's current posture, and a surrounding object event for changing a state of the surrounding object,
The rule converter combines the converted fluent and the converted event information into a relationship between a behavioral intention and an action, a posture, and surrounding objects for content necessary for inferring the behavioral intention, and sets the event calculation rule as a result of the combination. A device for generating and calculating event rules.
제1항에 있어서,
상기 플루언트 맵퍼는,
상기 사건 연산 규칙에 적용되는 플루언트를 정의하는 정의부;
상기 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하는 추출부; 및
상기 추출된 내용을 상기 정의된 플루언트로 변환하는 변환부를 포함하는, 사건 연산 규칙 생성 장치.
According to claim 1,
The fluent mapper,
A definition unit defining a fluent applied to the event calculation rule;
An extracting unit for extracting contents necessary for reasoning of the intention of the behavior among contents included in the ontology of the behavior intention; And
And a conversion unit converting the extracted contents into the defined fluent.
삭제delete 제1항에 있어서,
상기 사건 인식기는,
상기 사건 연산 규칙에 적용되는 이벤트 정보를 정의하는 정의부;
상기 사람의 생활 패턴에 대한 정보가 시계열적으로 정의된 상기 퍼셉트 정보를 입력받는 입력부; 및
상기 입력된 퍼셉트 정보를 상기 정의된 이벤트 정보로 변환하는 변환부를 포함하는, 사건 연산 규칙 생성 장치.
According to claim 1,
The event recognizer,
A definition unit defining event information applied to the event operation rule;
An input unit for receiving the percept information in which information about the person's life pattern is defined in time series; And
And a conversion unit configured to convert the input percept information into the defined event information.
삭제delete 삭제delete 행위 의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 미리 정의된 플루언트(fluent)로 변환하는 단계;
사람의 생활 패턴에 대한 퍼셉트 정보를 미리 정의된 이벤트 정보로 변환하는 단계; 및
상기 변환된 플루언트와 상기 변환된 이벤트 정보를 기초로 행위의도를 인지하기 위한 사건 연산 규칙을 생성하는 단계를 포함하고,
상기 미리 정의된 플루언트는 행위 의도 변화를 표현하는 행위 의도 플루언트, 행동 변화를 표현하는 행동 플루언트, 자세 변화를 표현하는 자세 플루언트, 주변 객체 변화를 표현하는 주변 객체 플루언트를 포함하고,
상기 미리 정의된 이벤트 정보는 사람의 행동 변화에 대한 행동 이벤트, 사람의 현재 자세에 대한 자세 이벤트, 주변 객체의 상태를 변화시키는 주변 객체 이벤트를 포함하고,
상기 생성하는 단계에서는 상기 변환된 플루언트와 상기 변환된 이벤트 정보를 상기 행위 의도 추론에 필요한 내용에 대한 행위 의도와 행동, 자세, 주변 객체와의 관계로 조합하여 상기 조합한 결과로 상기 사건 연산 규칙을 생성하는, 사건 연산 규칙 생성 방법.
Converting the content included in the behavioral intention ontology into a predefined fluent;
Converting percept information about a person's life pattern into predefined event information; And
Generating an event operation rule for recognizing an intention to act based on the converted fluent and the converted event information,
The predefined fluent includes a behavior intention fluent representing a behavioral intention change, a behavioral fluent representing a behavioral change, a posture fluent representing a posture change, and a peripheral object fluent representing a surrounding object change,
The predefined event information includes a behavior event for a person's behavior change, a posture event for a person's current posture, and a surrounding object event for changing a state of the surrounding object,
In the generating step, the event calculation rule is the result of combining the converted fluent and the converted event information in relation to the action intention and action, posture, and surrounding objects for the content necessary for inferring the action intention. A method of generating an event operation rule.
제7항에 있어서,
상기 플루언트로 변환하는 단계는,
상기 사건 연산 규칙에 적용되는 플루언트를 정의하는 단계;
상기 행위의도 온톨로지에 포함된 내용 중 행위 의도 추론에 필요한 내용을 추출하는 단계; 및
상기 추출된 내용을 상기 정의된 플루언트로 변환하는 단계를 포함하는, 사건 연산 규칙 생성 방법.
The method of claim 7,
The step of converting to the fluent,
Defining a fluant applied to the event operation rule;
Extracting the content necessary for reasoning of the intention of the action among the content included in the ontology of the action intention; And
And converting the extracted content into the defined fluent.
제7항에 있어서,
상기 이벤트로 변환하는 단계는,
상기 사건 연산 규칙에 적용되는 이벤트 정보를 정의하는 단계;
상기 사람의 생활 패턴에 대한 정보가 시계열적으로 정의된 상기 퍼셉트 정보를 입력받는 단계; 및
상기 입력된 퍼셉트 정보를 상기 정의된 이벤트 정보로 변환하는 단계를 포함하는, 사건 연산 규칙 생성 방법.
The method of claim 7,
The step of converting to the event,
Defining event information applied to the event operation rule;
Receiving the percept information in which information about the person's life pattern is defined in time series; And
And converting the input percept information into the defined event information.
삭제delete
KR1020180150737A 2018-11-29 2018-11-29 Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof KR102140585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180150737A KR102140585B1 (en) 2018-11-29 2018-11-29 Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180150737A KR102140585B1 (en) 2018-11-29 2018-11-29 Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof

Publications (2)

Publication Number Publication Date
KR20200064534A KR20200064534A (en) 2020-06-08
KR102140585B1 true KR102140585B1 (en) 2020-08-03

Family

ID=71089600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180150737A KR102140585B1 (en) 2018-11-29 2018-11-29 Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof

Country Status (1)

Country Link
KR (1) KR102140585B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103081A1 (en) * 2020-11-12 2022-05-19 숭실대학교산학협력단 Neural symbolic-based rule generation method and device, for inferring intention of user
KR20220068875A (en) 2020-11-19 2022-05-26 숭실대학교산학협력단 Explainable knowledge graph completion method and apparatus
KR20220074430A (en) 2020-11-27 2022-06-03 숭실대학교산학협력단 Knowledge completion method and apparatus through neuro symbolic-based relation embeding
KR20220073099A (en) 2020-11-26 2022-06-03 숭실대학교산학협력단 User behavior intention inference method and apparatus
KR20230025141A (en) 2021-08-13 2023-02-21 숭실대학교산학협력단 User feedback-based behavior intention inferences method and apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050005266A1 (en) 1997-05-01 2005-01-06 Datig William E. Method of and apparatus for realizing synthetic knowledge processes in devices for useful applications

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766583B1 (en) 2016-04-27 2017-08-09 숭실대학교산학협력단 Ontology-based reasoning apparatus and method using the knowledge of expert

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050005266A1 (en) 1997-05-01 2005-01-06 Datig William E. Method of and apparatus for realizing synthetic knowledge processes in devices for useful applications

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Fariba Sadri, Intention Recognition with Event Calculus Graphs, 2010 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology, 2010.08.03. 1부.*
Gilles Virone et al., Behavioral Patterns of Older Adults in Assisted Living, IEEE Transactions on Information Technology in Biomedicine, Volume: 12, Issue: 3. 2008.05.07. 1부*
방성혁, 순차적 정보 기반의 신경망 구조 학습을 통한 사용자 생활 패턴 모델링, 숭실대학교 대학원, 2018.06. 1부.*
배석현 외 5인, 생활 패턴 인지를 위한 이벤트 연산 기반 예측 모델 학습 기법, Journal of KIISE, Vol. 45, No. 5, pp. 466-477, 2018. 5. 1부.*

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103081A1 (en) * 2020-11-12 2022-05-19 숭실대학교산학협력단 Neural symbolic-based rule generation method and device, for inferring intention of user
KR20220068875A (en) 2020-11-19 2022-05-26 숭실대학교산학협력단 Explainable knowledge graph completion method and apparatus
KR20220073099A (en) 2020-11-26 2022-06-03 숭실대학교산학협력단 User behavior intention inference method and apparatus
KR20220074430A (en) 2020-11-27 2022-06-03 숭실대학교산학협력단 Knowledge completion method and apparatus through neuro symbolic-based relation embeding
KR20230025141A (en) 2021-08-13 2023-02-21 숭실대학교산학협력단 User feedback-based behavior intention inferences method and apparatus

Also Published As

Publication number Publication date
KR20200064534A (en) 2020-06-08

Similar Documents

Publication Publication Date Title
KR102140585B1 (en) Apparatus for generating rules of event calculus based on ontoloby for activity intension recognition and method thereof
US11210836B2 (en) Applying artificial intelligence to generate motion information
Wu et al. Deep learning for video classification and captioning
US11568855B2 (en) System and method for defining dialog intents and building zero-shot intent recognition models
Coradeschi et al. A short review of symbol grounding in robotic and intelligent systems
JP2020135852A (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program for image-based data processing
CA3022998A1 (en) Method and device for generative adversarial network training
Chen et al. Toward open knowledge enabling for human-robot interaction
KR102656620B1 (en) Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium
CN105355200B (en) System and method for directly training and modifying robot interactive content
CN105912530A (en) Intelligent robot-oriented information processing method and system
Yang et al. Llm-grounder: Open-vocabulary 3d visual grounding with large language model as an agent
CN110580516A (en) interaction method and device based on intelligent robot
Maurtua et al. Enhancing safe human-robot collaboration through natural multimodal communication
Bond et al. Digital empathy secures Frankenstein's monster
Gemignani et al. Language-based sensing descriptors for robot object grounding
US20220147861A1 (en) Knowledge-Driven and Self-Supervised System for Question-Answering
Chen et al. Cross-situational noun and adjective learning in an interactive scenario
Yan et al. Robotic understanding of object semantics by referringto a dictionary
CN116910201A (en) Dialogue data generation method and related equipment thereof
Baothman An intelligent big data management system using haar algorithm-based Nao agent multisensory communication
Krishnaswamy et al. A formal analysis of multimodal referring strategies under common ground
Celikkanat et al. Learning and using context on a humanoid robot using latent dirichlet allocation
KR102649947B1 (en) System and method of understanding deep context using image and text deep learning
Lin et al. Gesture-informed robot assistance via foundation models

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant