KR20210079203A - System for multi-layered knowledge base and processing method thereof - Google Patents

System for multi-layered knowledge base and processing method thereof Download PDF

Info

Publication number
KR20210079203A
KR20210079203A KR1020200174621A KR20200174621A KR20210079203A KR 20210079203 A KR20210079203 A KR 20210079203A KR 1020200174621 A KR1020200174621 A KR 1020200174621A KR 20200174621 A KR20200174621 A KR 20200174621A KR 20210079203 A KR20210079203 A KR 20210079203A
Authority
KR
South Korea
Prior art keywords
knowledge
inference
learning
semantic
graph
Prior art date
Application number
KR1020200174621A
Other languages
Korean (ko)
Other versions
KR102497362B1 (en
Inventor
강동오
이천희
정준영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/127,287 priority Critical patent/US20210192372A1/en
Publication of KR20210079203A publication Critical patent/KR20210079203A/en
Application granted granted Critical
Publication of KR102497362B1 publication Critical patent/KR102497362B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided are a multi-layered knowledge base system and a processing method thereof. In the knowledge base system, semantic space learning of converting learning data into a semantic vector, which is a vector of semantic space, by learning a transformation function based on a plurality of learning data is performed. Then, relational knowledge learning of acquiring a relation between the semantic vectors by learning a relation function based on the semantic vectors obtained by the semantic space learning is performed. The acquired relation is converted into graph knowledge and stored. The graph knowledge uses the relation as an edge and the semantic vector corresponding to the relation as a node. Therefore, various services are made possible with one knowledge base.

Description

다계층 지식베이스 시스템 및 그의 처리 방법{System for multi-layered knowledge base and processing method thereof} A multi-layered knowledge base system and a processing method thereof

본 개시는 지식 베이스에 관한 것으로, 더욱 상세하게 말하자면, 다계층 지식베이스 시스템 및 그의 처리 방법에 관한 것이다. The present disclosure relates to a knowledge base, and more particularly, to a multi-layered knowledge base system and a processing method thereof.

지식 베이스는 전문가 시스템의 구성 요소의 하나로, 특정 분야의 전문가가 지적 활동과 경험을 통해서 축적한 전문 지식이나 문제 해결에 필요한 사실과 규칙 등이 저장되어 있는 데이터베이스이다. 이러한 지식 베이스에 대해, 텍스트 위주의 지식을 지식 그래프나 온톨로지 형태로 저장하고 이에 대한 추론을 통하여 질문(Query)에 해답(Answer)를 찾거나 지식 베이스 완성(Completion) 기술을 통해 지식 베이스를 성장시킨다. 그러나, 이러한 방법은 주로 텍스트 위주의 말뭉치의 언어 위주나 그래프 형태의 데이터와 같이 지식이 명확한 데이터 즉, 명시적 지식 표현을 가지는 학습 데이터에 적합하다. 이미지/영상/음성과 같은 멀티모달 학습 데이터는 특정 학습에 의하여 텍스트로 변환된 다음에 지식 베이스로 지식화됨에 따라, 멀티모달 학습 데이터에 내재된 데이터를 충분히 활용하지 못하고, 특정 태스크나 도메인에 국한된 학습에서 추출된 정보만을 활용할 수 있다. 또한, 학습 데이터 간의 지식의 교환이나 융합을 통한 내재된 지식을 활용하지 못하여, 정보 및 지식의 소실이 발생하는 등의 단점이 있다. The knowledge base is one of the components of an expert system, and is a database in which expert knowledge accumulated through intellectual activities and experiences of an expert in a specific field or facts and rules necessary for problem solving are stored. For this knowledge base, the text-oriented knowledge is stored in the form of a knowledge graph or ontology, and the answer is found to a query through reasoning about it, or the knowledge base is grown through the knowledge base completion technology. . However, this method is mainly suitable for data with clear knowledge such as language-oriented or graph-type data of a text-oriented corpus, that is, learning data having an explicit knowledge expression. As multi-modal learning data such as images/videos/voices are converted into texts by specific learning and then converted into knowledge bases, the data inherent in multi-modal learning data cannot be fully utilized and limited to specific tasks or domains. Only information extracted from learning can be used. In addition, there are disadvantages such as loss of information and knowledge because it is not possible to utilize inherent knowledge through knowledge exchange or convergence between learning data.

또한, 주어진 학습 데이터에 대해서 지식 베이스에 지식을 계속해서 추가하여 성장시키는 관점에서도, 이전의 학습 지식과 새로운 학습 데이터에 대하여 추가되는 지식들이 단편적으로 텍스트 형태로만 구성되면, 이들 간의 지식의 융합 시도시 특정 태스크나 도메인에 국한된 학습에서 추출된 정보만을 활용할 수 있다. 또한, 학습 데이터 간의 정보와 지식을 상호 활용하여 보다 많은 지식을 추출하지도 못하고, 상호 연관성이 결여되어 효과적인 지식 융합이 이루어지지 않는 단점이 있다. In addition, from the viewpoint of continuously adding and growing knowledge to the knowledge base for given learning data, if the knowledge to be added about the previous learning knowledge and the new learning data is fragmentarily composed only in text form, when trying to converge knowledge between them, Only information extracted from learning limited to a specific task or domain can be utilized. In addition, there are disadvantages in that more knowledge cannot be extracted by mutually utilizing information and knowledge between learning data, and effective knowledge fusion is not achieved due to a lack of mutual correlation.

본 개시가 해결하고자 하는 과제는, 내재적 지식부터 명시적 지식에 이르는 다계층의 지식 정보를 저장하는 다계층 지식 베이스 시스템과 각 계층의 상호 작용과 연결을 통하여 지식을 탐색하고 추출하는 방법을 제공하는 것이다. The problem to be solved by the present disclosure is to provide a multi-layered knowledge base system that stores multi-layered knowledge information ranging from intrinsic knowledge to explicit knowledge, and a method for searching and extracting knowledge through interaction and connection of each layer. will be.

또한, 본 개시가 해결하고자 하는 과제는 다계층의 지식 베이스로부터 고속으로 지식을 추론하고 성장시킬 수 있는 방법을 제공하는 것이다. In addition, an object of the present disclosure is to provide a method capable of inferring and growing knowledge at high speed from a multi-layered knowledge base.

일 실시 예에 따르면, 지식 베이스 시스템에서의 처리 방법이 제공된다. 상기 처리 방법은, 복수의 학습 데이터를 기반으로 변환 함수를 학습하여 학습 데이터를 의미 공간의 벡터인 의미 벡터로 변환하는 의미 공간 학습을 수행하는 단계; 상기 의미 공간 학습에 따라 획득되는 의미 벡터들을 기반으로 관계 함수를 학습하여 상기 의미 벡터들 간의 관계를 획득하는 관계 지식 학습을 수행하는 단계; 및 상기 획득되는 관계를 그래프 지식 - 상기 그래프 지식은 상기 관계를 에지(edge)로 하고 상기 관계에 대응하는 의미 벡터를 노드로 함 - 으로 변환하는 단계를 포함하고, 상기 지식 베이스 시스템은 상기 학습 데이터를 저장하고 관리하는 학습 데이터 계층, 상기 의미 공간 학습에 따라 획득된 의미 벡터인 의미 공간 지식을 저장하고 관리하는 의미 공간 계층, 그리고 상기 관계 지식 학습에 따라 획득된 그래프 지식을 저장하고 관리하는 그래프 지식 계층을 포함한다. According to an embodiment, a processing method in a knowledge base system is provided. The processing method may include: learning a transformation function based on a plurality of learning data and performing semantic space learning to transform the learning data into a semantic vector that is a vector of a semantic space; performing relational knowledge learning for acquiring a relation between the semantic vectors by learning a relational function based on the semantic vectors obtained according to the semantic space learning; and converting the obtained relation into graph knowledge, wherein the graph knowledge has the relation as an edge and a semantic vector corresponding to the relation as a node, wherein the knowledge base system includes the learning data A learning data layer that stores and manages , a semantic space layer that stores and manages semantic space knowledge that is a semantic vector obtained according to the semantic space learning, and a graph knowledge that stores and manages the graph knowledge acquired according to the relational knowledge learning includes layers.

일 구현 예에서, 상기 처리 방법은, 상기 의미 공간 학습에 사용된 학습 데이터, 변환 함수 그리고 획득된 의미 벡터를 매핑하는 의미 공간 지식 메타데이터를 생성하는 단계; 및 상기 관계 지식 학습에 사용된 의미 벡터, 관계 함수 그리고 관련된 그래프 지식을 매핑하는 그래프 지식 메타데이터를 생성하는 단계를 더 포함할 수 있으며, 상기 학습 데이터에 관련된 메타데이터와 상기 의미 공간 지식 메타데이터 그리고 상기 그래프 지식 메타데이터를 기반으로, 상기 학습 데이터 계층, 상기 의미 공간 계층 그리고 그래프 지식 계층간의 탐색 및 연계가 이루어질 수 있다. In one embodiment, the processing method includes: generating semantic space knowledge metadata that maps the learning data used for the semantic space learning, a transformation function, and the acquired semantic vector; and generating graph knowledge metadata for mapping the semantic vector used for the relational knowledge learning, the relational function, and the related graph knowledge, the metadata related to the learning data and the semantic space knowledge metadata; Based on the graph knowledge metadata, search and association between the learning data layer, the semantic space layer, and the graph knowledge layer may be made.

일 구현 예에서, 상기 학습 데이터는 이미지, 음성 중 적어도 하나를 포함하는 멀티모달 데이터일 수 있다. In an embodiment, the learning data may be multimodal data including at least one of an image and a voice.

일 구현 예에서, 상기 처리 방법은, 추론 요청에 따라 상기 지식 베이스 시스템의 계층별로 추론을 수행하는 단계를 더 포함할 수 있다. 이 경우, 상기 추론을 수행하는 단계는, 상기 그래프 지식 계층에 포함되는 그래프 지식을 기반으로 하는 제1 추론을 수행하는 단계; 상기 의미 공간 계층에 포함되는 의미 공간 지식을 기반으로 제2 추론을 수행하는 단계; 및 상기 학습 데이터 계층에 포함되는 학습 데이터를 기반으로 제3 추론을 수행하는 단계 중 적어도 하나를 포함할 수 있다. In an embodiment, the processing method may further include performing inference for each layer of the knowledge base system according to the inference request. In this case, the performing of the inference may include: performing first inference based on graph knowledge included in the graph knowledge layer; performing second inference based on semantic space knowledge included in the semantic space layer; and performing a third inference based on the training data included in the training data layer.

일 구현 예에서, 상기 제1 추론에 대한 신뢰도, 상기 제2 추론에 대한 신뢰도 그리고 상기 제3 추론에 대한 신뢰도를 각각 상이하게 부여하고, 상이한 신뢰도들을 기반으로 상기 제1 추론의 결과, 상기 제2 추론의 결과 그리고 상기 제3 추론의 결과를 기반으로 최종적인 추론 결과를 획득하는 단계를 더 포함할 수 있다. In one embodiment, the reliability for the first inference, the reliability for the second inference, and the reliability for the third inference are given differently, respectively, and based on the different confidence levels, the result of the first inference, the second The method may further include obtaining a final reasoning result based on the result of the inference and the result of the third reasoning.

일 구현 예에서, 상기 추론을 수행하는 단계는 복수의 도메인별로 병렬적으로 추론을 수행할 수 있다. In an embodiment, in the performing of the inference, the inference may be performed in parallel for each of a plurality of domains.

일 구현 예에서, 상기 추론을 수행하는 단계는 설정되는 추론 깊이에 따라 상기 제1 추론을 수행하는 단계, 상기 제2 추론을 수행하는 단계 그리고 상기 제3 추론을 수행하는 단계 중 적어도 하나를 선택적으로 수행할 수 있다. In an embodiment, the performing of the speculation may include selectively performing at least one of performing the first speculation, performing the second speculation, and performing the third speculation according to a set speculation depth. can be done

일 구현 예에서, 상기 추론을 수행하는 단계는 설정되는 시간에 따라 상기 제1 추론을 수행하는 단계, 상기 제2 추론을 수행하는 단계 그리고 상기 제3 추론을 수행하는 단계 중 적어도 하나를 선택적으로 수행할 수 있다. In an embodiment, the performing of the speculation may include selectively performing at least one of performing the first speculation, performing the second speculation, and performing the third speculation according to a set time. can do.

일 구현 예에서, 상기 추론을 수행하는 단계는, 입력되는 학습 데이터나 입력되는 사실 정보를 기반으로 다계층 지식 추론을 통해 새로운 지식을 생성하는 단계를 포함할 수 있다. In one embodiment, the performing of the inference may include generating new knowledge through multi-layered knowledge inference based on input learning data or input fact information.

일 구현 예에서, 상기 새로운 지식을 생성하는 단계는, 입력되는 학습 데이터에 대해, 상기 학습 데이터 계층에서 유사한 학습 데이터를 찾고, 상기 의미 공간 계층에서 상기 유사한 학습 데이터에 대응하는 의미 벡터와 이에 대한 변환 함수를 추출하는 단계; 상기 추출된 의미 벡터에 대한 관계 함수를 기반으로 예측 추론을 수행하여 새로운 관계를 추론하는 단계; 및 상기 추론된 새로운 관계에 대한 그래프 지식을 생성하여 상기 그래프 지식 계층에 저장하는 단계를 포함할 수 있다. In one embodiment, the generating of the new knowledge includes finding similar training data in the training data layer for input training data, and a semantic vector corresponding to the similar training data in the semantic space layer and transformation thereof extracting a function; inferring a new relation by performing predictive inference based on the relation function with respect to the extracted semantic vector; and generating graph knowledge for the inferred new relationship and storing the graph knowledge in the graph knowledge layer.

일 구현 예에서, 상기 새로운 지식을 생성하는 단계는, 입력되는 사실 정보를 기반으로 이전 예측 추론 결과를 검증하는 단계; 상기 검증 결과를 기반으로 상기 추론 결과에 대응하는 관계 함수를 수정하는 단계; 상기 수정된 관계 함수를 기반으로 예측 추론을 수행하여 새로운 관계를 추론하는 단계; 및 상기 추론된 새로운 관계에 대한 그래프 지식을 생성하여 상기 그래프 지식 계층에 저장하는 단계를 포함할 수 있다. In one embodiment, the generating of the new knowledge may include: verifying a previous prediction inference result based on input fact information; modifying a relational function corresponding to the inference result based on the verification result; inferring a new relationship by performing predictive inference based on the modified relationship function; and generating graph knowledge for the inferred new relationship and storing the graph knowledge in the graph knowledge layer.

다른 실시 예에 따르면, 다계층 지식 베이스 시스템이 제공된다. 상기 다계층 지식 베이스 시스템은, 데이터를 입력받도록 구성된 인터페이스 장치; 지식 정보를 저장하도록 구성된 저장 장치; 및 상기 데이터를 기반으로 지식 베이스를 형성하도록 구성된 프로세서를 포함하고, 상기 프로세서는 상기 인터페이스 장치를 통해 입력되는 복수의 학습 데이터를 기반으로 변환 함수를 학습하여 학습 데이터를 의미 공간의 벡터인 의미 벡터로 변환하는 의미 공간 학습을 수행하도록 구성된 의미 공간 학습부; 및 상기 의미 공간 학습에 따라 획득되는 의미 벡터들을 기반으로 관계 함수를 학습하여 상기 의미 벡터들 간의 관계를 획득하는 관계 지식 학습을 수행하도록 구성된 관계 지식 학습부를 포함하고, 상기 관계 지식 학습부는 추가적으로, 상기 획득되는 관계를 그래프 지식 - 상기 그래프 지식은 상기 관계를 에지로 하고 상기 관계에 대응하는 의미 벡터를 노드로 함 - 으로 변환하도록 구성된다. According to another embodiment, a multi-layered knowledge base system is provided. The multi-layered knowledge base system may include: an interface device configured to receive data; a storage device configured to store knowledge information; and a processor configured to form a knowledge base based on the data, wherein the processor learns a transformation function based on a plurality of learning data input through the interface device to convert the learning data into a semantic vector that is a vector of a semantic space. a semantic space learning unit configured to perform transforming semantic space learning; and a relational knowledge learning unit configured to learn a relational knowledge based on the semantic vectors obtained according to the semantic space learning to obtain a relation between the semantic vectors, wherein the relational knowledge learning unit further comprises: and transform the obtained relationship into graph knowledge, wherein the graph knowledge has the relationship as an edge and a semantic vector corresponding to the relationship as a node.

일 구현 예에서, 상기 저장 장치는 상기 학습 데이터를 저장하고 관리하는 학습 데이터 계층을 저장하도록 구성된 학습 데이터 저장부; 상기 의미 공간 학습에 따라 획득된 의미 벡터인 의미 공간 지식을 저장하고 관리하는 의미 공간 계층을 저장하도록 구성된 의미 공간 지식 저장부; 및 상기 관계 지식 학습에 따라 획득된 그래프 지식을 저장하고 관리하는 그래프 지식 계층을 저장하도록 구성된 그래프 지식 저장부를 포함할 수 있다. In one embodiment, the storage device comprises: a training data storage unit configured to store a training data layer for storing and managing the training data; a semantic space knowledge storage unit configured to store a semantic space layer for storing and managing semantic space knowledge, which is a semantic vector obtained according to the semantic space learning; and a graph knowledge storage unit configured to store a graph knowledge layer that stores and manages graph knowledge acquired according to the relational knowledge learning.

일 구현 예에서, 상기 프로세서는, 학습 데이터에 관련된 학습 데이터 메타데이터를 생성하고, 상기 의미 공간 학습에 사용된 학습 데이터, 변환 함수 그리고 획득된 의미 벡터를 매핑하는 의미 공간 지식 메타데이터를 생성하며, 상기 관계 지식 학습에 사용된 의미 벡터, 관계 함수 그리고 관련된 그래프 지식을 매핑하는 그래프 지식 메타데이터를 생성하도록 구성된 지식 요소 관리부를 더 포함할 수 있다. 이 경우, 상기 학습 데이터메타데이터, 상기 의미 공간 지식 메타데이터 그리고 상기 그래프 지식 메타데이터를 기반으로, 상기 저장 장치에 저장되는, 학습 데이터 계층, 상기 의미 공간 계층 그리고 그래프 지식 계층간의 탐색 및 연계가 이루어질 수 있다. In an embodiment, the processor generates learning data metadata related to the learning data, and generates semantic space knowledge metadata that maps the learning data used for the semantic space learning, a transformation function, and the obtained semantic vector, The method may further include a knowledge element manager configured to generate graph knowledge metadata for mapping the semantic vector used for learning the relational knowledge, the relational function, and the related graph knowledge. In this case, based on the learning data metadata, the semantic space knowledge metadata, and the graph knowledge metadata, a search and linkage between the learning data layer, the semantic space layer, and the graph knowledge layer stored in the storage device is performed. can

일 구현 예에서, 상기 프로세서는 추론 요청에 따라 상기 지식 베이스 시스템의 계층별로 추론을 수행하도록 구성된 추론 처리부를 더 포함할 수 있다. 상기 추론 처리부는, 상기 그래프 지식 계층에 포함되는 그래프 지식을 기반으로 하는 제1 추론을 수행하는 동작; 상기 의미 공간 계층에 포함되는 의미 공간 지식을 기반으로 제2 추론을 수행하는 동작; 및 상기 학습 데이터 계층에 포함되는 학습 데이터를 기반으로 제3 추론을 수행하는 동작 중 적어도 하나를 수행하도록 구성될 수 있다. In one embodiment, the processor may further include an inference processing unit configured to perform inference for each layer of the knowledge base system according to the inference request. The reasoning processing unit may include: performing first reasoning based on graph knowledge included in the graph knowledge layer; performing second inference based on semantic space knowledge included in the semantic space layer; And it may be configured to perform at least one of the operation of performing a third inference based on the learning data included in the learning data layer.

일 구현 예에서, 상기 추론 처리부는 추가적으로, 상기 제1 추론에 대한 신뢰도, 상기 제2 추론에 대한 신뢰도 그리고 상기 제3 추론에 대한 신뢰도를 각각 상이하게 부여하고, 상이한 신뢰도들을 기반으로 상기 제1 추론의 결과, 상기 제2 추론의 결과 그리고 상기 제3 추론의 결과를 기반으로 최종적인 추론 결과를 획득하는 동작을 수행하도록 구성될 수 있다. In one embodiment, the inference processing unit additionally grants different confidence levels for the first inference, the second inference, and the third inference, and the first inference based on the different confidence levels. As a result of , the operation of obtaining a final reasoning result based on the result of the second reasoning and the result of the third reasoning may be performed.

일 구현 예에서, 상기 추론 처리부는 도메인별로 추론을 수행하도록 구성되는 복수의 예측 추론기를 포함하고, 상기 복수의 예측 추론기는 병렬적으로 추론을 수행하도록 구성될 수 있다. In an embodiment, the inference processing unit may include a plurality of prediction speculators configured to perform speculation for each domain, and the plurality of prediction speculators may be configured to perform speculation in parallel.

일 구현 예에서, 상기 추론 처리부는, 설정되는 추론 깊이과 설정되는 시간 중 적어도 하나에 따라, 상기 제1 추론을 수행하는 동작, 상기 제2 추론을 수행하는 동작 그리고 상기 제3 추론을 수행하는 동작 중 적어도 하나를 선택적으로 수행하도록 구성될 수 있다. In an embodiment, the inference processing unit is configured to perform the first inference, the second inference, and the third inference according to at least one of a set speculation depth and a set time. It may be configured to selectively perform at least one.

일 구현 예에서, 상기 추론 처리부는, 입력되는 학습 데이터나 입력되는 사실 정보를 기반으로 다계층 지식 추론을 통해 새로운 지식을 생성하도록 구성될 수 있다. In an embodiment, the inference processing unit may be configured to generate new knowledge through multi-layered knowledge inference based on input learning data or input fact information.

일 구현 예에서, 상기 추론 처리부는, 상기 제1 추론을 수행하는 동작 수행시, 상기 제1 추론에 따라 복수의 관계 함수에 대한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성되거나, 또는, 상기 제2 추론을 수행하는 동작 수행시, 상기 제2 추론에 따라 의미 공간에서 유효한 지식의 의미 벡터와 유사한 의미 벡터로 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성되거나, 또는 상기 제3 추론을 수행하는 동작 수행시, 상기 제3 추론에 따라 학습데이터 간의 유사도를 이용하여 유사한 학습데이터와 연결된 관계 함수를 이용한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성될 수 있다. In an embodiment, the inference processing unit is configured to infer new knowledge by performing inference on a plurality of relational functions according to the first inference and weighting the results when performing the operation of performing the first inference, or , or, when performing the operation of performing the second inference, inferring new knowledge with a semantic vector similar to the semantic vector of valid knowledge in the semantic space according to the second inference and weighting the result, or , or when performing the operation of performing the third inference, inferring new knowledge by applying a weight to the result by performing inference using a relational function connected to similar learning data using the degree of similarity between learning data according to the third inference can be configured.

실시 예들에 따르면, 언어나 그래프 등의 텍스트 기반의 데이터뿐만 아니라 이미지/영상/음성과 같은 멀티모달 학습 데이터의 내재된 정보와 이들의 상호 연관된 정보를 추출하고, 이를 바탕으로 기존의 지식에 더해서 정보의 소실 없이 명시적 지식뿐만 아니라 내재적 지식도 함께 융합하여 지식화하여 지식 베이스를 성장시킬 수 있다. According to the embodiments, the inherent information of multi-modal learning data such as images/videos/voices as well as text-based data such as language or graphs and their interrelated information are extracted, and based on this, information is added to existing knowledge Without loss of knowledge, not only explicit knowledge but also intrinsic knowledge can be fused together to form a knowledge base to grow the knowledge base.

또한, 고속으로 지식을 추론 성장시키기 위하여 내재적 정보를 활용하는 정도를 제한하여 지식베이스를 고속화할 수 있다. 따라서, 멀티모달 학습 데이터를 연속적으로 학습에 사용하므로, 이질적인 학습 데이터와 학습 태스크에 대해서도 기존에 학습된 지식에 대한 지식 및 정보의 소실을 줄이면서 지식을 성장시킬 수 있다. 즉, 이질적 도메인과 태스크를 가지는 학습 데이터 세트들의 지식 소실을 적게 하면서 효과적으로 융합하여 지식화시킬 수 있다.In addition, it is possible to speed up the knowledge base by limiting the degree to which intrinsic information is used to infer and grow knowledge at high speed. Therefore, since the multimodal learning data is continuously used for learning, it is possible to grow knowledge while reducing the loss of knowledge and information about previously learned knowledge even with respect to heterogeneous learning data and learning tasks. That is, it is possible to effectively converge and make knowledge of learning data sets having heterogeneous domains and tasks while reducing knowledge loss.

또한, 멀티모달 지식 추론에서 보다 효과적이고 다양한 학습 태스크와 학습 데이터를 적용하여 보다 많은 정보가 지식베이스에 축적됨으로써, 다양한 서비스가 하나의 지식베이스로 가능해진다. 또한, 이질적인 도메인과 태스크 간의 지식 전이가 생기므로, 각 개별 태스크에 대해서 정확도 등의 성능의 향상을 기대할 수 있다. 이렇게 생성된 지식은 지식의 추론 이외에도 멀티모달 데이터 관리 및 탐색, 인출이나 대화 생성 지식 추출 등의 다양한 서비스에도 사용될 수 있다.In addition, more information is accumulated in the knowledge base by applying more effective and diverse learning tasks and learning data in multi-modal knowledge inference, so that various services are possible with one knowledge base. In addition, since knowledge transfer occurs between heterogeneous domains and tasks, performance improvement such as accuracy can be expected for each individual task. In addition to knowledge inference, the knowledge generated in this way can be used for various services such as multi-modal data management and search, retrieval, conversation generation, knowledge extraction, and the like.

도 1은 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템의 구조를 나타낸 도이다.
도 2는 본 개시의 실시 예에 따른 의미 공간 지식 메타데이터 관리를 나타낸 개략도이다.
도 3은 본 개시의 실시 예에 따른 그래프 지식 메타데이터 관리를 나타낸 개략도이다.
도 4는 본 개시의 실시 예에 따른 다계층 지식 관리의 개념을 나타낸 도이다.
도 5는 본 개시의 실시 예에 따른 다계층 지식 탐색을 나타낸 예시도이다.
도 6은 본 개시의 실시 예에 따른 학습 데이터의 유사도 측정을 나타낸 예시도이다.
도 7a 내지 도 7c는 본 개시의 실시 예에 따른 추론을 수행하는 예를 나타낸 도이다.
도 8 내지 도 11은 본 개시의 실시 예에 따른 메타데이터를 나타낸 예시도이다.
도 12는 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템을 기능적으로 분류한 예를 나타낸 도이다.
도 13 및 도 14는 본 개시의 실시 예에 따른 처리 방법의 흐름도이다.
도 15 및 도 16은 본 개시의 실시 예에 따른, 새로운 사실 정보 입력을 기반으로 이루어지는 지식 성장을 나타낸 예시도이다.
도 17은 본 개시의 실시 예에 따른, 도메인별로 생성된 지식을 병렬로 추론을 실행하고 그 결과를 융합하여 결과를 도출하는 예를 나타낸 도이다.
도 18은 본 개시의 실시 예에 따른, 다계층 지식 추론에서 하위 계층으로 진행하는 깊이를 조절하여 추론을 수행하는 예를 나타낸 도이다.
도 19는 본 개시의 실시 예에 따른 처리 방법을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 구조도이다.
1 is a diagram illustrating a structure of a multi-layered knowledge base system according to an embodiment of the present disclosure.
2 is a schematic diagram illustrating semantic spatial knowledge metadata management according to an embodiment of the present disclosure.
3 is a schematic diagram illustrating graph knowledge metadata management according to an embodiment of the present disclosure.
4 is a diagram illustrating the concept of multi-layered knowledge management according to an embodiment of the present disclosure.
5 is an exemplary diagram illustrating a multi-layered knowledge search according to an embodiment of the present disclosure.
6 is an exemplary diagram illustrating a similarity measurement of learning data according to an embodiment of the present disclosure.
7A to 7C are diagrams illustrating examples of performing inference according to an embodiment of the present disclosure.
8 to 11 are exemplary views illustrating metadata according to an embodiment of the present disclosure.
12 is a diagram illustrating an example of functionally classifying a multi-layered knowledge base system according to an embodiment of the present disclosure.
13 and 14 are flowcharts of a processing method according to an embodiment of the present disclosure.
15 and 16 are exemplary diagrams illustrating knowledge growth based on input of new fact information, according to an embodiment of the present disclosure.
17 is a diagram illustrating an example of inferring knowledge generated for each domain in parallel and fusing the results to derive a result, according to an embodiment of the present disclosure.
18 is a diagram illustrating an example in which inference is performed by adjusting the depth of proceeding to a lower layer in multi-layer knowledge inference according to an embodiment of the present disclosure.
19 is a structural diagram illustrating a computing device for implementing a processing method according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본 명세서에서 단수로 기재된 표현은 "하나" 또는 "단일" 등의 명시적인 표현을 사용하지 않은 이상, 단수 또는 복수로 해석될 수 있다.In the present specification, expressions described in the singular may be construed in the singular or plural unless an explicit expression such as “a” or “single” is used.

또한, 본 개시의 실시 예에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms including an ordinal number such as first, second, etc. used in an embodiment of the present disclosure may be used to describe the components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present disclosure, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 도면을 참조하여 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템 및 그의 처리 방법에 대하여 설명한다. Hereinafter, a multi-layered knowledge base system and a processing method thereof according to an embodiment of the present disclosure will be described with reference to the drawings.

도 1은 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템의 구조를 나타낸 도이다. 1 is a diagram illustrating a structure of a multi-layered knowledge base system according to an embodiment of the present disclosure.

첨부한 도 1에서와 같이, 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템(1)은 학습 데이터 저장부(10), 의미 공간 지식 저장부(20), 그래프 지식 저장부(30), 의미 공간 학습부(40), 관계 지식 학습부(50), 지식 요소 관리부(60), 추론 처리부(70) 및 지식 인출 처리부(80)를 포함한다. 1 , a multi-layered knowledge base system 1 according to an embodiment of the present disclosure includes a learning data storage unit 10 , a semantic space knowledge storage unit 20 , a graph knowledge storage unit 30 , and a meaning It includes a spatial learning unit 40 , a relational knowledge learning unit 50 , a knowledge element management unit 60 , an inference processing unit 70 , and a knowledge retrieval processing unit 80 .

학습 데이터 저장부(10)는 지식을 성장시키는 지식 원천 요소를 저장하도록 구성된다. 복수의 학습 데이터가 존재하며, 각 학습 데이터는 도메인과 태스크에 기반하여 구성된다. 학습 데이터는 구조적 데이터(Structured Data), 준구조적 데이터(Semi-structured data), 비구조적 데이터(unstructured data)로 구분될 수 있다. 구조적 데이터는 DB(database)나 SDA(Structured Digital Abstracts), 그래프와 같이 특정 구조로 지식을 표현하는 데이터를 나타낸다. 비구조적 데이터는 웹 등에서 무작위로 특정 구조 없이 구성된 데이터를 나타낸다. 준구조적 데이터는 DB나 그래프와 같이 완전한 지식을 표현하는 구조가 아니라 태스크나 도메인에 기반하여 특정 목적에 맞는 지식이 내재되도록 데이터 구조를 가지는 데이터를 나타내며, 예를 들어 기계 학습의 학습 데이터를 나타낸다. 이러한 학습 데이터는 학습 데이터 저장부(10)에 저장되며, 지식 요소 관리부(60)에 의해 데이터베이스 스키마를 기반으로 지식 원천 요소로서 관리된다. The learning data storage unit 10 is configured to store knowledge source elements that grow knowledge. A plurality of training data exists, and each training data is configured based on a domain and a task. The learning data may be divided into structured data, semi-structured data, and unstructured data. Structured data represents data expressing knowledge in a specific structure, such as a database (DB), Structured Digital Abstracts (SDA), or graph. Unstructured data refers to data that is randomly constructed without a specific structure on the web, etc. Semi-structured data refers to data having a data structure so that knowledge suitable for a specific purpose is embedded based on a task or domain, rather than a structure expressing complete knowledge such as DB or graph, for example, it refers to learning data of machine learning. Such learning data is stored in the learning data storage unit 10 , and is managed as a knowledge source element based on the database schema by the knowledge element management unit 60 .

학습 데이터는 의미 공간의 학습 및 그래프 지식의 학습에 사용되며, 지식 학습에 사용되는 데이터는 말뭉치(corpus)와 같이 텍스트로만 구성된 단일 모달 데이터 및 이미지/동영상과 말뭉치 쌍과 같은 멀티모달 데이터를 모두 포함한다. 학습 데이터 저장부(10)에 저장된 학습 데이터는 호출에 따라 의미 공간 학습부(40)와 관계 지식 학습부(50) 그리고 추론 처리부(70)로 제공된다. The training data is used for learning of semantic space and learning graph knowledge, and the data used for knowledge learning includes both single modal data composed only of text such as corpus and multimodal data such as image/video and corpus pair. do. The learning data stored in the learning data storage unit 10 is provided to the semantic space learning unit 40 , the relational knowledge learning unit 50 , and the inference processing unit 70 according to a call.

의미 공간 학습부(40)는 학습 데이터 저장부(10)로부터 학습 데이터를 가져와 의미 공간으로 변환하는 함수를 학습시키도록 구성된다. 여기서 변환 함수는 학습 데이터에 내재된 지식을 바탕으로 학습 데이터를 의미 공간의 벡터(의미 벡터라고도 명명됨)로 변환하며, 뉴럴 네트워크, 퍼지 매핑, 또는 행렬 함수 등 여러 가지 형식을 가질 수 있다. 학습 데이터가 단일 모달 데이터인 경우, 그래프 임베딩(embedding), 워드 임베딩, 이미지 임베딩 등이 사용될 수 있으며, 학습 데이터가 멀티모달 데이터인 경우, 개별 임베딩을 단순히 연결하거나 멀티모달 워드 임베딩과 같은 방법으로 임베딩할 수 있다. The semantic space learning unit 40 is configured to learn a function that takes the learning data from the learning data storage unit 10 and transforms it into a semantic space. Here, the transform function transforms the training data into a vector of a semantic space (also called a semantic vector) based on the knowledge inherent in the training data, and may have several forms, such as a neural network, fuzzy mapping, or matrix function. When the training data is single-modal data, graph embedding, word embedding, image embedding, etc. can be used. When the training data is multi-modal data, the individual embeddings are simply connected or embedded in the same way as multi-modal word embedding. can do.

의미 공간 지식 저장부(20)는 의미 공간 학습부(40)에서 학습된 학습 데이터의 의미 벡터를 저장하고 관리하도록 구성된다. 의미 벡터는 학습 데이터에 의하여 인덱싱되어 관리되며, 이에 대응하는 메타데이터는 지식 요소 관리부(60)에 의해 관리된다. The semantic space knowledge storage unit 20 is configured to store and manage a semantic vector of the learning data learned by the semantic space learning unit 40 . The semantic vector is indexed and managed by the learning data, and metadata corresponding thereto is managed by the knowledge element management unit 60 .

지식 요소 관리부(60)는 학습 데이터에 의해 인덱싱되는 의미 벡터에 관련된 메타데이터 즉, 의미 공간 지식 메타데이터를 관리하도록 구성된다. The knowledge element management unit 60 is configured to manage metadata related to a semantic vector indexed by the learning data, that is, semantic space knowledge metadata.

도 2는 본 개시의 실시 예에 따른 의미 공간 지식 메타데이터 관리를 나타낸 개략도이다.2 is a schematic diagram illustrating semantic spatial knowledge metadata management according to an embodiment of the present disclosure.

학습 데이터 1 내지 학습 데이터 N을 포함하는 복수의 학습 데이터에 대해 개별적으로 의미 공간 학습이 수행되어 대응하는 의미 벡터들이 획득된다. 예를 들어, 도 2에서와 같이, 변환 함수 1을 통해 학습 데이터 1이 의미 공간으로 변환되어 대응하는 의미 벡터가 획득되며, 변환 함수 N을 통해 학습 데이터 N이 의미 공간으로 변환되어 대응하는 의미 벡터가 획득된다. 따라서, 복수의 학습 데이터에 대한 의미 벡터들을 포함하는 의미 벡터 집합이 획득된다. 의미 벡터 집합은 의미 공간 지식들의 집합이라고도 볼 수 있다. 지식 요소 관리부(60)는 이와 같이 의미 공간 학습에 사용된 학습 데이터와 학습에 의하여 추출된 벡터화된 결과물인 의미 벡터, 학습의 결과물인 지식 모델인 변환 함수, 그리고 이에 해당하는 지식 결과물인 의미 공간 지식들을 연계하는 지식의 추출 과정을 메타데이터 즉, 의미 공간 지식 메타데이터로 나타내어 관리한다. Semantic space learning is individually performed on a plurality of training data including the training data 1 to the training data N to obtain corresponding semantic vectors. For example, as shown in FIG. 2 , learning data 1 is transformed into a semantic space through a transform function 1 to obtain a corresponding semantic vector, and learning data N is transformed into a semantic space through a transform function N to obtain a corresponding semantic vector. is obtained Accordingly, a semantic vector set including semantic vectors for a plurality of learning data is obtained. The semantic vector set can also be viewed as a set of semantic space knowledge. As such, the knowledge element management unit 60 includes the learning data used for semantic space learning, a semantic vector that is a vectorized result extracted by learning, a transformation function that is a knowledge model that is a result of learning, and semantic space knowledge that is a corresponding knowledge result. The process of extracting knowledge linking them is represented and managed as metadata, that is, semantic space knowledge metadata.

한편, 관계 지식 학습부(50)는 의미 공간 지식 저장부(20)에 저장된 의미 벡터들 간의 관계를 학습하도록 구성된다. 관계 지식 학습부(50)는 의미 벡터와 연관된 학습 데이터를 호출하여 관계를 학습하는 것에 사용한다. 예를 들어, 두 의미 벡터를 입력으로 하는 관계를 행렬이나 뉴럴 네트워크로 표현하고, 이들을 학습하는데 의미 벡터와 연관된 학습 데이터가 사용되며, 의미 벡터들간의 관계에 대응하는 라벨(label)이 출력된다. 이러한 행렬이나 뉴럴 네트워크로 표현되는 관계 함수는 두 의미 벡터 간의 관계 종류마다 그 관계에 해당하는 강도(intensity)를 출력하며, 강도가 미리 설정된 문턱값보다 크면 유효한 관계로 간주한다. Meanwhile, the relational knowledge learning unit 50 is configured to learn the relation between the semantic vectors stored in the semantic space knowledge storage unit 20 . The relational knowledge learning unit 50 calls learning data associated with a semantic vector and uses it to learn a relation. For example, a relationship using two semantic vectors as an input is expressed as a matrix or a neural network, learning data associated with a semantic vector is used to learn them, and a label corresponding to the relationship between the semantic vectors is output. A relation function expressed as such a matrix or a neural network outputs an intensity corresponding to the relation for each type of relation between two semantic vectors, and if the strength is greater than a preset threshold, it is regarded as a valid relation.

관계 지식 학습부(50)에서 생성된 의미 벡터들간의 관계에 대한 관계 지식은 그래프 지식으로 변환되어 그래프 지식 저장부(30)에 저장된다. 그래프 지식은 의미 벡터를 노드(Node)로 하고 관계를 에지(Edge)로 하는 그래프로 이루어진다. The relational knowledge about the relationship between the semantic vectors generated by the relational knowledge learning unit 50 is converted into graph knowledge and stored in the graph knowledge storage unit 30 . Graph knowledge consists of graphs with semantic vectors as nodes and relationships as edges.

지식 요소 관리부(60)는 이러한 의미 벡터들 간의 관계 학습에 사용된 데이터들의 연결 관계에 관련된 메타데이터 즉, 그래프 지식 메타데이터를 관리하도록 구성된다. The knowledge element management unit 60 is configured to manage metadata related to a connection relationship between data used for learning the relationship between these semantic vectors, that is, graph knowledge metadata.

도 3은 본 개시의 실시 예에 따른 그래프 지식 메타데이터 관리를 나타낸 개략도이다.3 is a schematic diagram illustrating graph knowledge metadata management according to an embodiment of the present disclosure.

의미 벡터들 즉, 의미 공간 지식 1 내지 의미 공간 지식 N을 포함하는 복수의 의미 공간 지식들에 대해, 의미 공간 지식들의 관계에 대해 학습이 수행되어 대응하는 그래프 지식들이 획득된다. 예를 들어, 도 3에서와 같이, 복수의 의미 공간 지식들에 대해, 2개의 의미 공간 지식들을 입력으로 관계 함수를 통해 그 관계를 나타내는 그래프 지식이 획득되는 과정이 각각 수행되어, 복수의 그래프 지식이 획득된다. 지식 요소 관리부(60)는 이러한 관계 지식 학습에 사용된 학습 데이터와 의미 벡터들(의미 공간 지식), 학습의 결과물인 지식 모델인 관계 함수, 그리고 이에 해당하는 지식 결과물인 그래프 지식들을 연계하는 지식의 추출 과정을 메타데이터 즉, 그래프 지식 메타데이터로 나타내어 관리한다. For a plurality of semantic space knowledges including semantic vectors, that is, semantic space knowledge 1 to semantic space knowledge N, learning is performed on the relation between semantic space knowledges to obtain corresponding graph knowledge. For example, as shown in FIG. 3 , for a plurality of semantic space knowledges, a process of obtaining graph knowledge representing the relationship through a relation function by inputting two semantic space knowledges is performed, respectively, so that the plurality of graph knowledge this is obtained The knowledge element management unit 60 is the knowledge that connects the learning data and semantic vectors (semantic spatial knowledge) used for relational knowledge learning, the relational function that is the knowledge model that is the result of learning, and the graph knowledge that is the corresponding knowledge result. The extraction process is represented and managed as metadata, that is, graph knowledge metadata.

이와 같이 학습 데이터를 기반으로 의미 공간 학습부(40)와 관계 지식 학습부(50)에 의해 수행된 학습에 따라 획득된 지식들이 다계층으로 관리될 수 있다. As described above, the knowledge acquired according to the learning performed by the semantic space learning unit 40 and the relational knowledge learning unit 50 based on the learning data may be managed in multiple layers.

도 4는 본 개시의 실시 예에 따른 다계층 지식 관리의 개념을 나타낸 도이다. 4 is a diagram illustrating the concept of multi-layered knowledge management according to an embodiment of the present disclosure.

학습의 기반이 되는 학습 데이터를 포함하는 학습 데이터 계층(멀티모달 데이터를 포함함), 학습 데이터로 변환 함수를 학습하여 획득되는 의미 공간 벡터(의미 벡터)를 포함하는 의미 공간 계층(다차원 벡터 공간), 그리고 의미 공간 벡터로 의미 공간 변환 함수를 학습하여 의미 공간들의 관계를 나타내는 그래프 지식을 포함하는 그래프 지식 계층을 포함하는 다계층이 형성되고, 이러한 다계층을 기반으로 지식 관리가 수행될 수 있다. A training data layer (including multimodal data) that includes the training data that is the basis of learning, and a semantic space layer (multi-dimensional vector space) that includes a semantic space vector (semantic vector) obtained by learning a transform function with the training data , and by learning the semantic space transformation function with the semantic space vector, a multi-layer including a graph knowledge layer including graph knowledge representing the relationship between semantic spaces is formed, and knowledge management can be performed based on the multi-layer.

한편, 추론 처리부(70)는 그래프 지식 저장부(30)에 존재하지 않는 관계에 대해서 예측 추론을 통하여 관계를 추론하도록 구성된다. 여기서, RESCAL, TransE 등과 같은 내재된 특징을 입력으로 하는 관계 함수를 다루는 내재 특성 모델(Latent Feature Model) 방법이나, PRA(Path Ranking Algorithm)과 같은 그래프 자체의 특성을 활용하는 그래프 특성 모델(Graph Feature Model)을 사용하여 학습 데이터에 의하여 생성된 그래프 지식 이외의 지식을 예측 추론할 수 있다. 내재 특성 모델의 경우, 의미 공간 지식을 획득하는 것과 유사하게 의미 공간에서 사용한 의미 벡터를 내재된 특징으로 활용할 수 있다. On the other hand, the inference processing unit 70 is configured to infer a relation through predictive reasoning with respect to a relation that does not exist in the graph knowledge storage unit 30 . Here, the Latent Feature Model method that deals with relational functions that take intrinsic features such as RESCAL and TransE as input, or the Graph Feature model that utilizes the characteristics of the graph itself such as PRA (Path Ranking Algorithm) Model) can be used to predict and infer knowledge other than the graph knowledge generated by the training data. In the case of the intrinsic feature model, similar to acquiring semantic space knowledge, a semantic vector used in the semantic space can be utilized as an intrinsic feature.

또한, 추론 처리부(70)는 관계 지식 학습부(50)에서 사용된 관계 함수를 그대로 예측 추론에 활용할 수 있다. 이때, 새롭게 생성된 트리플 지식이나 이와 관련된 의미 벡터나 학습 데이터와 연결된 다른 그래프 지식이나 관계 함수를 활용하여 지식을 성장시킬 수 있다. 새롭게 생성된 그래프 지식은 그래프 지식 저장부(30)에 저장된다. Also, the inference processing unit 70 may utilize the relational function used in the relational knowledge learning unit 50 for predictive reasoning as it is. In this case, the knowledge may be grown by using the newly generated triple knowledge, a semantic vector related thereto, or other graph knowledge or relational function connected to the learning data. The newly generated graph knowledge is stored in the graph knowledge storage unit 30 .

추론 처리부(70)는 그래프 지식 메타데이터에 연결된 의미 공간 지식, 관계 함수, 변환 함수 및 학습 데이터에 관련된 정보를 활용하여 다계층 지식 탐색을 실시하여 새로운 지식을 생성할 수 있다. The inference processing unit 70 may generate new knowledge by performing multi-layered knowledge search by utilizing information related to semantic spatial knowledge, relational function, transformation function, and learning data connected to graph knowledge metadata.

도 5는 본 개시의 실시 예에 따른 다계층 지식 탐색을 나타낸 예시도이다. 5 is an exemplary diagram illustrating a multi-layered knowledge search according to an embodiment of the present disclosure.

먼저, 복수의 관계 함수를 이용하여 추론을 수행한다(설명의 편의상 제1 추론이라고도 명명함, (도 5의 (a)). 여러 번의 지식 성장 과정을 거치면 동일한 지식에 대해서 여러 관계 함수를 가진다. 이러한 여러 관계 함수들을 기반으로 그래프 추론 기법(그래프 특성 모델을 이용한 추론)을 사용하여 지식을 추론한다. 예를 들어, 임의 지식 (S-P-O)1에 대한 관계 함수들을 기반으로 지식을 추론한다. 여러 관계 함수들을 사용한 추론 결과들(예를 들어, 도 5에서 (S-P-O)r1 및 (S-P-O)r2)은 서로 다를 수 있다. 이때 추론 결과들(새로운 {(S-P-O)r} 집합)에 대해서 학습 시에 사용한 에너지 함수의 크기를 정규화(normalization)하고, 정규화된 값들을 비교하여 더 큰 값을 가진 S-P-O 트리플(Subject-Predicate-Object Triple)을 선택할 수 있다. 그러나 본 개시는 이에 한정되지 않는다. First, inference is performed using a plurality of relational functions (also called first inference for convenience of description, (FIG. 5(a)). After multiple knowledge growth processes, multiple relational functions are obtained for the same knowledge. Based on these multiple relational functions, we infer knowledge using graph reasoning techniques (inference using graph characteristic model), for example, we infer knowledge based on relational functions for arbitrary knowledge (SPO) 1. Multiple relations The inference results using the functions (eg, (SPO) r1 and (SPO) r2 in Fig. 5 ) may be different from each other, in this case, the inference results (a new {(SPO) r } set) used in learning An SPO triple (Subject-Predicate-Object Triple) having a larger value may be selected by normalizing the magnitude of the energy function and comparing the normalized values, but the present disclosure is not limited thereto.

다음에, 의미 공간 지식을 이용한 추론을 수행한다(설명의 편의상 제2 추론이라고도 명명함, 도 5의 (b)). 위의 제1 추론에 사용된 관계 함수에 연결된 의미 공간 상의 의미 벡터(유효한 S-P-O 트리플의 의미 벡터)와 의미 공간 상의 유사한 의미 벡터를 선택하고, 이들 의미 벡터에 대응하는 관계 함수를 기반으로 새로운 지식 S-P-O 트리플(예를 들어, (S-P-O)m1)을 생성한다. 이때, 의미 벡터 사이의 유사도 측정을 위해, 코사인 유사도나 해밍 거리 등의 다양한 방법이 사용 가능하다.Next, inference using semantic space knowledge is performed (also called second inference for convenience of description, (b) of FIG. 5 ). Select a semantic vector in the semantic space (the semantic vector of a valid SPO triple) connected to the relational function used in the first reasoning above and a similar semantic vector in the semantic space, and based on the relational function corresponding to these semantic vectors, a new knowledge SPO Create a triple (eg (SPO) m1 ). In this case, in order to measure the similarity between the semantic vectors, various methods such as cosine similarity or Hamming distance can be used.

그리고, 학습 데이터를 이용한 추론을 수행한다(설명의 편의상 제3 추론이라고도 명명함, 도 5의 (c)). 학습 데이터(위의 도 5의 (a) 및 (b) 추론에 연관된 학습 데이터)를 기반으로 유사한 다른 학습 데이터를 찾고, 유사한 학습 데이터와 연결된 의미 공간 지식과 관계 함수, 그래프 지식 상에서 예측 추론을 수행할 수 있다. 즉, 학습 데이터와 유사한 학습 데이터와 연결된 의미 벡터를 찾고, 찾아진 의미 벡터들에 대응하는 관계 함수를 기반으로 예측 추론을 수행하여 새로운 지식(예를 들어, (S-P-O)d)을 획득한다. 이때, 전술한 예측 추론 방법들이 사용될 수 있다. 한편, 유사한 학습 데이터를 찾을 때, 학습 데이터의 속성을 벡터화하여 코사인 유사도나 해밍 거리 등의 방법으로 비교하는 것을 통해 유사한 학습 데이터를 찾을 수 있다. 또는 미리 학습 데이터 간의 유사도 측정 테이블을 사용하는 등의 다양한 방법을 사용하여 유사한 학습 데이터를 찾을 수 있다. 유사한 학습 데이터와 관련된 의미 공간 상의 원본 공간의 유효 지식의 의미 벡터와의 유사도를 구할 때, 고차 의미 벡터의 차원을 축소하고, 다음에 차원이 축소된 두 벡터간 내적과 대응하는 학습 데이터 간 유사도의 곱으로 유사도를 구하고, 구해진 유사도들을 기반으로 복수의 학습 데이터들의 의미 벡터들에서 가장 큰 큰 유사도를 가지는 의미 벡터 즉, 가장 유사한 의미 벡터를 선택하고, 선택된 의미 벡터와 관련된 관계 함수를 사용하여 새로운 지식을 추론한다. Then, inference is performed using the learning data (also referred to as third inference for convenience of explanation, (c) of FIG. 5 ). Find other similar training data based on training data (learning data related to inference in (a) and (b) of FIG. 5 above), and perform predictive reasoning on semantic spatial knowledge, relational function, and graph knowledge connected with similar training data can do. That is, new knowledge (eg, (SPO) d ) is acquired by finding a semantic vector connected to learning data similar to the learning data, and performing predictive inference based on a relational function corresponding to the found semantic vectors. In this case, the aforementioned predictive inference methods may be used. On the other hand, when searching for similar training data, similar training data can be found by vectorizing the properties of the training data and comparing them using a method such as cosine similarity or Hamming distance. Alternatively, similar training data may be found by using various methods such as using a similarity measurement table between training data in advance. When obtaining the similarity with the semantic vector of the effective knowledge of the original space in the semantic space related to similar learning data, the dimension of the higher-order semantic vector is reduced, and then the dot product between the two reduced dimensions and the similarity between the corresponding learning data The similarity is obtained by multiplying, and based on the obtained similarities, a semantic vector having the greatest similarity among semantic vectors of a plurality of learning data, that is, the most similar semantic vector is selected, and new knowledge is obtained using a relational function related to the selected semantic vector. infer

도 6은 본 개시의 실시 예에 따른 학습 데이터의 유사도 측정을 나타낸 예시도이다. 6 is an exemplary diagram illustrating a similarity measurement of learning data according to an embodiment of the present disclosure.

예를 들어, 학습 데이터 간 유사도가 D1, D2, DS일 때, DS의 학습 데이터에 대해 D1보다 D2가 더 가까우므로, D2의 학습 데이터가 선택된다. For example, since the degree of similarity between the training data D 1, D 2, D S one time, D 2 is closer than the D 1 for the learning data of the D S, the training data is selected for D 2.

이러한 학습 데이터의 유사도를 이용하여 추론을 수행하여 도 5의 (c)와 같이 새로운 지식을 생성할 수 있다. It is possible to generate new knowledge as shown in FIG. 5C by performing inference using the similarity of the learning data.

위에 기술된 바와 같이, 추론 요청에 대하여, 제1 추론, 제2 추론 그리고 제3 추론을 수행하여, 추론 요청 즉, 질문에 대한 답을 찾을 수 있다. 이때, 제1 추론의 결과, 제2 추론의 결과 그리고 제3 추론의 결과 각각에 대해서 상이한 가중치를 부여하고, 부여된 가중치를 기반으로 최종적인 추론 결과를 도출할 수 있다. 예를 들어, 상위 계층으로 갈수록 보다 확실한 지식으로부터의 추론이므로, 상위 계층의 추론 결과에 높은 신뢰도를 부여하고, 각각 계층에서 나오는 추론에서 사용되는 가중치와 신뢰도의 곱 등을 통하여 개별 추론 결과들의 최종 신뢰도(총괄 가중치)를 각각 구하고, 개별 추론 결과들의 최종 신뢰도들 중에서 문턱값 이상의 신뢰도를 가지는 추론 결과를 최종적으로 사용할 수 있다. 이러한 계층 신뢰도는 지식베이스 설계자가 임의로 설정하거나 통계 기반으로 추론의 정확성 등을 이용하여 정할 수 있다.As described above, the first reasoning, the second reasoning, and the third reasoning are performed on the reasoning request to find the reasoning request, that is, the answer to the question. In this case, different weights may be assigned to each of the first inference result, the second inference result, and the third inference result, and a final inference result may be derived based on the assigned weight. For example, since it is an inference from knowledge that is more certain as you go to a higher layer, high reliability is given to the inference result of the upper layer, and the final reliability of individual inference results through the product of the weight and reliability used in the inference from each layer, etc. (Overall weight) may be obtained, and an inference result having a reliability greater than or equal to a threshold may be finally used among final reliability values of individual inference results. Such hierarchical reliability can be arbitrarily set by the knowledge base designer or determined using the accuracy of inference based on statistics.

구체적으로, 제1 추론에 따라 복수의 관계 함수에 대한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론할 수 있다. Specifically, inferring a plurality of relational functions according to the first inference may be performed, and new knowledge may be inferred by weighting the results.

또한, 제2 추론에 따라 의미 공간에서 유효한 지식의 의미 벡터와 유사한 의미 벡터로 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론할 수 있다. In addition, according to the second inference, inference is performed with a semantic vector similar to the semantic vector of valid knowledge in the semantic space, and new knowledge can be inferred by weighting the result.

또한, 제3 추론에 따라 학습데이터 간의 유사도를 이용하여 유사한 학습데이터와 연결된 관계 함수를 이용한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론할 수 있다.In addition, according to the third inference, by using the degree of similarity between the learning data, inference using a relational function connected to similar learning data may be performed, and new knowledge may be inferred by weighting the result.

도 7a 내지 도 7c는 본 개시의 실시 예에 따른 추론을 수행하는 예를 나타낸 도이다. 7A to 7C are diagrams illustrating examples of performing inference according to an embodiment of the present disclosure.

추론 질의로서 S-P가 주어지고 유효한 O를 구하거나, 또는 S, O가 주어지고 유효한 P를 구하거나, 또는 P, O가 주어지고 유효한 S를 구하는 추론을 고려할 수 있다. As an inference query, we can consider inference given S-P and finding valid O, or given S, O and finding valid P, or given P, O and finding valid S.

관계 함수는 P의 유효성을 학습하고 의미공간은 개체(entity) S, O의 벡터화를 학습한다. The relational function learns the validity of P, and the semantic space learns the vectorization of entities S and O.

예를 들어, 도 7a에서와 같이, 추론 질의로 Sq, Pq가 주어진 경우, 제1 추론시, 관계 함수를 통해 유효한 O를 구하여 추론 결과 (S-P-O)r1가 획득된다. 여기서, 제1 추론은 관계 함수를 통하여 P의 유효성을 출력하며, 추론 결과들을 유효성에 대해서 정렬하고, 유효성 값을 가중치로 활용한다. 예를 들어, r1 관계 함수를 기반으로 추론된 Sq-Pq-O에 대한 P의 유효성 값인 관계 함수 값 0.9가 획득되며, 이를 관계 함수 가중치로 활용한다. For example, as shown in FIG. 7A , when S q , P q is given as an inference query, a valid O is obtained through a relational function during the first inference to obtain an inference result (SPO) r1 . Here, the first inference outputs the validity of P through the relational function, aligns the inference results with respect to the validity, and uses the validity value as a weight. For example, a relation function value 0.9, which is the validity value of P for S q -P q -O deduced based on the r1 relational function, is obtained, and this is used as the relation function weight.

한편, 제2 추론은 질의에 사용된 S나 P에 대해서 의미공간 상의 개체들의 유사도를 가중치로 사용한다. 예를 들어, 도 7b에서와 같이, 추론 질의로 Sq, Pq가 주어진 경우, 제2 추론시, Sq의 의미 벡터와 의미 공간에서 0.8의 유사도를 가지는 의미 벡터를 가지는 S'q가 선택되고, S'q에 대한 m1 관계 함수를 기반으로 S'q-Pq-O((S-P-O)m1)가 획득되며, 이에 대한 관계 함수 값 0.9가 획득된다. 여기서 0.8의 유사도(의미 공간 유사도)가 제2 추론 결과에 대한 가중치로 활용될 수 있다. Meanwhile, the second reasoning uses the similarity of entities in the semantic space as a weight for S or P used in the query. For example, as shown in Figure 7b, when the S q, P q given as an inference query, the second inference when, S 'q is selected having a mean vector with a 0.8 degree of similarity in the S q mean vector and a mean space and, S 'based on the m1 related functions for q S' q -P q -O ( (SPO) m 1) is is obtained, is obtained between the functional value of 0.9 for this. Here, a similarity of 0.8 (semantic spatial similarity) may be used as a weight for the second inference result.

한편, 제2 추론에서, 의미공간 유사도가 문턱값 이상인 경우 이에 대한 관계 함수의 유효성 값을 활용하며, 개체 간의 유사도에 관계 함수의 유효성 값을 곱하여 추론 결과의 가중치로 활용할 수 있다. 예를 들어, 관계 함수 값 0.9와 유사도 0.8을 곱한 값 0.72를 제2 추론 결과에 대한 가중치로 활용할 수 있다. Meanwhile, in the second inference, when the semantic space similarity is equal to or greater than the threshold, the validity value of the relational function is used, and the similarity between entities is multiplied by the validity value of the relational function to be used as a weight for the inference result. For example, a value of 0.72 obtained by multiplying a relation function value of 0.9 by a similarity of 0.8 may be used as a weight for the second inference result.

한편, 제3 추론은 추론 질의에 대해서 가장 큰 관계 함수 유효성을 가지는 추론 결과와 메타데이터로 연결된 학습 데이터를 기본 학습 데이터로 설정하고, 기본 학습 데이터와 유사도가 일정 문턱값 이상인 학습 데이터와 메타데이터로 연계된 지식그래프와 의미공간 지식에 대해서, 제1 추론과 제2 추론을 실행하여 제3 추론을 유도한다. 이때, 학습 데이터 간의 유사도가 가중치에 곱해져 그 추론 결과에 대해 가중치로 활용될 수 있다. 이에 따라, 내재된 지식들을 의미 공간 유사도와 학습 데이터 유사도를 통하여 다계층의 정보를 활용하여 추론에 활용할 수 있다.On the other hand, the third inference sets the learning data connected by the inference result and metadata with the greatest relational function validity to the inference query as the basic training data, and uses the training data and metadata that have a similarity with the basic training data over a certain threshold. For the connected knowledge graph and semantic space knowledge, the first reasoning and the second reasoning are executed to induce the third reasoning. In this case, the similarity between the training data may be multiplied by the weight and used as a weight for the inference result. Accordingly, the inherent knowledge can be utilized for inference by using multi-layered information through semantic spatial similarity and learning data similarity.

예를 들어, 도 7c에서와 같이, 추론 질의로 Sq, Pq가 주어진 경우, 제1 추론에 따른 추론 결과 (S-P-O)d에서 가장 큰 관계 함수 유효성을 가지는 추론 결과(예: Sq-Pq-O)와 연결된 학습 데이터를 기본 학습 데이터로 설정하고, 학습 데이터들 중에서 기본 학습 데이터와 유사도 0.7을 가지는 학습 데이터를 선택하고, 선택된 학습 데이터에 연결된 의미 벡터와 0.8의 유사도를 가지는 의미 벡터를 가지는 S'q가 선택되고, S'q에 대한 r2 관계 함수를 기반으로 S'q-Pq-O((S-P-O)r2)가 획득되며, 이에 대한 관계 함수 값 0.9가 획득된다. 여기서 학습 데이터 간의 유사도 0.7에 관계함수 값 0.9와 의미공간 유사도 0.8을 곱한 값 0.504를 제3 추론 결과에 대한 가중치로 활용할 수 있다. For example, as in FIG. 7C , when S q , P q is given as an inference query, the inference result (eg, S q -P) having the greatest relational function validity in the inference result (SPO) d according to the first inference q -O) and connected learning data are set as basic training data, training data having a similarity of 0.7 to the basic training data is selected from among the training data, and a semantic vector connected to the selected training data and a semantic vector having a similarity of 0.8 is selected. with S 'q is selected, S' based on the function of the relation r2 q is obtained an S 'q -P q -O (( SPO) r2), is obtained between the functional value of 0.9 for this. Here, the value 0.504 obtained by multiplying the similarity 0.7 between the training data by the relation function value 0.9 and the semantic space similarity 0.8 can be used as a weight for the third inference result.

이와 같이 수행되는 각 추론에 대해 획득되는 최종 신뢰도 즉, 총괄 가중치는 다음 표 1과 같을 수 있다. The final reliability, that is, the overall weight, obtained for each inference performed in this way may be as shown in Table 1 below.

추론계층inference layer 관계함수
가중치
relational function
weight
의미공간
유사도
meaning space
Similarity
학습데이터
유사도
training data
Similarity
계층
신뢰도
hierarchy
reliability
총괄
가중치
general
weight
제1 추론first reasoning 0.90.9 1One 1One 1One 0.90.9 제2 추론second reasoning 0.90.9 0.80.8 1One 0.80.8 0.5760.576 제3 추론third reasoning 0.90.9 0.80.8 0.70.7 0.70.7 0.282240.28224

상위 계층의 추론 결과에 높은 신뢰도를 부여하는 것을 기반으로, 위의 표 1의 예에서와 같이, 제1 추론의 계층(또는 제1 계층)에 1의 계층 신뢰도가 부여되고, 제2 추론의 계층(또는 제2 계층)에 0.8의 계층 신뢰도가 부여되며, 제3 추론의 계층(또는 제3 계층)에 0.7의 계층 신뢰도가 부여될 수 있다. 각각 계층에서 나오는 추론에서 사용되는 가중치에 계층 신뢰도를 곱하여 최종 신뢰도인 총괄 가중치를 획득한다. 예를 들어, 제1 추론에 대한 가중치 0.9에 추론이 진행된 제1 계층의 계층 신뢰도 1을 곱한 총괄 가중치(0.9), 제2 추론에 대한 가중치 0.72에 추론이 수행된 제1 계층의 계층 신뢰도 1과 제2 계층의 계층 신뢰도 0.8을 곱한 총괄 가중치(0.576), 그리고 제3 추론에 대한 가중치 0.504에, 추론이 진행된 모든 계층의 신뢰도인 제1 계층의 계층 신뢰도 1과 제2 계층의 계층 신뢰도 0.8과 제3 계층의 계층 신뢰도 0.7을 곱한 총괄 가중치(0.28224)를 최종적으로 각각 획득한다. 그리고 최종적으로 획득된 총괄 가중치 즉, 최종 신뢰도들 중에서 문턱값 이상의 최종 신뢰도를 가지는 추론 결과만을 유효한 추론 결과로 활용할 수 있다. Based on giving high reliability to the inference result of the upper layer, as in the example of Table 1 above, a layer reliability of 1 is given to the layer (or first layer) of the first inference, and the layer of the second inference (or the second layer) may be given a layer reliability of 0.8, and the layer of the third inference (or the third layer) may be given a layer reliability of 0.7. The overall weight, which is the final reliability, is obtained by multiplying the weight used in inference from each layer by the layer reliability. For example, the overall weight (0.9) obtained by multiplying the weight 0.9 for the first inference by the layer reliability 1 of the first layer in which the inference is performed, and the layer reliability 1 of the first layer in which the inference is performed to the weight 0.72 for the second inference The overall weight (0.576) multiplied by the layer reliability 0.8 of the second layer, and the weight 0.504 for the third inference, the layer reliability 1 of the first layer and the layer reliability 0.8 of the second layer and the layer reliability of the second layer, which are the reliability of all layers in which the inference was performed A total weight (0.28224) obtained by multiplying the layer reliability of the three layers by 0.7 is finally obtained. In addition, only an inference result having a final reliability equal to or greater than a threshold value among the finally obtained overall weights, that is, the final reliability values, may be used as a valid inference result.

이러한 다계층 지식 추론을 이용하여 지식을 성장시킬 수 있다. 새로운 학습 데이터나 대화 등 인터랙션 정보부터 추출된 새로운 사실로부터 다계층 지식 추론을 수행하여 현재 학습데이터에 대하여 빠진 지식을 완성하여, 지식을 성장시킬 수 있다. 이에 대해서는 추후에 보다 구체적으로 설명한다. This multi-layered knowledge reasoning can be used to grow knowledge. By performing multi-layered knowledge inference from new facts extracted from interaction information such as new learning data or conversations, it is possible to complete the missing knowledge about the current learning data and grow knowledge. This will be described in more detail later.

한편, 학습 데이터의 종류에 따라 추출 가능한 지식의 종류와 지식 추출 종류는 다음 표 2와 같다.Meanwhile, the types of knowledge that can be extracted according to the type of learning data and the types of knowledge extraction are shown in Table 2 below.

학습 데이터 종류training data type 학습 데이터training data 의미 공간meaning space 그래프 지식graph knowledge 예측추론predictive reasoning 구조적structural XX 준구조적semi-structural 비구조적unstructured

표 2를 참조하면, 구조적 학습 데이터는 바로 그래프 지식으로 변환이 가능하므로 의미 공간 지식은 없다. 따라서, 예측 추론시에 이러한 부분은 그래프 간의 개체 구분(Entity Resolution) 기법으로 동일한 유효한 개체를 식별하여 추론에 사용하는 것이 가능하다.Referring to Table 2, there is no semantic space knowledge because structural learning data can be directly converted into graph knowledge. Accordingly, in predictive reasoning, this part can be used for inference by identifying the same valid entity using the entity resolution technique between graphs.

준구조적 학습 데이터는 모든 계층의 지식이 존재하므로, 본 개시의 실시 예에 따른 기법을 모두 사용하여 지식 추론이 가능하다. Since knowledge of all layers exists in semi-structured learning data, knowledge inference is possible using all of the techniques according to an embodiment of the present disclosure.

비구조적 학습 데이터는 학습 데이터에 인간에 의한 지도 지식이 있는 라벨이나 태깅이 없으므로, 비지도 학습(unsupervised learning) 기법이나 자가 지도 학습(self-supervised learning)로 기법으로 의미 공간과 그래프 지식을 구성하여야 한다. 만약 이러한 상위계층의 지식이 구성되면, 본 개시의 실시 예에 따른 기법을 모두 사용하여 지식 추론이 가능하다. Since unstructured learning data does not have labels or tagging with human supervised knowledge in the learning data, semantic space and graph knowledge must be constructed using unsupervised learning techniques or self-supervised learning techniques. do. If such upper layer knowledge is configured, knowledge inference is possible using all of the techniques according to an embodiment of the present disclosure.

한편, 지식 요소 관리부(60)는 학습 데이터, 변환 함수, 의미 공간의 의미 벡터 집합(의미 공간 지식), 관계 함수, 그래프 지식 집합 등을 연결하여 메타데이터로 데이터베이스에 저장하여 관리하도록 구성된다. Meanwhile, the knowledge element management unit 60 is configured to connect learning data, a transformation function, a semantic vector set (semantic space knowledge) of a semantic space, a relational function, a graph knowledge set, and the like, and store it in the database as metadata and manage it.

지식 예측 추론을 통한 지식 성장 과정에서 각 지식 요소가 필요할 때, 지식 요소 관리부(60)는 다른 구성 요소의 호출에 따라 해당 메타데이터를 제공하여, 해당 구성 요소가 지식 요소를 획득하도록 한다. When each knowledge element is needed in the process of knowledge growth through knowledge prediction inference, the knowledge element management unit 60 provides corresponding metadata in response to a call of another element so that the corresponding element acquires the knowledge element.

도 8 내지 도 11은 본 개시의 실시 예에 따른 메타데이터를 나타낸 예시도이다. 8 to 11 are exemplary views illustrating metadata according to an embodiment of the present disclosure.

학습 데이터 메타데이터는 도 8에 예시된 바와 같이, 하나의 데이터 세트의 식별자(예: dataset_id)에 대응하여 이미지(image)/말뭉치(corpus)/음성(audio)과 같은 멀티모달 학습 데이터가 연계되고, 각 학습 데이터에 대해 데이터 식별자(예: imageset_id)와 파일(예: imagefile)이 대응된다. 또한 예측 추론에 따른 새로운 지식이 연계된다. As exemplified in FIG. 8 , the training data metadata is associated with multimodal learning data such as image/corpus/audio in correspondence with the identifier (eg, dataset_id) of one data set. , a data identifier (eg imageset_id) and a file (eg imagefile) correspond to each training data. In addition, new knowledge according to predictive reasoning is linked.

의미 공간 지식 메타데이터는 도 9에 예시된 바와 같이, 학습 데이터에 대응하여 의미 벡터(vector)와 변환 함수(예: neural_net)가 연계되고, 의미 벡터에 벡터 값(value), 식별자(vector_id) 등이 대응된다. 또한 예측 추론에 따른 새로운 지식이 연계된다. As illustrated in FIG. 9 , the semantic space knowledge metadata includes a semantic vector and a transformation function (eg, neural_net) linked to the learning data, and a vector value, an identifier (vector_id), etc. This corresponds to In addition, new knowledge according to predictive reasoning is linked.

관계 지식 학습 메타데이터는 도 10에 예시된 바와 같이, 관계 함수를 이용한 예측 추론(prediction)에 관련된 추론 결과(예: prediction_id) 등이 대응된다. As illustrated in FIG. 10 , the relational knowledge learning metadata corresponds to an inference result (eg, prediction_id) related to prediction inference using a relational function.

그래프 지식 메타데이터는 도 11에 예시된 바와 같이, 의미 벡터를 노드(node)로 하고 관계를 에지(edge)로 하는 그래프를 기반으로 하며, 이러한 그래프 지식에 연계하여 관계 함수, 이에 연관된 의미 벡터, 학습 데이터, 예측 추론에 따른 새로운 그래프 지식 등이 연계된다. As illustrated in FIG. 11, graph knowledge metadata is based on a graph with a semantic vector as a node and a relation as an edge, and in connection with this graph knowledge, a relation function, a semantic vector associated therewith, Learning data, new graph knowledge based on predictive inference, etc. are linked.

한편, 지식 인출 처리부(80)는 지식 요청에 대하여 해당하는 지식을 제공하도록 구성된다. 지식 인출 처리부(80)는 지식 요청에 따라 그래프 지식 저장부(30)에서 그래프 탐색을 수행하여 해당하는 지식이 존재하는지 즉, 지식 트리플(S-P-O)이 존재하는지를 판단하고, 해당 지식이 존재하면 이를 그래프 지식 저장부(30)로부터 인출하여 출력한다. 지식 인출 처리부(80)는 해당 지식이 없으면, 추론 처리부(70)를 통하여 해당 지식과 연관된 지식 요소들을 탐색하여 다른 복수의 그래프에 대해서도 탐색을 실시할 수 있다. Meanwhile, the knowledge retrieval processing unit 80 is configured to provide corresponding knowledge in response to a knowledge request. The knowledge retrieval processing unit 80 performs a graph search in the graph knowledge storage unit 30 according to a knowledge request to determine whether the corresponding knowledge exists, that is, whether a knowledge triple (SPO) exists, and if the corresponding knowledge exists, it is converted into a graph. It is fetched from the knowledge storage unit 30 and output. If there is no corresponding knowledge, the knowledge retrieval processing unit 80 may search for knowledge elements related to the corresponding knowledge through the inference processing unit 70 to search for a plurality of other graphs as well.

위에 기술된 바와 같은, 다계층 지식 베이스 시스템(1)의 학습 데이터 저장부(10), 의미 공간 지식 저장부(20), 그래프 지식 저장부(30), 의미 공간 학습부(40), 관계 지식 학습부(50), 지식 요소 관리부(60), 추론 처리부(70) 및 지식 인출 처리부(80)를 기능적으로 분류하면, 도 12와 같다. As described above, the learning data storage unit 10, the semantic space knowledge storage unit 20, the graph knowledge storage unit 30, the semantic space learning unit 40, the relational knowledge of the multi-layered knowledge base system 1 as described above. The functional classification of the learning unit 50 , the knowledge element management unit 60 , the inference processing unit 70 , and the knowledge retrieval processing unit 80 is shown in FIG. 12 .

도 12는 본 개시의 실시 예에 따른 다계층 지식 베이스 시스템을 기능적으로 분류한 예를 나타낸 도이다. 12 is a diagram illustrating an example of functionally classifying a multi-layered knowledge base system according to an embodiment of the present disclosure.

지식 생성 블록은 지식 원천 요소인 학습 데이터를 입력으로 받아 지식을 생성하는 기능을 수행하며, 도 1의 학습 데이터 저장부(10)로부터 지식 원천 요소인 학습 데이터를 입력으로 받아 지식을 생성하는 의미 공간 학습부(40), 관계 지식 학습부(50), 및 추론 처리부(70)를 포함할 수 있다. The knowledge generating block performs a function of generating knowledge by receiving learning data, which is a knowledge source element, as an input, and a semantic space for generating knowledge by receiving learning data, which is a knowledge source element, as an input from the learning data storage unit 10 of FIG. 1 . It may include a learning unit 40 , a relational knowledge learning unit 50 , and an inference processing unit 70 .

지식 요소 관리 블록은 각 계층의 지식의 메타데이터를 관리하는 기능을 수행하며, 도 1의 지식 요소 관리부(60)에 대응할 수 있다. The knowledge element management block performs a function of managing metadata of knowledge of each layer, and may correspond to the knowledge element management unit 60 of FIG. 1 .

지식 저장 블록은 생성된 다계층의 지식을 저장하는 기능을 수행하며, 도 1의 그래프 지식 저장부(30) 및 의미 공간 지식 저장부(20)를 포함할 수 있다. 또는 학습 데이터 저장부(10)를 포함할 수도 있다. The knowledge storage block performs a function of storing the generated multi-layered knowledge, and may include the graph knowledge storage 30 and the semantic space knowledge storage 20 of FIG. 1 . Alternatively, the learning data storage unit 10 may be included.

지식 인출 블록은 지식 요청에 따라 지식 저장 블록으로부터 지식을 인출하여 제공하는 기능을 수행하며, 도 1의 지식 인출 처리부(80)에 대응한다. The knowledge retrieval block performs a function of retrieving and providing knowledge from the knowledge storage block according to a knowledge request, and corresponds to the knowledge retrieval processing unit 80 of FIG. 1 .

다음에는 이러한 구조로 이루어지는 다계층 지식베이스 시스템을 기반으로 본 개시의 실시 예에 따른 처리 방법에 대하여 설명한다. Next, a processing method according to an embodiment of the present disclosure based on a multi-layered knowledge base system having such a structure will be described.

도 13은 본 개시의 실시 예에 따른 처리 방법의 흐름도이다. 13 is a flowchart of a processing method according to an embodiment of the present disclosure.

본 개시의 실시 예에서는 다계층 지식베이스 시스템을 기반으로 지식을 성장시키는 처리 방법을 수행하며, 지식의 성장은 학습 데이터에서 생성된 그래프 지식을 다계층 예측 추론을 통하여 완성시키는 방법을 통해 이루어질 수 있다. In an embodiment of the present disclosure, a processing method of growing knowledge is performed based on a multi-layered knowledge base system, and the growth of knowledge can be achieved through a method of completing graph knowledge generated from learning data through multi-layer predictive inference. .

첨부한 도 13에서와 같이, 학습 데이터가 입력되면(S100), 의미 공간 지식 저장부(20)로부터 학습 데이터에 대한 의미 공간의 변환 함수와 의미 공간 지식을 추출한다(S110). 예를 들어, 입력된 학습 데이터와 유사한 학습 데이터를 찾는다. 이때, 학습 데이터간의 유사도를 기반으로 유사한 학습 데이터를 찾을 수 있다. 그리고 찾아진 학습 데이터와 연결된 의미 공간 지식(의미 벡터)과 변환 함수를 추출한다.13, when learning data is input (S100), a semantic space transformation function and semantic space knowledge for the learning data are extracted from the semantic space knowledge storage unit 20 (S110). For example, training data similar to the input training data is found. In this case, similar training data may be found based on the similarity between the training data. And the semantic space knowledge (semantic vector) and transformation function connected with the found learning data are extracted.

이후, 의미 공간에 대한 관계 지식 학습 함수를 개선한다(S120). 예를 들어, 추출된 의미 공간 지식에 대응하는 의미 벡터에 대응하는 관계 함수를 개선(수정)시킨다. 예를 들어, 학습 데이터에 긍정 사례와 부정 사례가 있는 경우, 이를 기반으로 S-P-O 관계의 유효성을 예측하도록 관계 함수에 대한 학습을 하거나, 특정 척도를 개선하도록 관계 함수 파라미터를 변경하는 것을 통해, 관계 함수를 개선할 수 있다. 지식그래프의 RESCAL, TransE, PRA(Path Ranking Algorithm) 등의 지식 그래프 완성 기법이 사용될 수 있다. Thereafter, the relational knowledge learning function for the semantic space is improved (S120). For example, the relation function corresponding to the semantic vector corresponding to the extracted semantic space knowledge is improved (modified). For example, if there are positive and negative cases in the training data, learning about the relational function to predict the validity of the SPO relationship based on them, or by changing the relational function parameter to improve a specific scale, can be improved Knowledge graph completion techniques such as RESCAL, TransE, and PRA (Path Ranking Algorithm) of the knowledge graph may be used.

그리고 예측 추론을 통해 관계를 추론하여 그래프 지식을 생성한다(S130, S140). 예를 들어, 단계(120)에서 개선된 관계 함수 또는 단계(S110)에서 추출된 관계 함수를 기반으로 존재하지 않는 관계에 대해서 예측 추론을 통하여 관계를 추론한다. 이러한 관계 추론에 따라 새로운 그래프 지식이 생성된다. 즉, 새로이 추론된 관계를 에지로 하고 관련된 의미 벡터들을 노드로 하는 새로운 그래프 지식이 생성된다. Then, graph knowledge is generated by inferring a relationship through predictive inference (S130, S140). For example, the relationship is inferred through predictive inference with respect to a relationship that does not exist based on the relationship function improved in step 120 or the relationship function extracted in step S110 . New graph knowledge is generated according to this relational inference. That is, new graph knowledge is generated with the newly inferred relationship as the edge and the related semantic vectors as the nodes.

또한, 본 개시의 다른 실시 예에서, 지식의 성장은 새롭게 발생한 사실(Fact) 정보부터 새로운 지식을 생성하는 것을 통해 이루어질 수 있다. In addition, in another embodiment of the present disclosure, the growth of knowledge may be achieved by generating new knowledge from newly generated fact information.

도 14는 본 개시의 실시 예에 따른 처리 방법의 흐름도이다. 14 is a flowchart of a processing method according to an embodiment of the present disclosure.

첨부한 도 14에서와 같이, 새로운 사실(Fact) 정보가 입력되면(S300), 이전 예측 추론 결과를 검증한다(S310). 새로운 사실 정보는 새로운 데이터 세트나 대화 등의 사람과의 인터랙션을 통해서도 입력될 수 있다. 새로운 사실은 S-P-O의 트리플 형태로 변환되며, 각각의 개체는 멀티모달 데이터가 의미 공간의 의미 벡터로 변환된 상태이다. 새로운 사실은 이전 학습 데이터에 없는 관계를 다계층 예측 추론으로 생성한 관계에 대한 검증의 기능을 담당한다. 새로운 사실을 기반으로 기존에 생성된 관계를 검증한다. 예를 들어, 새로운 사실에 대한 S-P-O에 대해서 관계 함수의 총괄 가중치가 일정값 이하이면 해당 관계 함수를 새로운 사실을 포함하여 다시 학습하는 방법을 통해 생성된 관계를 검증할 수 있다. 또는, 새로운 사실에 대한 S-P-O와 연결된 S-P-O에 대해서 평균 유효값(S, P, O를 각각 사용하여 관계 함수를 이용하여 유효값을 각각 계산하고, 유효값들을 평균낸 값)이 특정값 이하인 경우도 관계 함수의 추가 학습을 수행하여 생성된 관계를 검증할 수 있다. 14, when new fact information is input (S300), the previous prediction inference result is verified (S310). New factual information can also be entered through human interactions, such as new data sets or conversations. The new fact is that it is transformed into a triple form of S-P-O, and each entity is a state in which multimodal data is transformed into a semantic vector in the semantic space. The new fact is responsible for the verification of relationships created by multi-layer predictive inference for relationships that do not exist in the previous training data. Based on the new facts, the existing relationship is verified. For example, with respect to S-P-O for new facts, if the overall weight of the relation function is less than or equal to a certain value, the relation created through the method of re-learning the relation function including the new fact may be verified. Or, for the SPO linked to the SPO for the new fact, the average effective value (the effective value is calculated using a relational function using each of S, P, and O, and the average of the valid values) is less than or equal to a specific value Further learning of the relation function can be performed to verify the created relation.

이후, 검증 결과에 따라 잘못 예측된 관계는 폐기되도록 관계 지식의 학습 함수(관계 함수)를 수정한다. 즉, 의미 공간에 대한 관계 지식 학습 함수 즉, 관계 함수를 개선한다(S320). 한편, 새로운 사실은 관계 지식의 학습 함수(관계 함수)를 개선할 때 문턱값을 결정하는 입력으로 사용될 수도 있다.Thereafter, the learning function (relation function) of the relational knowledge is modified so that the erroneously predicted relation is discarded according to the verification result. That is, the relational knowledge learning function for the semantic space, that is, the relational function is improved ( S320 ). On the other hand, new facts can also be used as input for determining a threshold value when improving a learning function (relational function) of relational knowledge.

그리고 예측 추론을 통해 관계를 추론하여 그래프 지식을 생성한다(S330, S340). 새로운 사실은 새로운 관계 지식 학습의 학습 데이터로 동작하여 기존 그래프 지식에 불완전한 관계를 촉발할 수 있다. 그러므로 새로운 관계 지식 함수 즉, 단계(S320)에서 개선된 관계 함수를 바탕으로 새롭게 다계층 예측 추론을 통하여 새로운 지식을 생성 및 성장한다. And graph knowledge is generated by inferring a relationship through predictive inference (S330, S340). New facts can act as learning data for new relational knowledge learning, triggering incomplete relationships in existing graph knowledge. Therefore, based on the new relational knowledge function, that is, the relational function improved in step S320, new knowledge is generated and grown through multi-layer prediction inference.

이러한 과정을 구체적인 예를 들어 설명하면, 새로운 사실이 S-P-O의 트리플 형태로 변환되고, 변환된 S-P-O의 트리플의 의미 벡터를 기반으로 의미 공간 지식 저장부(20)로부터 유사한 의미 벡터를 찾고, S-P-O 트리플의 의미 벡터와 찾아진 유사한 의미 벡터를 사용하여 관계 함수를 기반으로 새로운 지식 S-P-O 트리플을 생성한다. 그리고 새로운 지식 S-P-O 트리플을 생성하는 데 사용된 관계 함수를 개선하고, 개선된 관계 함수를 기반으로 새로운 예측 추론을 수행하여 새로운 지식을 생성할 수 있다. To explain this process with a specific example, a new fact is converted into a triple form of the SPO, a similar semantic vector is found from the semantic space knowledge storage 20 based on the semantic vector of the converted triple of the SPO, and the A new knowledge SPO triple is generated based on the relational function using the semantic vector and similar semantic vectors found. In addition, new knowledge can be generated by improving the relational function used to generate the new knowledge S-P-O triple, and performing new predictive reasoning based on the improved relational function.

새로운 사실(사실 정보)부터 새로운 지식을 생성하는 것은 도메인과 태스크별로 수행될 수 있다. Generating new knowledge from new facts (fact information) can be performed per domain and task.

도 15 및 도 16은 본 개시의 실시 예에 따른 새로운 사실 정보 입력을 기반으로 이루어지는 지식 성장을 나타낸 예시도이다. 15 and 16 are exemplary views illustrating knowledge growth based on input of new fact information according to an embodiment of the present disclosure.

예를 들어, 도 15에서와 같이, 복수의 태스크와 도메인이 다른 이질적인 학습 데이터들을 연속으로 다계층 지식베이스 시스템에 입력하여 개별 지식을 융합하는 것에 사용할 수 있다. For example, as shown in FIG. 15 , a plurality of tasks and heterogeneous learning data having different domains may be continuously input to a multi-layered knowledge base system and used to fuse individual knowledge.

또한, 도 16에서와 같이, 대화형 시스템의 사람 간 또는 사람-기계 간 대화를 포함하는 상호 작용으로부터 지식을 추출하고, 이를 다계층 지식베이스 시스템에 사실 정보로 입력하여 지식을 성장시킬 수 있다. Also, as shown in FIG. 16 , knowledge can be grown by extracting knowledge from an interaction including a human-to-human or human-machine conversation of an interactive system, and inputting it as fact information into a multi-layered knowledgebase system.

이러한 본 개시의 실시 예에 따른 처리 방법에 의한, 다계층 지식베이스 지식 추론 및 성장은 지식 계층 간 연결 관계를 메타데이터 정보를 이용하여 수행된다. The multi-layered knowledge base knowledge inference and growth by the processing method according to an embodiment of the present disclosure is performed using metadata information for a connection relationship between knowledge layers.

이 경우, 매우 많은 연결이 존재하고 이를 이용하여 예측 추론을 수행하면 계산량이 증가하여 시간이 많이 걸리는 것을 고려하여, 본 개시의 실시 예에서는 추가적으로, 도메인별로 생성된 지식을 병렬로 추론을 실행하고 그 결과를 융합하여 결과를 도출하는 방법과 다계층 지식 추론에서 하위 계층으로 진행하는 깊이를 조절하여 추론 시간을 단축하는 방법을 제공한다. 이러한 방법들은 모두 전체 지식베이스에서 예측 추론을 실시하는 경우보다는 추론되는 지식의 량이 줄어든다. 또한, 위의 두가지 방법은 지식 인출의 경우에도 동일하게 적용될 수 있다. In this case, considering that there are very many connections and it takes a lot of time because the amount of computation increases when predictive inference is performed using them, in an embodiment of the present disclosure, additionally, inference is executed on the knowledge generated for each domain in parallel and the A method of deriving a result by converging the result and a method of shortening the reasoning time by adjusting the depth from multi-layered knowledge reasoning to the lower layer are provided. All of these methods reduce the amount of inferred knowledge compared to the case of performing predictive inference on the entire knowledge base. In addition, the above two methods can be equally applied to the case of knowledge retrieval.

도 17은 본 개시의 실시 예에 따른 도메인별로 생성된 지식을 병렬로 추론을 실행하고 그 결과를 융합하여 결과를 도출하는 예를 나타낸 도이다. 17 is a diagram illustrating an example of inferring knowledge generated for each domain in parallel and deriving a result by fusing the result according to an embodiment of the present disclosure.

예를 들어, 도 17에서와 같이, 도메인별로 각각 예측 추론기를 구성할 수 있다. 예를 들어, 추론 처리부(70)가 도메인별 예측 추론기를 포함하는 형태로 구성될 수 있다. For example, as shown in FIG. 17 , a prediction reasoner may be configured for each domain. For example, the inference processing unit 70 may be configured to include a prediction reasoner for each domain.

예측 추론기들은 동일 머신 내에서 병렬로 실행될 수도 있고, 분산 머신을 통해 병렬로 실행될 수 있다. 예측 추론기들의 추론 결과들을 병합하는 경우, 각 예측 추론기의 S-P-O 트리플의 표현이 상이하면, 개체 결정(Entity Resolution) 기법을 사용하여 추론 결과들을 병합할 수 있다. 또한, 추론이나 질의, 지식 탐색, 인출의 경우, 태스크 정보를 추출하고, 추론 결과들 중에서 추출된 태스크에 적합한 예측 추론기의 추론 결과에 우선 순위를 주는 방법도 사용될 수 있다. Predictive reasoners may run in parallel within the same machine, or in parallel through a distributed machine. In the case of merging the inference results of the prediction reasoners, if the representation of the S-P-O triple of each prediction reasoner is different, the inference results may be merged using an entity resolution technique. In addition, in the case of inference, query, knowledge search, and retrieval, a method of extracting task information and giving priority to the inference result of a predictive reasoner suitable for the extracted task among the inference results may also be used.

도 18은 본 개시의 실시 예에 따른 다계층 지식 추론에서 하위 계층으로 진행하는 깊이를 조절하여 추론을 수행하는 예를 나타낸 도이다. 18 is a diagram illustrating an example in which inference is performed by adjusting the depth of progressing to a lower layer in multi-layer knowledge inference according to an embodiment of the present disclosure.

다계층 지식 추론에서 하위 계층으로 진행하는 추론의 깊이를 제한하여 추론 실행 시간을 조절할 수 있다. 추론이나 질의, 지식 탐색, 인출 시에 요구되는 응답 시간이나 추론 요구 시간에 대해서 그 시간을 만족하는 시간에 맞게 추론의 깊이를 제한할 수 있다. 시간 제한이 있는 경우 이에 맞춰 탐색의 계층을 제한하여 시간 내에 탐색 가능한 계층에 대해서만 탐색 즉, 추론을 수행할 수 있다. Inference execution time can be controlled by limiting the depth of reasoning from multi-layer knowledge reasoning to lower layers. The depth of reasoning can be limited according to a time that satisfies the response time or inference request time required for reasoning, query, knowledge search, and retrieval. If there is a time limit, the search layer is limited accordingly, so that the search, that is, inference can be performed only on the searchable layer within the time.

이외에도 메타데이터의 연결 회수로 추론의 회수를 제한할 수도 있다. 이때, 메타데이터의 연결을 계층별로 가중치를 부여하여 총 점수를 계산하고, 점수를 기반으로 메타데이터의 연결을 제한하는 방법 등의 다양한 방법이 사용될 수 있다. 또한, 요구 응답 시간과 예측 추론 시간과의 관계를 질의나 태스크와 제한 깊이와의 회귀 분석이나, RNN(Recurrent neural network) 등의 뉴럴 네트워크를 이용하여 추론하여 제한 깊이에 대한 값을 정하는 방법도 가능하다.In addition, the number of inferences may be limited by the number of connections of metadata. In this case, various methods, such as a method of calculating a total score by weighting the connection of metadata for each layer, and limiting connection of metadata based on the score, may be used. In addition, it is also possible to determine the value for the limit depth by inferring the relationship between the required response time and the predicted inference time using a query or regression analysis between the task and the limit depth, or a neural network such as a recurrent neural network (RNN). Do.

이러한 본 개시의 실시 예에 따르면, 기존에 지식베이스가 텍스트 위주의 데이터베이스, 말뭉치, 그래프 등의 구조적이거나 명시적 지식 표현과 처리 방식을 가짐에 따라 멀티모달 학습 데이터의 정보와 지식을 소실하는 문제점을 해결할 수 있으며, 멀티모달 학습 데이터에서 추출되는 지식을 명시적 지식뿐만 아니라 내재적 지식도 함께 융합하여 지식화하여 지식베이스를 성장시킬 수 있다. According to this embodiment of the present disclosure, as the existing knowledge base has a structured or explicit knowledge expression and processing method such as a text-oriented database, corpus, graph, etc., the problem of loss of information and knowledge of multi-modal learning data is solved. It can be solved, and knowledge extracted from multimodal learning data can be fused with not only explicit knowledge but also intrinsic knowledge to form a knowledge base to grow the knowledge base.

도 19는 본 개시의 실시 예에 따른 처리 방법을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 구조도이다. 19 is a structural diagram illustrating a computing device for implementing a processing method according to an embodiment of the present disclosure.

첨부한 도 19에 도시되어 있듯이, 본 개시의 일 실시 예에 따른 처리 방법은 컴퓨팅 장치(100)를 이용하여 구현될 수 있다. 19 , the processing method according to an embodiment of the present disclosure may be implemented using the computing device 100 .

컴퓨팅 장치(100)는 프로세서(110), 메모리(120), 입력 인터페이스 장치(130), 출력 인터페이스 장치(140), 저장 장치(150) 및 네트워크 인터페이스 장치(160) 중 적어도 하나를 포함할 수 있다. 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다. 또한, 각각의 구성 요소들은 공통 버스(170)가 아니라, 프로세서(110)를 중심으로 개별 인터페이스 또는 개별 버스를 통하여 연결될 수도 있다.The computing device 100 may include at least one of a processor 110 , a memory 120 , an input interface device 130 , an output interface device 140 , a storage device 150 , and a network interface device 160 . . Each of the components may be connected by a bus 170 to communicate with each other. In addition, each of the components may be connected through an individual interface or a separate bus centering on the processor 110 instead of the common bus 170 .

프로세서(110)는 AP(Application Processor), CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등과 같은 다양한 종류들로 구현될 수 있으며, 메모리(120) 또는 저장 장치(150)에 저장된 명령을 실행하는 임의의 반도체 장치일 수 있다. 프로세서(110)는 메모리(120) 및 저장 장치(150) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 이러한 프로세서(110)는 위의 도 1 내지 도 18을 토대로 설명한 기능 및 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(110)는 의미 공간 학습부, 관계 지식 학습부, 지식 요소 관리부, 추론 처리부 및 지식 인출 처리부의 기능을 수행하도록 구성될 수 있다. The processor 110 may be implemented in various types such as an application processor (AP), a central processing unit (CPU), a graphic processing unit (GPU), and the like, and executes a command stored in the memory 120 or the storage device 150 . It may be any semiconductor device that does The processor 110 may execute a program command stored in at least one of the memory 120 and the storage device 150 . The processor 110 may be configured to implement the functions and methods described based on FIGS. 1 to 18 above. For example, the processor 110 may be configured to perform functions of a semantic space learning unit, a relational knowledge learning unit, a knowledge element management unit, an inference processing unit, and a knowledge retrieval processing unit.

메모리(120) 및 저장 장치(150)는 다양한 형태의 휘발성 또는 비 휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read-only memory)(121) 및 RAM(random access memory)(122)를 포함할 수 있다. 본 개시의 실시 예에서 메모리(120)는 프로세서(110)의 내부 또는 외부에 위치할 수 있고, 메모리(120)는 이미 알려진 다양한 수단을 통해 프로세서(110)와 연결될 수 있다. 저장 장치(160)는 예를 들어, 학습 데이터 저장부, 의미 공간 지식 저장부, 그래프 지식 저장부를 포함하도록 구성될 수 있다. The memory 120 and the storage device 150 may include various types of volatile or non-volatile storage media. For example, the memory may include a read-only memory (ROM) 121 and a random access memory (RAM) 122 . In an embodiment of the present disclosure, the memory 120 may be located inside or outside the processor 110 , and the memory 120 may be connected to the processor 110 through various known means. The storage device 160 may be configured to include, for example, a learning data storage unit, a semantic space knowledge storage unit, and a graph knowledge storage unit.

입력 인터페이스 장치(130)는 데이터를 프로세서(110)로 제공하도록 구성되며, 출력 인터페이스 장치(140)는 프로세서(110)로부터의 데이터를 출력하도록 구성된다. The input interface device 130 is configured to provide data to the processor 110 , and the output interface device 140 is configured to output data from the processor 110 .

네트워크 인터페이스 장치(160)는 유선 네트워크 또는 무선 네트워크를 통해 다른 개와 신호를 송신 또는 수신할 수 있다. The network interface device 160 may transmit or receive signals with other dogs through a wired network or a wireless network.

이러한 구조로 이루어지는 컴퓨팅 장치(100)는 다계층 지식베이스 시스템으로 명명되어, 본 개시의 일 실시 예에 따른 처리 방법을 구현할 수 있다. The computing device 100 having such a structure is named as a multi-layered knowledge base system, and may implement a processing method according to an embodiment of the present disclosure.

또한, 본 개시의 일 실시 예에 따른 처리 방법 중 적어도 일부는 컴퓨팅 장치(100)에서 실행되는 프로그램 또는 소프트웨어로 구현될 수 있고, 프로그램 또는 소프트웨어는 컴퓨터로 판독 가능한 매체에 저장될 수 있다.In addition, at least a part of the processing method according to an embodiment of the present disclosure may be implemented as a program or software executed in the computing device 100 , and the program or software may be stored in a computer-readable medium.

또한, 본 개시의 일 실시 예에 따른 처리 방법 중 적어도 일부는 컴퓨팅 장치(100)와 전기적으로 접속될 수 있는 하드웨어로 구현될 수도 있다.In addition, at least a part of the processing method according to an embodiment of the present disclosure may be implemented as hardware capable of being electrically connected to the computing device 100 .

본 개시의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 개시의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 개시가 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.Embodiments of the present disclosure are not implemented only through the apparatus and/or method described above, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present disclosure, a recording medium in which the program is recorded, etc. Also, such an implementation can be easily implemented by those skilled in the art to which the present disclosure pertains from the description of the above-described embodiments.

이상에서 본 개시의 실시 예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속하는 것이다.Although the embodiments of the present disclosure have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. is within the scope of the right.

Claims (20)

지식 베이스 시스템에서의 처리 방법으로서,
복수의 학습 데이터를 기반으로 변환 함수를 학습하여 학습 데이터를 의미 공간의 벡터인 의미 벡터로 변환하는 의미 공간 학습을 수행하는 단계;
상기 의미 공간 학습에 따라 획득되는 의미 벡터들을 기반으로 관계 함수를 학습하여 상기 의미 벡터들 간의 관계를 획득하는 관계 지식 학습을 수행하는 단계; 및
상기 획득되는 관계를 그래프 지식 - 상기 그래프 지식은 상기 관계를 에지로 하고 상기 관계에 대응하는 의미 벡터를 노드로 함 - 으로 변환하는 단계
를 포함하고,
상기 지식 베이스 시스템은 상기 학습 데이터를 저장하고 관리하는 학습 데이터 계층, 상기 의미 공간 학습에 따라 획득된 의미 벡터인 의미 공간 지식을 저장하고 관리하는 의미 공간 계층, 그리고 상기 관계 지식 학습에 따라 획득된 그래프 지식을 저장하고 관리하는 그래프 지식 계층을 포함하는, 처리 방법.
A processing method in a knowledge base system, comprising:
performing semantic space learning for transforming the learning data into a semantic vector that is a vector of a semantic space by learning a transformation function based on a plurality of learning data;
performing relational knowledge learning for acquiring a relation between the semantic vectors by learning a relational function based on the semantic vectors obtained according to the semantic space learning; and
converting the obtained relation into graph knowledge, wherein the graph knowledge has the relation as an edge and a semantic vector corresponding to the relation as a node.
including,
The knowledge base system includes a learning data layer for storing and managing the learning data, a semantic space layer for storing and managing semantic space knowledge that is a semantic vector obtained according to the semantic space learning, and a graph obtained according to the relational knowledge learning. A processing method comprising a graph knowledge hierarchy for storing and managing knowledge.
제1항에 있어서,
상기 의미 공간 학습에 사용된 학습 데이터, 변환 함수 그리고 획득된 의미 벡터를 매핑하는 의미 공간 지식 메타데이터를 생성하는 단계; 및
상기 관계 지식 학습에 사용된 의미 벡터, 관계 함수 그리고 관련된 그래프 지식을 매핑하는 그래프 지식 메타데이터를 생성하는 단계
를 더 포함하고,
상기 학습 데이터에 관련된 메타데이터와 상기 의미 공간 지식 메타데이터 그리고 상기 그래프 지식 메타데이터를 기반으로, 상기 학습 데이터 계층, 상기 의미 공간 계층 그리고 그래프 지식 계층간의 탐색 및 연계가 이루어지는, 처리 방법.
According to claim 1,
generating semantic space knowledge metadata for mapping the learning data used for the semantic space learning, the transformation function, and the acquired semantic vector; and
Generating graph knowledge metadata that maps the semantic vector used in the relational knowledge learning, the relational function, and the related graph knowledge
further comprising,
A processing method, wherein search and association between the learning data layer, the semantic space layer, and the graph knowledge layer are made based on the metadata related to the learning data, the semantic space knowledge metadata, and the graph knowledge metadata.
제1항에 있어서,
상기 학습 데이터는 이미지, 음성 중 적어도 하나를 포함하는 멀티모달 데이터인, 처리 방법.
According to claim 1,
The learning data is multi-modal data including at least one of an image and a sound, a processing method.
제1항에 있어서,
추론 요청에 따라 상기 지식 베이스 시스템의 계층별로 추론을 수행하는 단계를 더 포함하고,
상기 추론을 수행하는 단계는,
상기 그래프 지식 계층에 포함되는 그래프 지식을 기반으로 하는 제1 추론을 수행하는 단계;
상기 의미 공간 계층에 포함되는 의미 공간 지식을 기반으로 제2 추론을 수행하는 단계; 및
상기 학습 데이터 계층에 포함되는 학습 데이터를 기반으로 제3 추론을 수행하는 단계
중 적어도 하나를 포함하는, 처리 방법.
According to claim 1,
Further comprising the step of performing inference for each layer of the knowledge base system according to the inference request,
The step of performing the inference is
performing first inference based on graph knowledge included in the graph knowledge layer;
performing second inference based on semantic space knowledge included in the semantic space layer; and
performing a third inference based on the training data included in the training data layer
A method comprising at least one of:
제4항에 있어서,
상기 제1 추론에 대한 신뢰도, 상기 제2 추론에 대한 신뢰도 그리고 상기 제3 추론에 대한 신뢰도를 각각 상이하게 부여하고, 상이한 신뢰도들을 기반으로 상기 제1 추론의 결과, 상기 제2 추론의 결과 그리고 상기 제3 추론의 결과를 기반으로 최종적인 추론 결과를 획득하는 단계
를 더 포함하는, 처리 방법.
5. The method of claim 4,
Reliability for the first inference, the reliability for the second inference, and the reliability for the third inference are given differently, respectively, based on the different confidence levels, the result of the first inference, the result of the second inference, and the obtaining a final inference result based on the result of the third inference
Further comprising, a processing method.
제4항에 있어서,
상기 추론을 수행하는 단계는 복수의 도메인별로 병렬적으로 추론을 수행하는, 처리 방법.
5. The method of claim 4,
The performing of the inference is a processing method of performing inference in parallel for each of a plurality of domains.
제4항에 있어서,
상기 추론을 수행하는 단계는 설정되는 추론 깊이에 따라 상기 제1 추론을 수행하는 단계, 상기 제2 추론을 수행하는 단계 그리고 상기 제3 추론을 수행하는 단계 중 적어도 하나를 선택적으로 수행하는, 처리 방법.
5. The method of claim 4,
The performing of the speculation includes selectively performing at least one of performing the first speculation, performing the second speculation, and performing the third speculation according to a set speculation depth. .
제4항에 있어서,
상기 추론을 수행하는 단계는 설정되는 시간에 따라 상기 제1 추론을 수행하는 단계, 상기 제2 추론을 수행하는 단계 그리고 상기 제3 추론을 수행하는 단계 중 적어도 하나를 선택적으로 수행하는, 처리 방법.
5. The method of claim 4,
The performing of the speculation includes selectively performing at least one of performing the first speculation, performing the second speculation, and performing the third speculation according to a set time.
제4항에 있어서,
상기 추론을 수행하는 단계는,
입력되는 학습 데이터나 입력되는 사실 정보를 기반으로 다계층 지식 추론을 통해 새로운 지식을 생성하는 단계
를 포함하는, 처리 방법.
5. The method of claim 4,
The step of performing the inference is
Step of generating new knowledge through multi-layered knowledge inference based on input learning data or input fact information
comprising, a processing method.
제9항에 있어서,
상기 새로운 지식을 생성하는 단계는,
입력되는 학습 데이터에 대해, 상기 학습 데이터 계층에서 유사한 학습 데이터를 찾고, 상기 의미 공간 계층에서 상기 유사한 학습 데이터에 대응하는 의미 벡터와 이에 대한 변환 함수를 추출하는 단계;
상기 추출된 의미 벡터에 대한 관계 함수를 기반으로 예측 추론을 수행하여 새로운 관계를 추론하는 단계; 및
상기 추론된 새로운 관계에 대한 그래프 지식을 생성하여 상기 그래프 지식 계층에 저장하는 단계
를 포함하는, 처리 방법.
10. The method of claim 9,
The step of generating the new knowledge is,
with respect to the input training data, finding similar training data in the training data layer, and extracting a semantic vector corresponding to the similar training data and a transformation function therefrom in the semantic space layer;
inferring a new relation by performing predictive inference based on the relation function with respect to the extracted semantic vector; and
generating graph knowledge of the inferred new relationship and storing it in the graph knowledge layer;
comprising, a processing method.
제9항에 있어서,
상기 새로운 지식을 생성하는 단계는,
입력되는 사실 정보를 기반으로 이전 예측 추론 결과를 검증하는 단계;
상기 검증 결과를 기반으로 상기 추론 결과에 대응하는 관계 함수를 수정하는 단계;
상기 수정된 관계 함수를 기반으로 예측 추론을 수행하여 새로운 관계를 추론하는 단계; 및
상기 추론된 새로운 관계에 대한 그래프 지식을 생성하여 상기 그래프 지식 계층에 저장하는 단계
를 포함하는, 처리 방법.
10. The method of claim 9,
The step of generating the new knowledge is
verifying a previous prediction inference result based on input fact information;
modifying a relational function corresponding to the inference result based on the verification result;
inferring a new relationship by performing predictive inference based on the modified relationship function; and
generating graph knowledge for the inferred new relationship and storing it in the graph knowledge layer;
comprising, a processing method.
데이터를 입력받도록 구성된 인터페이스 장치;
지식 정보를 저장하도록 구성된 저장 장치; 및
상기 데이터를 기반으로 지식 베이스를 형성하도록 구성된 프로세서
를 포함하고,
상기 프로세서는
상기 인터페이스 장치를 통해 입력되는 복수의 학습 데이터를 기반으로 변환 함수를 학습하여 학습 데이터를 의미 공간의 벡터인 의미 벡터로 변환하는 의미 공간 학습을 수행하도록 구성된 의미 공간 학습부; 및
상기 의미 공간 학습에 따라 획득되는 의미 벡터들을 기반으로 관계 함수를 학습하여 상기 의미 벡터들 간의 관계를 획득하는 관계 지식 학습을 수행하도록 구성된 관계 지식 학습부
를 포함하고,
상기 관계 지식 학습부는 추가적으로, 상기 획득되는 관계를 그래프 지식 - 상기 그래프 지식은 상기 관계를 에지로 하고 상기 관계에 대응하는 의미 벡터를 노드로 함 - 으로 변환하도록 구성되는, 다계층 지식베이스 시스템.
an interface device configured to receive data;
a storage device configured to store knowledge information; and
a processor configured to form a knowledge base based on the data
including,
the processor
a semantic space learning unit configured to learn a transformation function based on a plurality of learning data input through the interface device and perform semantic space learning for transforming the learning data into a semantic vector that is a vector of a semantic space; and
A relational knowledge learning unit configured to learn relational knowledge to obtain a relation between the semantic vectors by learning a relational function based on the semantic vectors obtained according to the semantic space learning.
including,
The relation knowledge learning unit is additionally configured to convert the obtained relation into graph knowledge, wherein the graph knowledge has the relation as an edge and a semantic vector corresponding to the relation as a node.
제12항에 있어서,
상기 저장 장치는
상기 학습 데이터를 저장하고 관리하는 학습 데이터 계층을 저장하도록 구성된 학습 데이터 저장부;
상기 의미 공간 학습에 따라 획득된 의미 벡터인 의미 공간 지식을 저장하고 관리하는 의미 공간 계층을 저장하도록 구성된 의미 공간 지식 저장부; 및
상기 관계 지식 학습에 따라 획득된 그래프 지식을 저장하고 관리하는 그래프 지식 계층을 저장하도록 구성된 그래프 지식 저장부
를 포함하는, 다계층 지식베이스 시스템.
13. The method of claim 12,
the storage device
a learning data storage unit configured to store a learning data layer that stores and manages the learning data;
a semantic space knowledge storage unit configured to store a semantic space layer for storing and managing semantic space knowledge, which is a semantic vector obtained according to the semantic space learning; and
A graph knowledge storage unit configured to store a graph knowledge layer that stores and manages graph knowledge acquired according to the relational knowledge learning
Including, a multi-layered knowledge base system.
제13항에 있어서,
상기 프로세서는,
학습 데이터에 관련된 학습 데이터 메타데이터를 생성하고, 상기 의미 공간 학습에 사용된 학습 데이터, 변환 함수 그리고 획득된 의미 벡터를 매핑하는 의미 공간 지식 메타데이터를 생성하며, 상기 관계 지식 학습에 사용된 의미 벡터, 관계 함수 그리고 관련된 그래프 지식을 매핑하는 그래프 지식 메타데이터를 생성하도록 구성된 지식 요소 관리부
를 더 포함하고,
상기 학습 데이터메타데이터, 상기 의미 공간 지식 메타데이터 그리고 상기 그래프 지식 메타데이터를 기반으로, 상기 저장 장치에 저장되는, 학습 데이터 계층, 상기 의미 공간 계층 그리고 그래프 지식 계층간의 탐색 및 연계가 이루어지는, 다계층 지식베이스 시스템.
14. The method of claim 13,
The processor is
Generating learning data metadata related to learning data, generating semantic space knowledge metadata that maps the learning data used in the semantic space learning, the transformation function, and the obtained semantic vector, and the semantic vector used in the relational knowledge learning , a knowledge element manager configured to generate graph knowledge metadata mapping the relational functions and related graph knowledge.
further comprising,
Based on the learning data metadata, the semantic space knowledge metadata, and the graph knowledge metadata, a multi-layered search and linkage between the learning data layer, the semantic space layer, and the graph knowledge layer, stored in the storage device, is made. knowledge base system.
제13항에 있어서,
상기 프로세서는
추론 요청에 따라 상기 지식 베이스 시스템의 계층별로 추론을 수행하도록 구성된 추론 처리부를 더 포함하고,
상기 추론 처리부는,
상기 그래프 지식 계층에 포함되는 그래프 지식을 기반으로 하는 제1 추론을 수행하는 동작;
상기 의미 공간 계층에 포함되는 의미 공간 지식을 기반으로 제2 추론을 수행하는 동작; 및
상기 학습 데이터 계층에 포함되는 학습 데이터를 기반으로 제3 추론을 수행하는 동작
중 적어도 하나를 수행하도록 구성되는, 다계층 지식베이스 시스템.
14. The method of claim 13,
the processor
Further comprising an inference processing unit configured to perform inference for each layer of the knowledge base system according to an inference request,
The inference processing unit,
performing first inference based on graph knowledge included in the graph knowledge layer;
performing second inference based on semantic space knowledge included in the semantic space layer; and
Performing a third inference based on the training data included in the training data layer
A multi-layered knowledge base system, configured to perform at least one of:
제15항에 있어서,
상기 추론 처리부는 추가적으로,
상기 제1 추론에 대한 신뢰도, 상기 제2 추론에 대한 신뢰도 그리고 상기 제3 추론에 대한 신뢰도를 각각 상이하게 부여하고, 상이한 신뢰도들을 기반으로 상기 제1 추론의 결과, 상기 제2 추론의 결과 그리고 상기 제3 추론의 결과를 기반으로 최종적인 추론 결과를 획득하는 동작을 수행하도록 구성되는, 다계층 지식베이스 시스템.
16. The method of claim 15,
The inference processing unit additionally,
Reliability for the first inference, the reliability for the second inference, and the reliability for the third inference are given differently, respectively, based on the different confidence levels, the result of the first inference, the result of the second inference, and the A multi-layered knowledge base system, configured to perform an operation of obtaining a final reasoning result based on a result of the third reasoning.
제15항에 있어서,
상기 추론 처리부는
도메인별로 추론을 수행하도록 구성되는 복수의 예측 추론기
를 포함하고,
상기 복수의 예측 추론기는 병렬적으로 추론을 수행하도록 구성되는, 다계층 지식베이스 시스템.
16. The method of claim 15,
The inference processing unit
A plurality of predictive reasoners configured to perform inference on a domain-by-domain basis
including,
The plurality of predictive reasoners are configured to perform inference in parallel, a multi-layered knowledge base system.
제15항에 있어서,
상기 추론 처리부는,
설정되는 추론 깊이과 설정되는 시간 중 적어도 하나에 따라, 상기 제1 추론을 수행하는 동작, 상기 제2 추론을 수행하는 동작 그리고 상기 제3 추론을 수행하는 동작 중 적어도 하나를 선택적으로 수행하도록 구성되는, 다계층 지식베이스 시스템.
16. The method of claim 15,
The inference processing unit,
configured to selectively perform at least one of performing the first speculation, performing the second speculation, and performing the third speculation according to at least one of a set speculation depth and set time, A multi-tiered knowledge base system.
제15항에 있어서,
상기 추론 처리부는, 입력되는 학습 데이터나 입력되는 사실 정보를 기반으로 다계층 지식 추론을 통해 새로운 지식을 생성하도록 구성되는, 다계층 지식베이스 시스템.
16. The method of claim 15,
The inference processing unit is configured to generate new knowledge through multi-layer knowledge inference based on input learning data or input fact information.
제15항에 있어서,
상기 추론 처리부는,
상기 제1 추론을 수행하는 동작 수행시, 상기 제1 추론에 따라 복수의 관계 함수에 대한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성되거나, 또는,
상기 제2 추론을 수행하는 동작 수행시, 상기 제2 추론에 따라 의미 공간에서 유효한 지식의 의미 벡터와 유사한 의미 벡터로 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성되거나, 또는
상기 제3 추론을 수행하는 동작 수행시, 상기 제3 추론에 따라 학습데이터 간의 유사도를 이용하여 유사한 학습데이터와 연결된 관계 함수를 이용한 추론을 진행하고 이 결과에 가중치를 두어 새로운 지식을 추론하도록 구성되는, 다계층 지식베이스 시스템.

















16. The method of claim 15,
The inference processing unit,
configured to infer new knowledge by performing reasoning on a plurality of relational functions according to the first reasoning and weighting the results when performing the operation of performing the first reasoning, or
When performing the operation of performing the second inference, the second reasoning is configured to infer new knowledge by inferring a semantic vector similar to that of valid knowledge in the semantic space according to the second inference, and weighting the result; or
When performing the operation of performing the third inference, the third reasoning is configured to infer new knowledge by using the similarity between the learning data to proceed with inference using a relational function connected to the similar learning data, and by weighting the result , a multi-layered knowledge base system.

















KR1020200174621A 2019-12-19 2020-12-14 System for multi-layered knowledge base and processing method thereof KR102497362B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/127,287 US20210192372A1 (en) 2019-12-19 2020-12-18 Multi-layered knowledge base system and processing method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190170867 2019-12-19
KR1020190170867 2019-12-19

Publications (2)

Publication Number Publication Date
KR20210079203A true KR20210079203A (en) 2021-06-29
KR102497362B1 KR102497362B1 (en) 2023-02-10

Family

ID=76626817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200174621A KR102497362B1 (en) 2019-12-19 2020-12-14 System for multi-layered knowledge base and processing method thereof

Country Status (1)

Country Link
KR (1) KR102497362B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113726784A (en) * 2021-08-31 2021-11-30 平安医疗健康管理股份有限公司 Network data security monitoring method, device, equipment and storage medium
CN118427310A (en) * 2024-07-03 2024-08-02 湖南视觉伟业智能科技有限公司 Alignment query method and system for space-time knowledge graph

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082197A1 (en) * 2016-09-22 2018-03-22 nference, inc. Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities
KR20180059335A (en) * 2016-11-24 2018-06-04 한국전자통신연구원 A Virtuous Circle Self-Learning Method and Apparatus for Knowledge Augmented
KR20180092194A (en) * 2017-02-08 2018-08-17 경북대학교 산학협력단 Method and system for embedding knowledge gragh reflecting logical property of relations, recording medium for performing the method
KR20180120570A (en) * 2017-04-27 2018-11-06 재단법인대구경북과학기술원 Method and apparatus for graph generation
US20190272274A1 (en) * 2018-03-01 2019-09-05 Ebay Inc. Enhanced search system for automatic detection of dominant object of search query

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082197A1 (en) * 2016-09-22 2018-03-22 nference, inc. Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities
KR20180059335A (en) * 2016-11-24 2018-06-04 한국전자통신연구원 A Virtuous Circle Self-Learning Method and Apparatus for Knowledge Augmented
KR20180092194A (en) * 2017-02-08 2018-08-17 경북대학교 산학협력단 Method and system for embedding knowledge gragh reflecting logical property of relations, recording medium for performing the method
KR20180120570A (en) * 2017-04-27 2018-11-06 재단법인대구경북과학기술원 Method and apparatus for graph generation
US20190272274A1 (en) * 2018-03-01 2019-09-05 Ebay Inc. Enhanced search system for automatic detection of dominant object of search query

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Guo, Shu, et al. Semantically smooth knowledge graph embedding. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and 7th IJC on NLP. 2015.* *
Xiao, Han, et al. SSP: semantic space projection for knowledge graph embedding with text descriptions. Thirty-First AAAI conference on artificial intelligence. 2017.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113726784A (en) * 2021-08-31 2021-11-30 平安医疗健康管理股份有限公司 Network data security monitoring method, device, equipment and storage medium
CN113726784B (en) * 2021-08-31 2023-05-12 深圳平安医疗健康科技服务有限公司 Network data security monitoring method, device, equipment and storage medium
CN118427310A (en) * 2024-07-03 2024-08-02 湖南视觉伟业智能科技有限公司 Alignment query method and system for space-time knowledge graph

Also Published As

Publication number Publication date
KR102497362B1 (en) 2023-02-10

Similar Documents

Publication Publication Date Title
US20210192372A1 (en) Multi-layered knowledge base system and processing method thereof
CN109783666B (en) Image scene graph generation method based on iterative refinement
KR102203065B1 (en) Triple verification device and method
CN112100392B (en) Equipment fault tracing method based on reinforcement learning and knowledge graph
CN109902714B (en) Multi-modal medical image retrieval method based on multi-graph regularization depth hashing
KR102497362B1 (en) System for multi-layered knowledge base and processing method thereof
US20180039890A1 (en) Adaptive knowledge base construction method and system
WO2023137918A1 (en) Text data analysis method and apparatus, model training method, and computer device
CN112257841A (en) Data processing method, device and equipment in graph neural network and storage medium
CN112528136A (en) Viewpoint label generation method and device, electronic equipment and storage medium
CN110889505A (en) Cross-media comprehensive reasoning method and system for matching image-text sequences
Yao Design and simulation of integrated education information teaching system based on fuzzy logic
CN117649567A (en) Data labeling method, device, computer equipment and storage medium
Su et al. A survey based on knowledge graph in fault diagnosis, analysis and prediction: key technologies and challenges
KR102559590B1 (en) Method and apparatus for increasing knowledge based on uncertainty in neural networks
CN111444316B (en) Knowledge graph question-answering-oriented compound question analysis method
KR20220016641A (en) Method and system for framework's deep learning a data using by query
Nagarajan et al. Efficiency Improvisation of Large-Scale Knowledge Systems in Feature Determination using Proposed HVGAN Architecture
CN114282606A (en) Object identification method and device, computer readable storage medium and computer equipment
TW578097B (en) Article classification method
JP5829471B2 (en) Semantic analyzer and program thereof
TWI292106B (en) Method for constructing traceability ontology map and recoding medium storing traceability ontology map
Li Correlation temporal feature extraction network via residual network for English relation extraction
Modi Relational classification using multiple view approach with voting
Ji et al. Research on domain knowledge representation techniques

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right