KR20230060320A - 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치 - Google Patents

지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치 Download PDF

Info

Publication number
KR20230060320A
KR20230060320A KR1020210144927A KR20210144927A KR20230060320A KR 20230060320 A KR20230060320 A KR 20230060320A KR 1020210144927 A KR1020210144927 A KR 1020210144927A KR 20210144927 A KR20210144927 A KR 20210144927A KR 20230060320 A KR20230060320 A KR 20230060320A
Authority
KR
South Korea
Prior art keywords
entity
knowledge
generating
triples
knowledge graph
Prior art date
Application number
KR1020210144927A
Other languages
English (en)
Inventor
서지현
유지아
조현철
남승우
손형관
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020210144927A priority Critical patent/KR20230060320A/ko
Publication of KR20230060320A publication Critical patent/KR20230060320A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)

Abstract

지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치가 개시된다. 일 실시예에 따른 지식 그래프의 통합 방법은 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성하는 단계; 최종 임베딩 벡터로부터 정규화 엔티티명을 생성하는 단계; 및 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프(knowledge graph)를 생성하는 단계를 포함한다.

Description

지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치{KNOWLEDGE GRAPH INTEGRATION METHOD AND MACHINE LEARNING DEVICE USING THE SAME}
개시되는 실시예들은 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치와 관련된다.
지식 그래프(knowledge graph)는 방대한 양의 지식 소스를 데이터베이스에 저장 및 관리하면서 웹 형태로 제공하는 백과사전(예를 들어, 위키피디아(Wikipedia), 디비피디아(DBpedia) 등)을 기반으로 생성한 그래프로, 질의응답(question answering), 검색, 추천 등 다양한 어플리케이션에서 활용되고 있다.
상술한 지식 그래프는 다른 지식 그래프와 결합하는 업데이트를 수행하는데, 이때 지식 그래프를 이루는 지식의 출처 등에 따라 실제로는 동일한 대상을 의미하는 엔티티들임에도 불구하고 서로 다른 엔티티명이 할당된 경우가 존재할 수 있다. 이러한 상황에서, 하나의 큰 지식 그래프를 구축하는 과정에서 중복된 엔티티가 발생하지 않도록 각 지식 그래프에 포함된 엔티티들이 동일한 대상을 지칭하는 경우가 있는지 여부를 확인하는 절차가 요구되고 있다.
대한민국 공개특허공보 제10-2021-0033770호 (2021. 03. 29.)
개시되는 실시예들은 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치를 제공하기 위한 것이다.
일 실시예에 따른 지식 그래프의 통합 방법은, 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성하는 단계; 상기 최종 임베딩 벡터로부터 정규화 엔티티명을 생성하는 단계; 및 상기 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성하는 단계를 포함한다.
상기 최종 임베딩 벡터를 생성하는 단계는, 상기 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 복수의 입력 문장을 생성하는 단계를 포함할 수 있다.
상기 지식 그래프의 통합 방법은 상기 제1 처리 모델에 입력될 복수의 입력 문장을 생성하는 단계에서, 상기 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리할 수 있다.
상기 지식 그래프의 통합 방법은, 상기 복수의 입력 문장을 생성하는 단계에서, 상기 특성, 상기 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 상기 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 상기 복수의 제1 지식 그래프 각각에 포함된 복수의 트리플 각각을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 상기 복수의 입력 문장을 생성할 수 있있다.
상기 최종 임베딩 벡터를 생성하는 단계는, 상기 복수의 입력 문장 각각에 제1 함수를 적용하여 상기 엔티티에 대한 임베딩 벡터들을 생성하는 단계; 및 상기 임베딩 벡터들에 제2 함수를 적용하여 상기 최종 임베딩 벡터를 생성하는 단계를 더 포함할 수 있다.
상기 지식 그래프의 통합 방법은, 상기 엔티티에 대한 임베딩 벡터들을 생성하는 단계에서, 상기 복수의 입력 문장별 상기 헤드의 특성 토큰, 상기 연결 관계 토큰 및 상기 테일의 특성 토큰들에 대한 상기 임베딩 벡터를 획득하고, 상기 임베딩 벡터는 해당 엔티티의 맥락 및 상기 해당 엔티티가 연결된 모든 트리플의 정보를 포함할 수 있다.
상기 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함할 수 있다.
상기 통합된 제2 지식 그래프를 생성하는 단계는, 상기 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 상기 정규화 엔티티명으로 변환하는 단계; 및 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 상기 통합된 제2 지식 그래프를 생성하되, 변환된 상기 정규화 엔티티명을 기초로 정렬하여 통합하는 단계를 포함할 수 있다.
상기 지식 그래프의 통합 방법은, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 상기 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합할 수 있다.
상기 지식 그래프의 통합 방법은, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬할 수 있다.
일 실시예에 따른 기계 학습 장치는, 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성하는 인코딩 처리부; 상기 최종 임베딩 벡터로부터 정규화 엔티티명을 생성하는 정규화 처리부; 및 상기 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성하는 통합 처리부를 포함한다.
상기 인코딩 처리부는, 상기 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 복수의 입력 문장을 생성할 수 있다.
상기 인코딩 처리부는, 상기 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리할 수 있다.
상기 인코딩 처리부는, 상기 특성, 상기 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 상기 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 상기 복수의 제1 지식 그래프 각각에 포함된 복수의 트리플 각각을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 상기 복수의 입력 문장을 생성할 수 있다.
상기 인코딩 처리부는, 상기 복수의 입력 문장 각각에 제1 함수를 적용하여 상기 엔티티에 대한 임베딩 벡터들을 생성하고, 상기 임베딩 벡터들에 제2 함수를 적용하여 상기 최종 임베딩 벡터를 생성할 수 있다.
상기 인코딩 처리부는, 상기 복수의 입력 문장별 상기 헤드의 특성 토큰, 상기 연결 관계 토큰 및 상기 테일의 특성 토큰들에 대한 상기 임베딩 벡터를 획득하고, 상기 임베딩 벡터는 해당 엔티티의 맥락 및 상기 해당 엔티티가 연결된 모든 트리플의 정보를 포함할 수 있다.
상기 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함할 수 있다.
상기 통합 처리부는, 상기 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 상기 정규화 엔티티명으로 변환하고, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 상기 통합된 제2 지식 그래프를 생성하되, 변환된 상기 정규화 엔티티명을 기초로 정렬하여 통합할 수 있다.
상기 통합 처리부는, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 상기 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합할 수 있다.
상기 통합 처리부는, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬할 수 있다.
개시되는 실시예들에 따르면, 서로 다른 지식 그래프들 내 복수의 엔티티들의 특성(attribute) 정보와 연결 정보를 기초로 학습 처리를 수행함에 따라, 엔티티의 맥락(context) 및 지식 그래프 구조의 정보를 모두 고려한 정규화된 엔티티명을 생성할 수 있다는 효과를 기대할 수 있다.
또한, 개시되는 실시예에 따르면 정규화된 엔티티명을 이용하여 서로 다른 지식 그래프들을 취합하기 때문에 복수의 지식 그래프들을 통합하기 위한 계산을 비롯한 절차가 간소화될 수 있다.
도 1은 일 실시예에 따른 지식 그래프의 통합 시 모델 추정 방법을 설명하기 위한 도면
도 2는 일 실시예에 따른 지식 그래프의 통합 방법을 이용한 기계 학습 장치를 설명하기 위한 블록도
도 3은 일 실시예에 따른 지식 그래프의 통합 방법을 전반적으로 설명하기 예시도
도 4는 일 실시예에 따른 지식 그래프의 통합 방법 중 최종 임베딩 벡터를 생성하는 방법을 설명하기 위한 예시도
도 5 내지 도 7은 일 실시예에 따른 지식 그래프의 통합 방법을 설명하기 위한 예시도
도 8은 일 실시예에 따른 지식 그래프의 통합 방법을 설명하기 위한 흐름도
도 9는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 일 실시예에 따른 지식 그래프의 통합 시 모델 추정 방법을 설명하기 위한 도면이고, 도 2는 일 실시예에 따른 지식 그래프의 통합 방법을 이용한 기계 학습 장치를 설명하기 위한 블록도이다.
이하에서는, 일 실시예에 따른 지식 그래프의 통합 방법을 전반적으로 설명하기 예시도인 도 3, 일 실시예에 따른 지식 그래프의 통합 방법 중 최종 임베딩 벡터를 생성하는 방법을 설명하기 위한 예시도인 도 4, 일 실시예에 따른 지식 그래프의 통합 방법을 설명하기 위한 예시도인 도 5 내지 도 7을 참고하여 설명하기로 한다.
도 1을 참고하면, 서로 다른 소스(source)의 지식 그래프(knowledge graph)를 G1, G2라고 하고, 각각의 G1, G2에 존재하는 엔티티(entity)(e)들의 개수가 N과 M이라 가정할 수 있다.
상술한 지식 그래프는 그래프의 노드에 해당하는 엔티티(entity)들과 그래프의 에지(edge)에 해당하는 연결 정보(relation)들로 구성되는데, 각 엔티티는 엔티티의 정보를 텍스트 형태로 서술한 디스크립션(description)을 포함하고, 서로 간에 연결 정보를 통해 연결될 수 있다.
본 실시예들의 지식 그래프의 통합 방법은 G1, G2의 각 엔티티별로 정규화된 엔티티명(예를 들어, 도 1의 a, b)을 생성하여 엔티티 정렬을 맞춰 지식 그래프를 통합할 수 있다. 이때, 각 엔티티가 가지고 있는 디스크립션(description)과 주변 엔티티와의 연결 정보로부터 새로운 엔티티명을 생성하도록 언어 모델(language model; LM) 및 생성 모델(generative model)의 학습을 수행하여, 엔티티의 맥락(context) 및 그래프 구조 정보를 동시에 고려한 정규화된 엔티티명을 생성할 수 있다.
도 1을 참고하면, 본 실시예들은 학습된 모델에 하나의 엔티티를 입력으로 넣어 정규화된 엔티티명으로 변환할 수 있다. 이에, 엔티티 수(예를 들어, N개 + M개) 만큼의 모델 추론(inference)이 요구된다. 이후, 정규화된 엔티티명을 모아 같은 이름이 있다면 동일한 것으로 판단할 수 있으며, 이는 N개 * M개의 연산이 요구되는 일반적인 모델 추론과 비교하여 보다 빠를 수 있다. 이러한 과정에서, 일반적인 통합 방법처럼 제1 지식 그래프 G1과 G2의 엔티티들의 쌍(pair)을 생성하여 서로 동일한지 여부를 비교하는 과정을 생략할 수 있기 때문에, 본 실시예에 따른 지식 그래프의 통합 방법은 일반적인 방법에 비해 절차가 간소화될 수 있다는 효과를 기대할 수 있다.
도 2를 참고하면, 지식 그래프의 통합 방법을 이용한 기계 학습 장치(이하에서 '기계 학습 장치'라 하기로 함)(100)는 인코딩 처리부(110), 정규화 처리부(130) 및 통합 처리부(150)를 포함한다.
도 3을 참고하면, 기계 학습 장치(100)는 제1 처리 모델을 이용하여 엔티티 인코딩(encoding)을 수행하는 단계 1, 제2 처리 모델을 이용하여 최종 임베딩 벡터로부터 정규화된 엔티티명(도 3의 e1, e4, e7, e8)을 생성하는 단계 2 및 정규화된 엔티티명을 기초로 통합된 제2 지식 그래프를 구성하는 단계 3을 수행할 수 있다.
보다 상세히 설명하면, 인코딩 처리부(110)는 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성할 수 있다. 이때, 인코딩 처리부(110)는 제1 처리 모델을 기초로 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성할 수 있다. 한편, 상기 제1 처리 모델은 후술하는 제2 처리 모델과 별도의 모델로 구현될 수 있으며, 이에 한정되지 않고, 하나의 모델로 구현될 수 있다. 예를 들어, 제1 처리 모델은 인코더(encoder) 기능을 수행하고 제2 처리 모델은 디코더(decoder) 기능을 수행하여, 하나의 모델로 구현할 수 있다.
상기 최종 임베딩 벡터는 최종 엔티티 임베딩 벡터라고도 명명할 수 있으며, 본 실시예들에서는 설명의 편의를 위해 최종 임베딩 벡터라 하기로 한다. 상기 최종 임베딩 벡터는 도 3의 단계 2에서 정규화된 엔티티명을 생성하기 위한 주요 정보에 해당할 수 있다.
상기 제1 처리 모델은 언어 모델(language model)일 수 있다. 본 실시예들에서 언어 모델은 사전에 훈련된 언어 모델(pre-trained language model)일 수 있다. 이를 적용하는 상세 설명은 후술하기로 한다.
인코딩 처리부(110)는 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 제1 처리 모델에 입력될 복수의 입력 문장을 생성할 수 있다. 이때, 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함할 수 있다.
인코딩 처리부(110)는 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리할 수 있다. 상술한 트리플로 만들어진 모든 문장은 언어 모델(제1 처리 모델)로 입력되고, 이를 통해 획득된 엔티티의 정보를 집계 함수(aggregate function)를 이용하여 취합하여 인코딩을 수행할 수 있다.
도 4를 참고하면, 지식 그래프는 헤드 엔티티, 연결 관계 및 테일 엔티티로 구성된 트리플 형태로 제공될 수 있다. 도 5를 참고하면, 각 엔티티들에 대한 특성은 레이블(label), 엔티티명 및 디스크립션(description) 등이 정의될 수 있다.
인코딩 처리부(110)는 복수의 트리플 각각을 문장화 시키고 학습 처리할 때, 엔티티의 특성, 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 모든 트리플을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 복수의 입력 문장을 생성할 수 있다. 여기에서, 엔티티의 특성 및 이웃 엔티티의 특성은 디스크립션일 수 있으며, 이에 한정되지 않고, 이름인 엔티티명일 수 있다.
도 4를 참고하면, 인코딩 처리부(110)는 모든 트리플을 "헤드의 디스크립션(또는 엔티티명) [separator token] relation [separator token] 테일의 디스크립션(또는 엔티티명)" 형태의 문장들로 표현하여 언어 모델의 입력값으로 사용할 수 있다.
예를 들어, 도 4를 참고하면, 대상 엔티티인 B 그룹은 <B 그룹 - 소속사 - B 엔터테인먼트>의 첫 번째 트리플과 <소속가수 J - member of - B 그룹>의 두 번째 트리플로 두 개의 트리플에 포함될 수 있다. 이때, 첫 번째 트리플은 'B 그룹' 엔티티의 디스크립션, '소속사' 연결 관계, 'B 뮤직' 엔티티의 디스크립션이 연결된 문장으로 변환될 수 있다. 또한, 두 번째 트리플은 '소속가수 J' 엔티티의 디스크립션, 'member of' 연결 관계, 'B 그룹' 엔티티의 디스크립션이 연결된 연결된 문장으로 변환될 수 있다. 즉, 인코딩 처리부(110)는 상술한 두 개의 입력 문장을 생성할 수 있는 것이다. 본 실시예들은 입력 문장을 생성할 때 대상 엔티티의 정보만 입력으로 하는 것이 아니라, 그래프 연결성에 담겨있는 트리플의 정보도 입력으로 하기 때문에, 언어 모델에 더 많은 정보가 입력으로 반영될 수 있다는 효과를 기대할 수 있다.
인코딩 처리부(110)는 복수의 입력 문장별 헤드의 특성 토큰, 연결 관계 토큰 및 테일의 특성 토큰들에 대한 임베딩 벡터를 획득할 수 있다. 이때, 임베딩 벡터는 해당 엔티티의 맥락 및 해당 엔티티가 연결된 모든 트리플의 정보를 포함할 수 있다.
인코딩 처리부(110)는 복수의 입력 문장 각각에 제1 함수를 적용하여 엔티티에 대한 임베딩 벡터들을 생성할 수 있다.
도 4를 참고하면, 인코딩 처리부(110)는 대상 엔티티와 연결된 triple K개의 정보로 생성한 각각의 문장이 언어 모델을 통해 인코딩 되면, 문장 별 모든 토큰들에 대한 임베딩 벡터들을 획득할 수 있다. 이 중 대상 엔티티를 표현하는 토큰들의 임베딩 벡터(예를 들어, ‘B 그룹’을 나타내는 토큰들의 임베딩 벡터)들은 언어 모델을 통해 엔티티 자신의 맥락과 엔티티가 연결된 트리플의 정보를 포함할 수 있다. 이후, 이 토큰들의 임베딩 벡터들을 하나의 벡터로 합치는 토큰 집계 함수(token aggregation function)인 제1 함수(F1)를 거치게 되면 엔티티의 맥락과 연결된 이웃의 정보까지 포함된 K개의 임베딩 벡터들이 생성될 수 있다. 이때 K개의 벡터는 각 트리플의 정보를 담은 대상 엔티티의 임베딩 벡터들일 수 있다.
인코딩 처리부(110)는 임베딩 벡터들에 제2 함수를 적용하여 최종 임베딩 벡터를 생성할 수 있다.
도 4를 참고하면, 인코딩 처리부(110)는 대상 엔티티에 대한 K개의 임베딩 벡터들을 엔티티 집계 함수인 제2 함수(F2)를 통하여 대상 엔티티에 대한 하나의 엔티티 임베딩 벡터를 생성할 수 있다. 이 엔티티 임베딩 벡터는 대상 엔티티의 맥락뿐만 아니라 엔티티가 연결된 모든 트리플의 정보가 포함될 수 있다.
상술한 제1 함수 및 상기 제2 함수는, 평균(average), 합계(sum), 다층 퍼셉트론(Multi-Layer Perceptron) 및 이들의 조합 중 적어도 하나 이상이 적용될 수 있으며, 이에 한정되지 않고 운용자의 필요에 따라 다양한 함수가 추가 적용될 수 있다.
정규화 처리부(130)는 최종 임베딩 벡터로부터 정규화 엔티티명을 생성할 수 있다. 이때, 정규화 처리부(130)는 제2 처리 모델을 기초로 최종 임베딩 벡터로부터 정규화 엔티티명을 생성할 수 있다.
도 3의 단계 2를 참고하면, 정규화 처리부(130)는 대상 엔티티에 대한 맥락(context)과 지식 그래프 구조 정보가 함축된 엔티티에 대한 임베딩 벡터를 입력으로 하여 새로운 지식 그래프의 정규화된 엔티티명을 생성할 수 있다. 이때, 정규화 처리부(130)는 제2 처리 모델을 사용하여 엔티티의 임베딩 벡터로부터 텍스트를 생성할 수 있다. 상기 제2 처리 모델은 생성 모델(generative model)일 수 있다. 이때, 생성 모델로는 자기회귀 디코더(autoregressive decoder)를 적용할 수 있으나, 이에 한정되지 않는다.
통합 처리부(150)는 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성할 수 있다.
구체적으로, 통합 처리부(150)는 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 정규화 엔티티명으로 변환하고, 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 통합된 제2 지식 그래프를 생성하되, 변환된 정규화 엔티티명을 기초로 정렬하여 통합할 수 있다.
도 5 및 도 6을 참고하면, 통합 처리부(150)는 서로 다른 지식 그래프 G1 및 G2의 모든 엔티티들을 정규화된 엔티티명으로 각각 변환할 수 있다. 구체적으로, 지식 그래프의 엔티티들에 정의된 레이블을 정규화된 엔티티명으로 변환하여 새로운 지식 그래프 G1’및 G2’로 변경할 수 있다. 도 5의 (a) 및 도 6의 (c)는 정규화된 엔티티명으로 변환하기 전의 지식 그래프 G1 및 G2의 예시일 수 있다. 이때, G1에서는 엔티티 a6의 레이블이 ‘에이’로 G2에서는 엔티티 b5의 레이블이 ‘A’로 정의될 수 있다. 도 3의 단계 1 및 단계 2의 처리를 통해 G1의 a6에 대해 정규화된 엔티티명 ‘A Inc.’이 생성되고, G2의 b5에 대해 정규화된 엔티티명 ‘A Inc.’이 생성된 경우, 통합 처리부(150)는 a6 및 b5에 대해 정규화된 엔티티명으로 변환할 수 있다. 이는, 도 5의 (b) 및 도 6의 (d)와 같을 수 있다. 통합 처리부(150)는 상술한 과정을 반복 수행하여 모든 엔티티들에 대해 정규화된 엔티티명으로 변환한 G1’, G2’를 생성할 수 있다.
통합 처리부(150)는 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합할 수 있다.
통합 처리부(150)는 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬할 수 있다.
도 5 및 6을 참고하면, 변경된 G1’및 G2’은 이미 정규화된 엔티티명을 가지고 있기 때문에 엔티티 간의 정렬이 이루어졌다고 간주할 수 있다. 통합 처리부(150)는 정렬이 맞춰진 G1’및 G2’의 전체 트리플들을 통합하여 하나의 새로운 통합된 제2 지식 그래프를 생성할 수 있다. 이때, 제2 지식 그래프는 G1, G2에 포함되었던 연결 정보 전부를 포함할 수 있다. 엔티티의 정렬은 동일한 엔티티명을 갖는 것으로 맞춰졌지만 엔티티들의 특성(예를 들어, 엔티티명(name), 디스크립션(description) 등)은 각각의 소스에 따라 다르기 때문에 도 7의 (e)에서와 같이 통합된 제2 지식 그래프에서 각각의 정보를 복수 개를 포함할 수 있다.
도 8은 일 실시예에 따른 지식 그래프의 통합 방법을 설명하기 위한 흐름도이다.
도 8에 도시된 방법은 예를 들어, 전술한 기계 학습 장치(100)에 의해 수행될 수 있다.
도 8을 참조하면, 기계 학습 장치(100)는 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성한다(101). 이때, 기계 학습 장치(100)는 제1 처리 모델을 이용할 수 있다.
구체적으로, 기계 학습 장치(100)는 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 제1 처리 모델에 입력될 복수의 입력 문장을 생성할 수 있다. 상기 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함할 수 있다. 상기 제1 처리 모델은 언어 모델(language model)일 수 있다.
기계 학습 장치(100)는 제1 처리 모델에 입력될 복수의 입력 문장을 생성할 때, 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리할 수 있다.
구체적으로, 기계 학습 장치(100)는 복수의 트리플 각각을 문장화 시키고 학습 처리할 때, 엔티티의 특성, 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 모든 트리플을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 복수의 입력 문장을 생성할 수 있다.
또한, 기계 학습 장치(100)는 복수의 입력 문장 각각에 제1 함수를 적용하여 엔티티에 대한 임베딩 벡터들을 생성할 수 있다.
구체적으로, 기계 학습 장치(100)는 복수의 입력 문장별 헤드의 특성 토큰, 연결 관계 토큰 및 테일의 특성 토큰들에 대한 임베딩 벡터를 획득할 수 있다. 이때, 임베딩 벡터는 해당 엔티티의 맥락 및 상기 해당 엔티티가 연결된 모든 트리플의 정보를 포함할 수 있다.
본 실시예들은 언어 모델 기반으로 엔티티에 연결된 디스크립션을 활용하여 맥락을 추출하기 때문에, 학습 시에 보지 못했던 엔티티(unseen entity)의 임베딩 벡터를 생성할 수 있다. 또한, 본 실시예들은 엔티티에 연결된 이웃 트리플(neighbor triple)들도 문장으로 만들어서 언어 모델을 통해 임베딩 벡터를 추출하기 때문에 이웃 엔티티 및 연결 관계에 대한 제한이 없이 그들의 정보를 고려한 임베딩 벡터를 생성할 수 있다는 효과를 기대할 수 있는 것이다. 예를 들어, ‘B 그룹'이라는 객체를 나타내는 엔티티가 서로 다른 지식 그래프 G1과 G2 각각에 엔티티 Ei_G1과 Ej_G2로 존재한다고 가정할 수 있다. 이때, G1에서 Ei_G1의 레이블은 ‘B 그룹’이고, 디스크립션은 ‘B 그룹은 일곱명의 대한민국 보이 밴드로 XXXX년에 데뷔했다.’이며, Ei_G1에 연결된 트리플 정보로 t1_G1(‘B 그룹’, ‘entertainment Company’, ‘B 엔터테인먼트’)과 t2_G1(‘b 곡명’, ‘artist’, ‘B 그룹’)를 포함할 수 있다. 또한, G2에서 Ej_G2의 레이블은 ‘B 그룹’이고, 디스크립션은 ‘B 그룹은 XXXX년 X월 XX일에 데뷔한 B 엔터테인먼트 소속 대한민국 7인조 보이 그룹이다.'이며, Ej_G2에 연결된 트리플 정보로 t1_G2(‘B 그룹’, ‘소속사‘, ‘B 뮤직‘), t2_G2(‘J‘, ‘member of ‘, ‘B 그룹')을 포함할 수 있다. 각각의 G1, G2에 t1_G1과 t1_G2처럼 유사한 연결 정보를 가지는 경우도 있고, t1_G1과 t1_G2처럼 서로의 G1, G2에 존재하지 않는 이웃을 포함할 수도 있다. 본 실시예에서는 이러한 연결성 정보를 문장으로 하여 언어 모델을 통하여 맥락을 추출하여 활용하기 때문에 이웃 엔티티 및 연결 관계에 대한 제한이 없다는 장점이 있는 것이다.
또한, 기계 학습 장치(100)는 임베딩 벡터들에 제2 함수를 적용하여 최종 임베딩 벡터를 생성할 수 있다.
이후, 기계 학습 장치(100)는 상기 최종 임베딩 벡터로부터 정규화 엔티티명을 생성한다(103). 이때, 기계 학습 장치(100)는 제2 처리 모델을 이용할 수 있다.
이때, 일 실시예에 따르면, 제2 처리 모델은 생성 모델(generative model)일 수 있다.
이후, 기계 학습 장치(100)는 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성한다(105).
구체적으로, 기계 학습 장치(100)는 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 상기 정규화 엔티티명으로 변환할 수 있다.
또한, 기계 학습 장치(100)는 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 통합된 제2 지식 그래프를 생성하되, 변환된 정규화 엔티티명을 기초로 정렬하여 통합할 수 있다.
기계 학습 장치(100)는 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합할 수 있다.
기계 학습 장치(100)는 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬할 수 있다. 이로 인해, 일반적인 통합 방법처럼 제1 지식 그래프 G1과 G2의 엔티티들의 쌍(pair)을 생성하여 서로 동일한지 여부를 비교하는 과정을 생략할 수 있기 때문에, 지식 그래프 통합 절차가 간소화될 수 있다는 효과를 기대할 수 있는 것이다.
한편, 도 8에 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에 서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 기계 학습 장치(100)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 기계 학습 장치
110: 인코딩 처리부
130: 정규화 처리부
150: 통합 처리부

Claims (20)

  1. 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성하는 단계;
    상기 최종 임베딩 벡터로부터 정규화 엔티티명을 생성하는 단계; 및
    상기 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성하는 단계를 포함하는 지식 그래프의 통합 방법.
  2. 청구항 1에 있어서,
    상기 최종 임베딩 벡터를 생성하는 단계는,
    상기 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 복수의 입력 문장을 생성하는 단계를 포함하는 지식 그래프의 통합 방법.
  3. 청구항 2에 있어서,
    상기 복수의 입력 문장을 생성하는 단계에서,
    상기 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리하는 지식 그래프의 통합 방법.
  4. 청구항 2에 있어서,
    상기 복수의 입력 문장을 생성하는 단계에서,
    상기 특성, 상기 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 상기 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 상기 복수의 제1 지식 그래프 각각에 포함된 복수의 트리플 각각을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 상기 복수의 입력 문장을 생성하는 지식 그래프의 통합 방법.
  5. 청구항 4에 있어서,
    상기 최종 임베딩 벡터를 생성하는 단계는,
    상기 복수의 입력 문장 각각에 제1 함수를 적용하여 상기 엔티티에 대한 임베딩 벡터들을 생성하는 단계; 및
    상기 임베딩 벡터들에 제2 함수를 적용하여 상기 최종 임베딩 벡터를 생성하는 단계를 더 포함하는 지식 그래프의 통합 방법.
  6. 청구항 5에 있어서,
    상기 엔티티에 대한 임베딩 벡터들을 생성하는 단계에서,
    상기 복수의 입력 문장별 상기 헤드의 특성 토큰, 상기 연결 관계 토큰 및 상기 테일의 특성 토큰들에 대한 상기 임베딩 벡터를 획득하고,
    상기 임베딩 벡터는 해당 엔티티의 맥락 및 상기 해당 엔티티가 연결된 모든 트리플의 정보를 포함하는 지식 그래프의 통합 방법.
  7. 청구항 2에 있어서,
    상기 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함하는 지식 그래프의 통합 방법.
  8. 청구항 1에 있어서,
    상기 통합된 제2 지식 그래프를 생성하는 단계는,
    상기 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 상기 정규화 엔티티명으로 변환하는 단계; 및
    상기 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 상기 통합된 제2 지식 그래프를 생성하되, 변환된 상기 정규화 엔티티명을 기초로 정렬하여 통합하는 단계를 포함하는 지식 그래프의 통합 방법.
  9. 청구항 8에 있어서,
    상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 상기 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합하는 지식 그래프의 통합 방법.
  10. 청구항 8에 있어서,
    상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬하는 지식 그래프의 통합 방법.
  11. 복수의 제1 지식 그래프(knowledge graph) 각각을 구성하는 복수의 엔티티의 인코딩을 수행하여 최종 임베딩 벡터를 생성하는 인코딩 처리부;
    상기 최종 임베딩 벡터로부터 정규화 엔티티명을 생성하는 정규화 처리부; 및
    상기 정규화 엔티티명을 이용하여 통합된 제2 지식 그래프를 생성하는 통합 처리부를 포함하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  12. 청구항 11에 있어서,
    상기 인코딩 처리부는,
    상기 복수의 제1 지식 그래프 각각을 구성하는 엔티티들 각각의 특성(attribute) 및 연결 정보를 이용하여 복수의 입력 문장을 생성하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  13. 청구항 12에 있어서,
    상기 인코딩 처리부는,
    상기 복수의 제1 지식 그래프 각각에 포함된 헤드 엔티티(head entity), 연결 관계 및 테일 엔티티(tail entity)를 포함하는 복수의 트리플(triple) 각각을 문장화 시키고 학습 처리하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  14. 청구항 12에 있어서,
    상기 인코딩 처리부는,
    상기 특성, 상기 엔티티가 헤드 또는 테일로 포함된 트리플의 연결 관계 및 상기 연결 관계로 연결된 이웃 엔티티의 특성을 이용하여 상기 복수의 제1 지식 그래프 각각에 포함된 복수의 트리플 각각을 헤드의 특성 토큰, 연결 관계 토큰, 테일의 특성 토큰 및 세퍼레이터 토큰(separator token)을 포함하는 형태의 문장으로 변환하여 상기 복수의 입력 문장을 생성하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  15. 청구항 14에 있어서,
    상기 인코딩 처리부는,
    상기 복수의 입력 문장 각각에 제1 함수를 적용하여 상기 엔티티에 대한 임베딩 벡터들을 생성하고, 상기 임베딩 벡터들에 제2 함수를 적용하여 상기 최종 임베딩 벡터를 생성하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  16. 청구항 15에 있어서,
    상기 인코딩 처리부는,
    상기 복수의 입력 문장별 상기 헤드의 특성 토큰, 상기 연결 관계 토큰 및 상기 테일의 특성 토큰들에 대한 상기 임베딩 벡터를 획득하고,
    상기 임베딩 벡터는 해당 엔티티의 맥락 및 상기 해당 엔티티가 연결된 모든 트리플의 정보를 포함하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  17. 청구항 12에 있어서,
    상기 엔티티들 각각의 특성은 레이블(label), 엔티티명 및 디스크립션(description)을 포함하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  18. 청구항 11에 있어서,
    상기 통합 처리부는,
    상기 복수의 제1 지식 그래프 각각을 구성하는 복수의 엔티티들에 정의된 레이블을 상기 정규화 엔티티명으로 변환하고, 상기 복수의 제1 지식 그래프의 전체 트리플들을 취합하여 상기 통합된 제2 지식 그래프를 생성하되, 변환된 상기 정규화 엔티티명을 기초로 정렬하여 통합하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  19. 청구항 18에 있어서,
    상기 통합 처리부는,
    상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 상기 복수의 제1 지식 그래프에 포함된 연결 정보를 포함하여 취합하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
  20. 청구항 18에 있어서,
    상기 통합 처리부는,
    상기 복수의 제1 지식 그래프의 전체 트리플들을 취합할 때, 동일한 정규화 엔티티명을 가지는 엔티티들을 동일한 엔티티로 판단하여 정렬하는 지식 그래프의 통합 방법을 이용한 기계 학습 장치.
KR1020210144927A 2021-10-27 2021-10-27 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치 KR20230060320A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144927A KR20230060320A (ko) 2021-10-27 2021-10-27 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144927A KR20230060320A (ko) 2021-10-27 2021-10-27 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치

Publications (1)

Publication Number Publication Date
KR20230060320A true KR20230060320A (ko) 2023-05-04

Family

ID=86379888

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144927A KR20230060320A (ko) 2021-10-27 2021-10-27 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치

Country Status (1)

Country Link
KR (1) KR20230060320A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649675B1 (ko) * 2023-12-20 2024-03-20 주식회사 인텔렉투스 그래프 자료 구조 및 벡터 데이터가 통합된 풀 텍스트 인덱스를 이용한 정보 제공 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033770A (ko) 2019-09-19 2021-03-29 삼성전자주식회사 지식 그래프에 기초하여 콘텐트를 제공하는 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033770A (ko) 2019-09-19 2021-03-29 삼성전자주식회사 지식 그래프에 기초하여 콘텐트를 제공하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649675B1 (ko) * 2023-12-20 2024-03-20 주식회사 인텔렉투스 그래프 자료 구조 및 벡터 데이터가 통합된 풀 텍스트 인덱스를 이용한 정보 제공 방법 및 시스템

Similar Documents

Publication Publication Date Title
RU2628431C1 (ru) Подбор параметров текстового классификатора на основе семантических признаков
RU2628436C1 (ru) Классификация текстов на естественном языке на основе семантических признаков
CN107735804B (zh) 用于不同标记集合的转移学习技术的系统和方法
US20170116203A1 (en) Method of automated discovery of topic relatedness
US10977486B2 (en) Blockwise extraction of document metadata
RU2679988C1 (ru) Извлечение информационных объектов с помощью комбинации классификаторов
RU2646386C1 (ru) Извлечение информации с использованием альтернативных вариантов семантико-синтаксического разбора
RU2607976C1 (ru) Извлечение информации из структурированных документов, содержащих текст на естественном языке
CN112989055B (zh) 文本识别方法、装置、计算机设备和存储介质
CN105706092B (zh) 四值模拟的方法和系统
RU2640297C2 (ru) Определение степеней уверенности, связанных со значениями атрибутов информационных объектов
Škrlj et al. RaKUn: Ra nk-based K eyword extraction via Un supervised learning and meta vertex aggregation
US20220237446A1 (en) Hybrid graph neural network
AU2022223275A1 (en) Auditing citations in a textual document
Das et al. Sentence embedding models for similarity detection of software requirements
Filiot et al. Copyful streaming string transducers
US20230076923A1 (en) Semantic search based on a graph database
KR20230060320A (ko) 지식 그래프의 통합 방법 및 이를 이용한 기계 학습 장치
CN111428043B (zh) 基于程序和数据源本体的语义表示的语义查询
Rajeswari et al. A weighted graph-oriented ontology matching algorithm for enhancing ontology mapping and alignment in Semantic Web
US20230177277A1 (en) Contextual dialogue framework over dynamic tables
US11354502B2 (en) Automated constraint extraction and testing
JP6575478B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230138152A1 (en) Apparatus and method for generating valid neural network architecture based on parsing
CN116226686B (zh) 一种表格相似性分析方法、装置、设备和存储介质