KR20230070968A - 그래프 독해 기반 지식 추출을 위한 시스템 및 방법 - Google Patents

그래프 독해 기반 지식 추출을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20230070968A
KR20230070968A KR1020210157084A KR20210157084A KR20230070968A KR 20230070968 A KR20230070968 A KR 20230070968A KR 1020210157084 A KR1020210157084 A KR 1020210157084A KR 20210157084 A KR20210157084 A KR 20210157084A KR 20230070968 A KR20230070968 A KR 20230070968A
Authority
KR
South Korea
Prior art keywords
knowledge
answer
entity
graph
query
Prior art date
Application number
KR1020210157084A
Other languages
English (en)
Inventor
이경일
김창완
Original Assignee
주식회사 솔트룩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 솔트룩스 filed Critical 주식회사 솔트룩스
Priority to KR1020210157084A priority Critical patent/KR20230070968A/ko
Priority to PCT/KR2021/018458 priority patent/WO2023085500A1/ko
Publication of KR20230070968A publication Critical patent/KR20230070968A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

표를 포함하는 문서로부터 지식을 추출하기 위한 지식 추출 시스템은, 입력 문서로부터 개체(entity)를 추출하는 개체 추출부, 개체의 속성 리스트에 포함된 속성에 기초하여, 개체를 포함하는 질의를 생성하는 질의 생성부, 표로부터 그래프 데이터를 생성하는 그래프 생성부, 그래프 데이터로부터 질의의 답변을 추출하는 그래프 독해 엔진, 및 지식베이스의 형식에 기초하여, 개체, 속성 및 답변으로부터 지식 인스턴스를 생성하는 지식 생성부를 포함할 수 있다.

Description

그래프 독해 기반 지식 추출을 위한 시스템 및 방법{SYSTEM AND METHOD FOR EXTRACTING KNOWLEDGE BASED ON GRAPH READING}
본 발명의 기술적 사상은 지식 추출에 관한 것으로서, 자세하게는 그래프 독해(graph reading)에 기초하여 지식을 추출하기 위한 시스템 및 방법에 관한 것이다.
본 발명은 과학기술정보통신부 혁신성장동력 프로젝트(인공지능) 사업의 일환으로 (주)솔트룩스에서 주관하여 수행된 연구로부터 도출된 것이다. (연구기간: 2021.01.01~2021.12.31, 연구관리 전문기관: 정보통신기획평가원, 연구과제명: [엑소브레인 2세부과제] WiseKB: 빅데이터 이해 기반 자가학습형 지식베이스 및 추론 기술 개발, 과제 고유번호: 1711126235, 세부과제번호: 2013-2-00109-009)
컴퓨터가 인식 가능한 형태로 지식을 저장하는 지식베이스(knowledgebase)는, 저장된 지식을 활용하는 다양한 서비스들을 가능하게 한다. 예를 들면, 사용자의 질의에 대하여 답변을 제공하는 질의 답변 시스템(question and answering system)은 사용자의 질의를 분석한 후, 지식베이스에 저장된 지식을 참조하여 답변을 제공할 수 있다. 이러한 지식베이스를 활용한 서비스의 품질 및 범위는 지식베이스에 포함된 지식의 정확도 및 양에 좌우될 수 있고, 이에 따라 지식베이스에 보강하기 위한 정확한 지식을 확보하는 것이 중요할 수 있다.
본 발명의 기술적 사상은, 그래프 독해에 기초하여 표에 포함된 지식을 자동으로 추출하기 위한 시스템 및 방법을 제공한다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 기술적 사상의 일측면에 따라, 표를 포함하는 문서로부터 지식을 추출하기 위한 지식 추출 시스템은, 입력 문서로부터 개체(entity)를 추출하는 개체 추출부, 개체의 속성 리스트에 포함된 속성에 기초하여, 개체를 포함하는 질의를 생성하는 질의 생성부, 표로부터 그래프 데이터를 생성하는 그래프 생성부, 그래프 데이터로부터 질의의 답변을 추출하는 그래프 독해 엔진, 및 지식베이스의 형식에 기초하여, 개체, 속성 및 답변으로부터 지식 인스턴스를 생성하는 지식 생성부를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 개체 추출부는, 입력 문서의 제목으로부터 개체를 추출할 수 있다.
본 발명의 예시적 실시예에 따라, 질의 생성부는, 속성 리스트에 포함된 복수의 속성들 각각을 순차적으로 선택하고, 개체에 대응하는 제1 워드 벡터 및 선택된 속성에 대응하는 제2 워드 벡터를 생성하는 전처리부, 샘플 객체들 및 샘플 속성들에 따라 샘플 질의들을 생성하도록 학습되고, 제1 워드 벡터 및 제2 워드 벡터로부터 질의에 대응하는 제3 워드 벡터를 생성하도록 제1 딥 러닝 네트워크, 및 제3 워드 벡터로부터 질의를 생성하는 후처리부를 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 그래프 독해 엔진은, 그래프 데이터를 자연어 처리함으로써 제1 입력 데이터를 생성하고, 질의를 자연어 처리함으로써 제2 입력 데이터를 생성하는 자연어 처리부, 제1 입력 데이터의 샘플들에 따라 샘플 그래프 벡터들을 출력하도록 학습된 제2 딥 러닝 네트워크, 제2 입력 데이터의 샘플들에 따라 샘플 워드 벡터들을 출력하도록 학습된 제3 딥 러닝 네트워크, 샘플 그래프 벡터들 및 샘플 워드 벡터들에 따라 출력 데이터의 샘플들을 출력하도록 학습된 제4 딥 러닝 네트워크, 및 제4 딥 러닝 네트워크의 출력 데이터에 기초하여, 답변을 생성하는 답변 생성부를 포함할 수 있고, 출력 데이터는, 표에서 정답의 포함 여부, 정답의 위치, 정답의 신뢰도 중 적어도 하나를 포함할 수 잇다.
본 발명의 예시적 실시예에 따라, 답변 생성부는, 입력 문서에 정답이 포함되지 아니하거나 신뢰도가 미리 정의된 문턱값 미만인 경우, 답변의 추출 실패를 판정할 수 있다.
본 발명의 예시적 실시예에 따라, 질의 생성부는, 답변의 추출 실패에 응답하여, 속성 리스트에 포함된 다음 속성에 기초하여 질의를 생성할 수 잇다.
본 발명의 예시적 실시예에 따라, 지식베이스는, 주어(subject), 술어(predicate) 및 목적어(object)를 포함하는 트리플(triple)을 포함할 수 있고, 지식 생성부는, 개체, 속성 및 답변을, 주어, 술어 및 목적어로서 포함하는 트리플을 지식 인스턴스로서 생성할 수 있다.
본 발명의 예시적 실시예에 따라, 그래프 데이터는, 표에 포함된 셀들 각각의 인덱스, 좌표 및 컨텐츠를 포함하는 노드들, 및 표에 포함된 셀들의 배치에 기초하여, 노드들을 연결하는 에지들을 포함할 수 있다.
본 발명의 예시적 실시예에 따라, 지식 생성부는, 지식베이스에 포함된 지식 인스턴스의 형식에 기초하여 개체, 속성 및 답변을 후처리하고, 개체, 속성 및 답변 중 적어도 하나에 대응하는 식별자를 지식베이스에서 추출함으로써 지식 인스턴스를 생성하는 지식 인스턴스 생성부, 및 생성된 지식 인스턴스를 지식베이스에 포함된 지식 인스턴스들과 비교함으로써 지식베이스에 선택적으로 통합하는 인스턴스 비교부를 포함할 수 있다.
본 발명의 기술적 사상의 일측면에 따라, 문서로부터 지식을 추출하기 위한 지식 추출 방법은, 입력 문서로부터 개체(entity)를 추출하는 단계, 개체의 속성 리스트에 포함된 속성에 기초하여, 개체를 포함하는 질의를 입력 문서로부터 생성하는 단계, 입력 문서에 포함된 표로부터 그래프 데이터를 생성하는 단계, 그래프 데이터로부터 질의의 답변을 추출하는 단계, 지식베이스의 형식에 기초하여, 개체, 속성 및 답변으로부터 지식 인스턴스를 생성하는 단계를 포함할 수 있다.
본 발명의 기술적 사상에 따른 시스템 및 방법에 의하면, 지식 추출이 용이하지 아니한 표로부터 지식이 추출될 수 있다.
또한, 본 발명의 기술적 사상에 따른 시스템 및 방법에 의하면, 추출된 지식이 검증될 수 있고, 최종적으로 정확한 지식이 추출될 수 있다.
또한, 본 발명의 기술적 사상에 따른 시스템 및 방법에 의하면, 용이하고 정확하게 추출된 지식에 기인하여 지식베이스가 효율적으로 보강될 수 있고, 이에 따라 지식베이스에 기반한 서비스들의 품질이 향상되고 범위가 확대될 수 있다.
본 발명의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 발명의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 발명의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
도 1은 본 발명의 예시적 실시예에 따른 지식 추출 시스템 및 그 입출력을 나타내는 블록도이다.
도 2는 본 발명의 예시적 실시예에 따른 입력 문서 및 입력 문서로부터 추출된 표의 예시들을 나타내는 도면이다.
도 3은 본 발명의 예시적 실시예에 따른 질의 생성부의 예시를 나타내는 블록도이다.
도 4는 본 발명의 예시적 실시예에 따라 질의를 생성하는 동작의 예시를 나타내는 도면이다.
도 5a 및 도 5b는 본 발명의 예시적 실시예들에 따라 표로부터 생성된 구조화된 데이터의 예시들을 나타낸다.
도 6은 본 발명의 예시적 실시예에 따른 그래프 데이터의 예시를 나타내는 도면이다.
도 7은 본 발명의 예시적 실시예에 따른 그래프 독해 엔진의 예시를 나타내는 블록도이다.
도 8은 본 발명의 예시적 실시예에 따라 도 7의 자연어 처리부의 동작의 예시를 나타내는 도면이다.
도 9는 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다.
도 10은 본 발명의 예시적 실시예에 따른 지식 생성부의 예시를 나타내는 블록도이다.
도 11은 본 발명의 예시적 실시예에 따라 지식 생성부의 동작의 예시를 나타내는 도면이다.
도 12는 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다.
도 13은 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. 본 발명의 실시 예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수개의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 아니하는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 도면 및 설명에서, 하나의 블록으로 표시 또는 설명되는 구성요소는 하드웨어 블록 또는 소프트웨어 블록일 수 있다. 예를 들면, 구성요소들 각각은 서로 신호를 주고 받는 독립적인 하드웨어 블록일 수도 있고, 또는 하나의 프로세서에서 실행되는 소프트웨어 블록일 수도 있다. 소프트웨어 블록은, 프로그램 코드 또는 프로그램 코드가 컴파일된, 적어도 하나의 프로세서에 의해서 실행가능한 일련의 명령어들을 포함할 수 있다. 소프트웨어 블록은, 비일시적인(non-transitory) 컴퓨터 판독가능 매체, 예컨대 반도체 메모리 장치, 자기 디스크 장치, 광학 디스크 장치 등에 저장될 수 있다. 또한, 본 명세서에서 "시스템" 또는 "데이터베이스"는 적어도 하나의 프로세서 및 프로세서에 의해서 액세스되는 메모리를 포함하는 컴퓨팅 시스템을 지칭할 수 있다.
도 1은 본 발명의 예시적 실시예에 따른 지식 추출 시스템 및 그 입출력을 나타내는 블록도이다. 도 1에 도시된 바와 같이, 지식 추출 시스템(100)은 입력 문서(DIN) 및 속성 리스트(PL)를 수신할 수 있고, 지식베이스(knowledgebase)(200)와 통신할 수 있으며, 네트워크(300)에 접속할 수 있다.
지식 추출 시스템(100)은, 이하에서 도면들을 참조하여 후술되는 바와 같이, 입력 문서(DIN)에 포함된 표로부터 지식을 추출할 수 있고, 추출된 지식을 지식베이스(200)에 보강할 수 있다. 도 1에 도시된 바와 같이, 지식 추출 시스템(100)은 개체 추출부(110), 질의 생성부(120), 그래프 생성부(130), 그래프 독해 엔진(140), 지식 생성부(150) 및 지식 검증부(160)를 포함할 수 있다. 일부 실시예들에서, 도 1에 도시된 바와 상이하게 지식 추출 시스템(100)은, 지식베이스(200)와 통신하는 대신 추출된 지식을 다른 시스템, 예컨대 지식베이스(200)의 보강을 위한 시스템에 제공할 수도 있다. 또한, 일부 실시예들에서, 도 1에 도시된 바와 상이하게 지식 검증부(160)는 지식 추출 시스템(100)의 외부에 있을 수 있고, 지식 추출 시스템(100)은 외부의 지식 검증부와 (예컨대, 네트워크를 통해서) 통신함으로써 지식의 검증을 수행할 수도 있다. 또한, 일부 실시예들에서, 도 1에 도시된 바와 상이하게, 그래프 생성부(130) 및 그래프 독해 엔진(140)은 지식 추출 시스템(100)의 외부에 있을 수 있고, 지식 추출 시스템(100)은 외부의 그래프 생성부(130) 및 그래프 독해 엔진(140)과 (예컨대, 네트워크를 통해서) 통신함으로써 질의(QUE)를 제공하거나 답변(ANS)을 수신할 수도 있다.
지식베이스(200)는 온톨로지(ontology)에 기초하여 구조화된 지식들, 즉 지식 인스턴스들을 포함할 수 있다. 온톨로지는 실존하거나 사람이 인식 가능한 것들을 컴퓨터에서 다룰 수 있는 형태로 표현한 것으로서, 온톨로지 구성요소들은, 예컨대 개체(entity), 클래스(class), 속성(property), 값(value) 등을 포함할 수 있다. 추가적으로, 온톨로지 구성요소들은, 관계(relation), 함수 텀(function term), 제한(restriction), 규칙(rule), 사건(event) 등을 더 포함할 수 있다. 엔티티에 대한 특정 정보, 즉 지식은 지식 인스턴스(또는 단순하게 인스턴스)로서 지칭될 수 있고, 지식베이스(200)는 방대한 지식 인스턴스들을 저장할 수 있다. 일부 실시예들에서, 지식베이스(200)는 RDF(Resource Description Framework)에 기초하여 표현되는 지식 인스턴스들을 포함할 수 있고, 지식 인스턴스는 트리플(triple)로 표현될 수 있다. 지식베이스(200)는 쿼리, 예컨대 SPARQL(SPARQL Protocol and RDF Query Language) 쿼리에 응답하여 지식 인스턴스, 즉 트리플을 반환할 수 있다. 트리플은 "주어(subject; S)-술어(predicate; P)-목적어(object; O)"로 구성될 수 있고, 지식 인스턴스는 트리플의 주어뿐만 아니라 목적어도 될 수 있으며, 술어도 될 수 있다. 예를 들면, 지식베이스(200)는 개체 "이순신"을 포함하는 지식 인스턴스로서 "이순신(S)-국적(P)-조선(O)"이라는 트리플을 가질 수 있다.
개체 추출부(110)는 입력 문서(DIN)로부터 개체(ENT)를 추출할 수 있다. 개체(ENT)는 지식의 대상이 되는 것으로서, 지식베이스(200)에 포함되는 지식 인스턴스를 구성할 수 있다. 입력 문서(DIN)는 개체(ENT) 및 개체(ENT)에 대한 정보를 포함하는 임의의 데이터를 지칭할 수 있다. 예를 들면, 입력 문서(DIN)는 위키백과(wikipedia.org)와 같이 백과사전 서비스(또는 서버)로부터 제공되는 문서일 수도 있고, 신문이나 포털 등으로부터 제공되는 기사들일 수도 있으며, 소셜 네트워크 서비스(Social Network Service; SNS) 상에서 작성된 문서들일 수도 있다. 또한, 인터넷과 같은 네트워크를 통해서 획득되는 전술된 예시들과 상이하게, 입력 문서(DIN)는 로컬 스토리지에 저장된 데이터일 수도 있다. 입력 문서(DIN)는 정형 데이터일 수도 있고, 비정형 데이터일 수도 있다.
도 1에 도시된 바와 같이, 입력 문서(DIN)는 표를 포함할 수 있다. 표는 복수의 셀들을 포함할 수 있고, 셀의 위치 및 컨텐츠에 따라 지식을 포함할 수 있다. 이와 같이, 표에 포함된 지식은 표의 구조에 기초할 수 있고, 자연어 문장들과 같은 텍스트로부터 시맨틱 분석을 통해 지식을 추출하는 방법을 통해 표로부터 지식을 추출하는 것은 용이하지 아니할 수 있다. 후술되는 바와 같이, 지식 추출 시스템(100)은 표로부터 지식을 추출하기 위하여 그래프를 이용할 수 있고, 이에 따라 표로부터 지식이 용이하게 추출될 수 있다. 이를 위하여, 도 1에 도시된 바와 같이, 입력 문서(DIN)는 개체 추출부(110)뿐만 아니라 그래프 생성부(130)에도 제공될 수 있다. 입력 문서(DIN)의 예시가 도 2를 참조하여 후술될 것이다.
개체 추출부(110)는 임의의 방식으로 입력 문서(DIN)로부터 개체를 추출할 수 있다. 일부 실시예들에서, 개체 추출부(110)는 입력 문서(DIN)에 포함된 텍스트에 대하여 형태소 분석을 수행할 수 있고, 형태소들 중 명사에 대응하는 단어들 중 하나를 개체(ENT)로서 추출할 수 있다. 일부 실시예들에서, 개체 추출부(110)는 지식베이스(200)에 포함된 개체들 및/또는 지식 인스턴스들을 참조하여 명사에 대응하는 단어들을 필터링할 수 있고, 필터링된 단어를 개체(ENT)로서 추출할 수 있다. 일부 실시예들에서, 개체 추출부(110)는 의존성 파싱(dependency parsing) 및/또는 SRL(Semantic Role Labeling)에 기초하여 입력 문서(DIN)의 텍스트에 포함된 문장 분석을 통해서 개체를 추출할 수도 있다. 일부 실시예들에서, 개체 추출부(110)는, 도 2에 도시된 바와 같이, 입력 문서(DIN)의 제목으로부터 개체(ENT)를 추출할 수도 있다.
질의 생성부(120)는 개체 추출부(110)로부터 추출된 개체(ENT)를 수신할 수 있고, 속성 리스트(PL)를 수신할 수 있다. 속성 리스트(PL)는 지식베이스(200)에서 클래스들이 각각 가지는 속성들을 정의할 수 있다. 예를 들면, 속성 리스트(PL)는 클래스 "사람"은 "나이", "성별", "이름", "출생", "직업", "국적", "배우자" 등의 속성들을 정의할 수 있고, 이에 따라 클래스 "사람"에 속하는 개체로서 "이순신"을 포함하는 지식 인스턴스는, 전술된 속성들 중 하나의 속성 및 속성에 대응하는 다른 개체(예컨대, 직업, 국적 또는 배우자에 대응하는 개체) 또는 값(예컨대, 나이, 성별, 이름, 출생에 대응하는 개체) 을 포함할 수 있다. 일부 실시예들에서, 질의 생성부(120)는 입력 문서(DIN) 및/또는 지식베이스(200)를 참조하여 개체 추출부(110)로부터 제공되는 개체(ENT)가 속하는 클래스를 획득할 수 있고, 속성 리스트(PL)로부터 획득된 클래스에 대응하는 속성 그룹을 추출할 수 있다. 질의 생성부(120)는 개체(ENT) 및 속성 그룹에 포함된 복수의 속성들 중 하나의 속성(PRO)에 기초하여 질의(QUE)를 생성할 수 있다. 도 1에 도시된 바와 같이, 질의 생성부(120)는 질의(QUE)를 그래프 독해 엔진(140)에 제공할 수 있고, 속성(PRO)을 지식 생성부(150)에 제공할 수 있다. 후술되는 바와 같이, 그래프 독해 엔진(140)에 제공된 질의(QUE)는 답변(ANS)을 생성하는데 사용될 수도 있고, 지식 검증부(160)에 의해서 지식 인스턴스(INS)를 검증하는데 사용될 수도 있다. 일부 실시예들에서, 질의 생성부(120)는 지식베이스(200)로부터 속성 리스트(PL)를 수신할 수도 있다. 질의 생성부(120)에 대한 예시들이 도 3 및 도 4를 참조하여 후술될 것이다.
그래프 생성부(130)는 입력 문서(DIN)로부터 그래프 데이터(GRA)를 생성할 수 있다. 전술된 바와 같이, 입력 문서(DIN)에 포함된 표에 포함된 지식은 셀의 위치에 의존할 수 있고, 이에 따라 일반적인 텍스트로부터 지식을 추출하는 방법으로 표에서 지식을 추출하는 것은 용이하지 아니할 수 있다. 셀의 위치를 고려하기 위하여, 그래프 생성부(130)는 그래프 데이터(GRA)를 생성할 수 있고, 그래프 데이터(GRA)는 셀의 위치에 대한 정보를 포함할 수 있다. 그래프 생성부(130)의 동작 및 그래프 데이터(GRA)의 예시들이 도 5a, 도 5b 및 도 6을 참조하여 후술될 것이다.
그래프 독해 엔진(140)은 그래프 생성부(130)로부터 그래프 데이터(GRA)를 수신할 수 있고, 질의 생성부(120)로부터 질의(QUE)를 수신할 수 있으며, 그래프 데이터(GRA)에서 질의(QUE)에 대한 답변(ANS)을 추출할 수 있다. 일부 실시예들에서, 그래프 독해 엔진(140)은 적어도 하나의 딥 러닝 네트워크(deep learning network)를 포함할 수 있고, 적어도 하나의 딥 러닝 네트워크는 샘플 그래프 데이터들 및 샘플 질의들에 따라 샘플 답변들을 출력하도록 학습된 상태일 수 있다. 본 명세서에서, 딥 러닝 네트워크는 기계 학습(machine learning) 모델의 일예로서 설명되며, 딥 러닝 네트워크는 기계 학습 모델의 다른 예시로 대체될 수 있다. 그래프 독해 엔진(140)은 답변(ANS)을 지식 생성부(150)에 제공할 수 있다.
일부 실시예들에서, 그래프 독해 엔진(140)은 추출된 지식을 검증하는데 사용될 수 있다. 예를 들면, 도 1에 도시된 바와 같이, 그래프 독해 엔진(140)은 지식 검증부(160)와 통신할 수 있고, 답변(ANS)뿐만 아니라 그래프 데이터(GRA) 및 질의(QUE)와 관련된 추가적인 정보를 생성할 수 있다. 지식 생성부(150) 및/또는 지식 검증부(160)는 추가적인 정보를 이용할 수도 있다. 그래프 독해 엔진(140)의 예시들이 도 7을 참조하여 후술될 것이다.
지식 생성부(150)는 개체 추출부(110)로부터 개체(ENT)를 수신할 수 있고, 질의 생성부(120)로부터 속성(PRO)을 수신할 수 있으며, 그래프 독해 엔진(140)으로부터 답변(ANS)을 수신할 수 있다. 지식 생성부(150)는 개체(ENT), 속성(PRO) 및 답변(ANS)으로부터 지식 인스턴스(INS)(예컨대, 트리플)을 생성할 수 있다. 예를 들면, 지식 생성부(150)는 개체(ENT), 속성(PRO) 및 답변(ANS)을 지식베이스(200)의 형식에 따라 후처리할 수 있고, 개체(ENT), 속성(PRO) 및 답변(ANS) 중 적어도 하나의 식별자를 지식베이스(200)로부터 추출함으로써 지식 인스턴스(INS)를 생성할 수 있다. 또한, 지식 생성부(150)는 지식 인스턴스(INS)를 지식 검증부(160)에 제공함으로써 지식 인스턴스(INS)를 검증할 수 있고, 검증된 지식 인스턴스(INS)를 지식베이스(200)에 보강할 수 있다. 지식 생성부(150)의 예시들은 도 10 및 도 11을 참조하여 설명될 것이다.
지식 검증부(160)는 지식 생성부(150)로부터 지식 인스턴스(INS)를 수신할 수 있고, 지식 인스턴스(INS)를 검증함으로써 검증 결과를 지식 생성부(150)에 제공할 수 있다. 도 1에 도시된 바와 같이, 지식 검증부(160)는 네트워크(300)에 접속할 수 있으며, 그래프 독해 엔진(140)과 통신할 수 있다. 네트워크(300)는 인터넷과 같은 광역 네트워크뿐만 아니라 로컬 네트워크를 포함할 수 있고, 지식 검증부(160)는 네트워크(300)에 접속된 다른 시스템들과 통신함으로써 지식 인스턴스(INS)의 검증에 요구되는 데이터(예컨대, 문서)를 획득할 수 있다. 일부 실시예들에서, 지식 검증부(160)는 기계 독해에 기초하여 지식 인스턴스(INS)를 검증할 수 있다. 기계 독해(Machine Reading Comprehension; MRC)는 기계가 다양한 주제의 글을 읽어서 뜻을 이해하는 것을 지칭할 수 있다. 지식 검증부(160)는 기계 독해 엔진을 포함하거나 기계 독해 엔진과 통신할 수 있다. 지식 검증부(160)는, 네트워크(300)를 통해서 획득한 문서 및 지식 인스턴스(INS)를 검증하기 위한 질의를 기계 독해 엔진에 제공할 수 있고, 질의에 대응하는 응답을 기계 독해 엔진으로부터 획득할 수 있다. 예를 들면, SQuAD(Stanford Question Answering Dataset)은 영어 환경에서 기계 독해를 위한 데이터 셋을 제공한다. 이와 같은 기계 독해는 매우 복잡한 질문에 대해서도 응답을 제공하는 장점을 가질 수 있다. 지식 검증부(160)는 기계 독해 엔진의 응답에 기초하여 지식 인스턴스(INS)에 대한 검증의 성공 여부를 판정할 수 있다. 지식 검증부(160)의 예시는 도 10을 참조하여 후술될 것이다.
도 2는 본 발명의 예시적 실시예에 따른 입력 문서 및 입력 문서로부터 추출된 표의 예시들을 나타내는 도면이다. 도 1을 참조하여 전술된 바와 같이, 입력 문서(DIN')는 표를 포함할 수 있고, 표로부터 그래프 데이터(GRA)가 생성될 수 있다. 일부 실시예들에서, 도 1의 그래프 생성부(130)는 입력 문서(DIN')로부터 표를 추출할 수 있고, 이하에서 도 2는 도 1을 참조하여 설명될 것이다.
도 2를 참조하면, 입력 문서(DIN')는 인물 "손흥민"에 대한 정보를 포함할 수 있다. 예를 들면, 입력 문서(DIN')는 위키백과, 나무위키(namu.wiki) 등과 같은 백과사전 서비스로부터 제공될 수 있다. 도 2에 도시된 바와 같이, 입력 문서(DIN')는 제목으로서 인물의 이름을 나타내는 "손흥민"을 포함할 수 있고, 해당 인물을 설명하는 텍스트 "손흥민은 대한민국의 ..."를 포함할 수 있다. 입력 문서(DIN')의 내용은 갱신될 수 있고, 이에 따라 입력 문서(DIN')로부터 지식 추출이 완료된 이후에도, 개체 추출부(110)는 갱신된 입력 문서로부터 동일하거나 상이한 개체를 다시 추출할 수도 있다. 이에 따라, 개체 추출부(110)가 추출하는 개체(ENT')는 지식베이스(200)에 포함된 개체들에 제한되지 아니할 수 있고, 결과적으로 지식베이스(200)에 포함된 개체에 대한 정보를 문서로부터 검색함으로써 지식을 생성하는 방식들보다 효과적인 지식 확장이 달성될 수 있다.
일부 실시예들에서, 그래프 생성부(130)는 입력 문서(DIN')로부터 표를 추출할 수 있다. 예를 들면, 그래프 생성부(130)는 HTML, XML 등과 같이 구조화된 데이터에서 표를 나타내는 구분자들을 식별할 수 있고, 식별된 구분자들에 기초하여 표를 추출할 수 있다. 또한, 그래프 생성부(130)는 OCR(optical character recognition)을 통해 이미지로부터 텍스트 및 표의 테두리를 식별할 수 있고, 식별된 텍스트 및 표의 테두리에 기초하여 표를 추출할 수 있다. 이에 따라, 도 2에 도시된 바와 같이, 입력 문서(DIN')로부터 표(T20)가 추출될 수 있고, 표(T20)의 셀들 각각은 컨텐츠로서 텍스트를 포함할 수 있다.
일부 실시예들에서, 도 1의 개체 추출부(110)는 입력 문서(DIN')의 제목으로부터 개체(ENT)를 추출할 수 있다. 예를 들면, 입력 문서(DIN')는 제목에 대한 정보를 포함할 수 있고, 이에 따라 제목으로부터 추출된 개체를 포함하는 다양한 지식 인스턴스들이 입력 문서(DIN')로부터 추출될 수 있다. 이에 따라, 개체 추출부(110)는 도 2의 입력 문서(DIN')로부터 개체(ENT)로서 "손흥민"을 추출할 수 있다.
도 3은 본 발명의 예시적 실시예에 따른 질의 생성부의 예시를 나타내는 블록도이고, 도 4는 본 발명의 예시적 실시예에 따라 질의를 생성하는 동작의 예시를 나타내는 도면이다. 도 1을 참조 하여 전술된 바와 같이, 도 3의 질의 생성부(120')는 개체(ENT) 및 속성 리스트(PL)를 수신할 수 있고, 질의(QUE)를 생성할 수 있다. 이하에서, 도 3 및 도 4는 도 1을 참조하여 설명할 것이다.
도 3을 참조하면, 질의 생성부(120')는 전처리부(122), 딥 러닝 네트워크(124) 및 후처리부(126)를 포함할 수 있다. 전처리부(122)는 개체(ENT) 및 속성(PRO)을 수신할 수 있다. 일부 실시예들에서, 전처리부(122)는 개체(ENT)의 클래스에 대응하는 속성 그룹에 포함된 속성들 각각을 순차적으로 선택할 수 있다. 예를 들면, 전처리부(122)는 도 1의 지식 생성부(150)에 의해서 지식 인스턴스(INS)의 생성이 완료되거나, 지식 인스턴스(INS)의 생성이 실패한 것으로 판정된 경우, 동일한 개체(ENT)에 대한 속성들, 즉 속성 그룹에 포함된 속성들 중 기존 속성과 다른 속성을 속성 리스트(PL)로부터 획득할 수 있다.
전처리부(122)는 워드 벡터 모델(400)을 참조하여 개체(ENT) 및 속성(PRO)에 대응하는 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)를 생성할 수 있다. 워드 벡터 모델(400)은, 의미를 가지는 워드(또는 토큰, 단어 등)가 하나의 좌표, 즉 워드 벡터로 표현되는 다차원 공간, 또는 워드 벡터들을 포함하고 워드 벡터들을 갱신하는 시스템을 지칭할 수 있다. 의미상 유사한 워드들은 다차원 공간에서 인접하게 배치될 수 있고, 이에 따라 의미상 유사한 워드들에 대응하는 워드 벡터들은 유사한 값들을 가질 수 있다. 이에 따라, 제1 워드 벡터(V1)는 개체(ENT)에 대응하는 좌표 값들을 가질 수 있고, 제2 워드 벡터(V2)는 속성(PRO)에 대응하는 좌표 값들을 가질 수 있으며, 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)에 기초하여 딥 러닝 네트워크(124)는 수학적 연산들을 수행할 수 있다. 워드 벡터 모델(400)은 도 1의 지식 추출 시스템(100)에 포함될 수도 있고, 질의 생성부(120')가 지식 추출 시스템(100)의 외부에 있는 워드 벡터 모델(400)에 액세스할 수도 있다.
딥 러닝 네트워크(124)는 전처리부(122)로부터 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)를 수신할 수 있고, 제3 워드 벡터(V3)를 출력할 수 있다. 딥 러닝 네트워크(124)는 샘플 객체들 및 샘플 속성들에 따라 샘플 질의들을 생성하도록, 예컨대 강화 학습(reinforcement learning; RL)에 기초하여 학습된 상태일 수 있고, 임의의 구조를 가질 수 있다. 본 명세서에서, 도 3의 딥 러닝 네트워크(124)를 포함하는 딥 러닝 네트워크들은 하드웨어 또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있으며, 인공 신경망(artificial neural network; ANN)으로서 지칭될 수 있다. 딥 러닝 네트워크들은, 비제한적인 예시로서 심층 신경망(Deep Neural Network; DNN), 합성곱 신경망(Convolution Neural Network; CNN), 순환 신경망(Recurrent Neural Network; RNN), 제한 볼츠만 머신(Restricted Boltzmann Machine; RBM), 심층 신뢰 신경망(Deep Belief Network; DBN), 심층 Q-네트워크(Deep Q-Network)를 포함할 수 있다. 이에 따라, 도 3의 딥 러닝 네트워크(124)는 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)로부터 질의(QUE)의 생성을 위한 제3 워드 벡터(V3)를 생성할 수 있다. 본 명세서에서, 질의 생성부(120')에 포함된 딥 러닝 네트워크(124)는 제1 딥 러닝 네트워크로서 지칭될 수 있다.
후처리부(126)는 워드 벡터 모델(400)을 참조하여 제3 워드 벡터(V3)로부터 질의(QUE)를 생성할 수 있다. 예를 들면, 도 4에 도시된 바와 같이, 딥 러닝 네트워크(124)는 개체(ENT') 및 속성(PRO')으로부터 전처리부(122)에 의해서 생성된 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)를 수신할 수 있다. 딥 러닝 네트워크(124)는 제1 워드 벡터(V1) 및 제2 워드 벡터(V2)에 응답하여 제3 워드 벡터(V3)를 생성할 수 있고, 후처리부(126)는 제3 워드 벡터(V3)로부터 일련의 단어들(W1 내지 W4)을 획득할 수 있고, 일련의 단어들(W1 내지 W4)을 조합함으로써 질의(QUE)로서 "손흥민의 직업은?"을 생성할 수 있다.
도 5a 및 도 5b는 본 발명의 예시적 실시예들에 따라 표로부터 생성된 구조화된 데이터의 예시들을 나타낸다. 구체적으로, 도 5a 및 도 5b는 도 2의 표(T20)로부터 생성된 제1 데이터(D51) 및 제2 데이터(D52)를 나타낸다. 일부 실시예들에서, 도 1의 그래프 생성부(130)는 입력 문서(DIN)로부터 추출된 표(예컨대, 도 2의 T20)로부터 제1 데이터(D51) 및 제2 데이터(D52)를 생성할 수 있다. 이하에서, 도 5a 및 도 5b는 도 1 및 도 2를 참조하여 설명될 것이다.
도 5a를 참조하면, 그래프 생성부(130)는 표에 포함된 셀들의 정보를 추출할 수 있고, 추출된 정보를 포함하는 데이터를 생성할 수 있다. 예를 들면, 도 5a에 도시된 바와 같이, 그래프 생성부(130)는 도 2의 표(T20)로부터 제1 데이터(D51)를 생성할 수 있고, 제1 데이터(D51)에서 하나의 행은 표(T20)에 포함된 하나의 셀에 대응하는 정보를 포함할 수 있다. 제1 데이터(D51)에서 열 'ENT'는 엔티티를 나타낼 수 있고, 열 'INDEX'는 셀의 인덱스를 나타낼 수 있고, 열들 'TOP, BOTTOM, LEFT, RIGHT'는 셀의 상위 테두리, 하위 테두리, 좌측 테두리 및 우측 테두리의 좌표들을 각각 나타내고, 열 'TEXT'는 셀에 포함된 컨텐츠를 나타낸다. 이에 따라, 동일한 행에 포함된 셀들은 열들 'TOP, BOTTOM'에서 동일한 값들을 각각 가질 수 있고, 동일한 열에 포함된 셀들은 열들 'LEFT, RIGHT'에서 동일한 값들을 각각 가질 수 있다. 도 6을 참조하여 후술되는 바와 같이, 하나의 셀, 즉 제1 데이터(D51)의 하나의 행은 그래프에서 하나의 노드에 대응할 수 있다.
도 5b를 참조하면, 그래프 생성부(130)는 셀들의 관계들을 나타내는 데이터를 생성할 수 있다. 예를 들면, 그래프 생성부(130)는 도 5a의 제1 데이터(D51)로부터 셀들 사이 관계를 식별할 수 있고, 식별된 셀들 사이 관계에 기초하여 도 5b의 제2 데이터(D52)를 생성할 수 있다. 제2 데이터(D52)에서 하나의 행은 2개의 셀들의 인덱스들을 나타낼 수 있고, 2개의 셀들은 행방향 또는 열방향으로 상호 인접한 관계에 있을 수 있다. 예를 들면, 도 2의 표(T20)에서 "이름"을 포함하는 셀은 인덱스 "0"을 가질 수 있고, "손흥민"을 포함하는 인덱스 "1"의 셀 및 "직업"을 포함하는 인덱스"2"의 셀과 행방향 및 열방향으로 각각 인접할 수 있다. 이에 따라, 도 5b에 도시된 바와 같이, 인덱스 "0" 및 인덱스 "1"이 하나의 행에 포함될 수 있고, 인덱스 "0" 및 인덱스 "2"가 하나의 행에 포함될 수 있다. 도 6을 참조하여 후술되는 바와 같이, 행방향 또는 열방향으로 상호 인접한 셀들, 즉 제2 데이터(D52)의 하나의 행에 포함된 2개의 셀들은 그래프에서 에지로 연결될 수 있다.
도 6은 본 발명의 예시적 실시예에 따른 그래프 데이터의 예시를 나타내는 도면이다. 구체적으로, 도 6은 도 2의 표(T20)로부터 생성된 그래프 데이터(GRA)가 나타내는 그래프를 나타낸다.
일부 실시예들에서, 그래프 데이터(GRA)는 표에 포함된 셀들에 대응하는 노드들 및 상호 인접한 셀들을 연결하는 에지들을 포함하는 그래프를 정의할 수 있다. 예를 들면, 표(T20)은 도 6에서 점선으로 도시된 바와 같이 셀들을 포함할 수 있고, 그래프 데이터(GRA)는 셀들에 각각 대응하는 노드들 및 상호 인접한 셀들을 연결하는 에지들을 포함하는 그래프들을 정의할 수 있다. 일부 실시예들에서, 노드는 대응하는 셀에 대한 정보, 예컨대 셀의 인덱스, 셀의 좌표 정보, 컨텐츠(예컨대, 텍스트) 등을 포함할 수 있다. 이에 따라, 표에서 셀들의 위치에 관련된 정보가 그래프 데이터(GRA)에 포함될 수 있다. 그래프 데이터(GRA)는 그래프를 정의하는 임의의 형식을 가질 수 있다.
도 7은 본 발명의 예시적 실시예에 따른 그래프 독해 엔진의 예시를 나타내는 블록도이고, 도 8은 본 발명의 예시적 실시예에 따라 도 7의 자연어 처리부의 동작의 예시를 나타내는 도면이다. 도 1을 참조하여 전술된 바와 같이, 도 7의 그래프 독해 엔진(140')은 질의(QUE) 및 그래프 데이터(GRA)를 수신할 수 있고, 답변(ANS)을 생성할 수 있다. 이하에서, 도 7 및 도 8은 도 1을 참조하여 설명될 것이다.
도 7을 참조하면, 그래프 독해 엔진(140')은 자연어 처리부(141), 그래프 임베딩 모델(143), 텍스트 임베딩 모델(145), 분류(classification) 모델(147) 및 답변 생성부(149)를 포함할 수 있다. 일부 실시예들에서, 그래프 임베딩 모델(143), 텍스트 임베딩 모델(145), 분류 모델(147)은 딥 러닝 네트워크에 기초할 수 있고, 본 명세서에서 제2 내지 제4 딥 러닝 네트워크로서 각각 지칭될 수 있다.
자연어 처리부(141)는 그래프 데이터(GRA), 즉 그래프 데이터(GRA)의 노드들에 각각 포함된 컨텐츠들을 자연어 처리함으로써 제1 입력 데이터(IN1)를 생성할 수 있고, 질의(QUE)를 자연어 처리함으로써 제2 입력 데이터(IN2)를 생성할 수 있다. 일부 실시예들에서, 자연어 처리부(141)는 그래프 데이터(GRA) 및 질의(QUE)에 대하여 형태소 분석을 수행할 수 있다. 예를 들면, 도 8에 도시된 바와 같이, 자연어 처리부(141)는 질의(QUE)로서 "손흥민의 직업은?"을 수신할 수 있고, 질의(QUE)의 형태소 분석을 통해 도 8에 도시된 바와 같은 제2 입력 데이터(IN2)를 생성할 수 있다. 도 8의 제2 입력 데이터(IN2)에서, 단어에 후속하는 사선(/) 및 알파벳은 해당 단어의 형태소를 나타낸다. 예를 들면, 제2 입력 데이터(IN2)에서 "손흥민/NNP"은 단어 "손흥민"이 고유 명사임을 나타낼 수 있고, 단어 "직업/NNG"은 "직업"이 일반 명사임을 나타낼 수 있다. 또한, "의/JKG"는 단어 "의"가 소유격을 나타내는 조사임을 나타낼 수 있다. 유사하게, 자연어 처리부(141)는 그래프 데이터(GRA)의 노드들에 각각 포함된 컨텐츠들의 형태소 분석을 통해 제1 입력 데이터(IN1)를 생성할 수 있다. 일부 실시예들에서, 자연어 처리부(141)는 도 7에 도시된 바와 상이하게, 도 1의 지식 추출 시스템(100)의 외부에 있을 수 있고, 그래프 독해 엔진(140')은 외부의 자연어 처리부에 그래프 데이터(GRA) 및 질의(QUE)를 제공함으로써 제1 입력 데이터(IN1) 및 제2 입력 데이터(IN2)를 수신할 수도 있다.
그래프 임베딩 모델(143)은 자연어 처리부(141)로부터 제1 입력 데이터(IN1)를 수신할 수 있고, 제1 입력 데이터(IN1)에 응답하여 그래프 벡터(GV)를 생성할 수 있다. 그래프 임베딩 모델(143)은 제1 입력 데이터(IN1)의 샘플들에 따라 샘플 그래프 벡터들을 출력하도록 학습된 상태일 수 있고, 이에 따라 표에 대응하는 제1 입력 데이터(IN1)에 내재된 지식에 대응하는 그래프 벡터(GV)가 생성될 수 있다. 이와 같이, 표에 포함된 셀들의 컨텐츠들뿐만 아니라 셀들 사이 관계를 고려한 그래프 데이터(GRA)에 기초하여 지식이 추출될 수 있고, 이에 따라 표에서 용이하게 지식이 추출될 수 있다.
텍스트 임베딩 모델(145)은 자연어 처리부(141)로부터 제2 입력 데이터(IN2)를 수신할 수 있고, 제2 입력 데이터(IN2)에 응답하여 워드 벡터(WV)를 생성할 수 있다. 텍스트 임베딩 모델(145)은 제2 입력 데이터(IN2)의 샘플들에 따라 샘플 워드 벡터들을 출력하도록 학습된 상태일 수 있고, 이에 따라 질의(QUE)에 대응하는 제2 입력 데이터(IN2)의 의미에 대응하는 워드 벡터(WV)가 생성될 수 있다. 일부 실시예들에서, 텍스트 임베딩 모델(145)은 하나의 질의(QUE)에 대응하는 제2 입력 데이터(IN2)로부터 하나의 워드 벡터(WV)를 생성하여 후술되는 분류 모델(147)에 제공할 수 있다. 또는, 일부 실시예들에서, 제2 입력 데이터(IN2)는 질의(QUE)를 자연어 처리함으로써 생성된 복수의 단어들을 포함할 수 있고, 텍스트 임베딩 모델(145)은 복수의 단어들 각각에 대응하는 복수의 워드 벡터들을 생성할 수 있고, 복수의 워드 벡터들을 분류 모델(147)에 제공할 수 있다.
일부 실시예들에서, 그래프 독해 엔진(140')에서 텍스트 임베딩 모델(145)은 생략될 수 있다. 예를 들면, 그래프 독해 엔진(140')은 도 3의 질의 생성부(120')로부터 질의(QUE)를 수신하는 대신, 딥 러닝 네트워크(124)가 출력하는 제3 워드 벡터(V3)를 수신할 수 있고, 제3 워드 벡터(V3)는 도 7의 워드 벡터(WV)로서 분류 모델(147)에 제공될 수 있다. 이 경우, 자연어 처리부(141)가 질의(QUE)로부터 제2 입력 데이터(IN2)를 생성하는 동작이 생략될 수 있고, 제2 입력 데이터(IN2)로부터 워드 벡터(WV)를 생성하는 텍스트 임베딩 모델(145)이 생략될 수 있다.
분류 모델(147)은 그래프 임베딩 모델(143)로부터 그래프 벡터(GV)를 수신할 수 있고, 텍스트 임베딩 모델(145)로부터 적어도 하나의 워드 벡터(WV)를 수신할 수 있다. 분류 모델(147)은 그래프 벡터(GV) 및 적어도 하나의 워드 벡터(WV)에 응답하여 출력 데이터(OUT)를 출력할 수 있다. 분류 모델(147)은 샘플 그래프 벡터들 및 샘플 워드 벡터들에 따라 출력 데이터(OUT)의 샘플들을 출력하도록 학습된 상태일 수 있고, 출력 데이터(OUT)는 그래프 벡터(GV)로부터 추출된, 워드 벡터(WV)에 대응하는 응답에 대한 정보를 포함할 수 있다. 일부 실시예들에서, 출력 데이터(OUT)는 답변(ANS)에 대응하는 내용뿐만 아니라, 추가적인 정보를 더 포함할 수 있다. 예를 들면, 출력 데이터(OUT)는 답변을 포함하는 셀의 위치(예컨대, 인덱스) 등을 더 포함할 수 있다.
답변 생성부(149)는 분류 모델(147)로부터 출력 데이터(OUT)를 수신할 수 있고, 출력 데이터(OUT)에 기초하여 답변(ANS)을 생성할 수 있다. 예를 들면, 출력 데이터(OUT)는 자연어 처리된 제1 입력 데이터(IN1)에서 "축구/NNG 선수/NNG"를 포함하는 셀의 인덱스, 즉 "3"을 포함할 수 있고, 답변 생성부(149)는 출력 데이터(OUT)에 포함된 셀의 인덱스에 기초하여 "축구선수"를 답변(ANS)으로서 생성할 수 있다. 또한, 답변 생성부(149)는 출력 데이터(OUT)에 포함된 추가적인 정보에 기초하여 답변 추출의 성공 여부를 나타내는 판정 결과(DET)를 생성할 수 있다. 일부 실시예들에서, 판정 결과(DET)는 지식 추출 시스템(100)의 다른 구성요소들, 예컨대 개체 추출부(110), 질의 생성부(120) 및 지식 생성부(150) 중 적어도 하나에 제공될 수 있다. 답변 생성부(149)의 동작의 예시가 도 9를 참조하여 후술될 것이다.
도 9는 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다. 구체적으로, 도 9의 순서도는 그래프 독해의 결과에 기초하여 지식 추출을 위한 답변을 생성하는 방법을 나타낸다. 일부 실시예들에서, 도 9의 방법은 도 7의 답변 생성부(149)에 의해서 수행될 수 있고, 답변 생성부(149)의 동작 방법으로 지칭될 수도 있다. 도 9에 도시된 바와 같이, 지식 추출을 위한 방법은 복수의 단계들(S92, S94, S96, S98)을 포함할 수 있고, 이하에서 도 9은 도 7을 참조하여 설명될 것이다.
단계 S92에서, 정답의 포함 여부를 판정하는 동작이 수행될 수 있다. 예를 들면, 분류 모델(147)은 그래프 데이터(GRA)에 질의(QUE)에 대한 정답이 포함되어 있는지 여부를 나타내는 정보를 포함하는 출력 데이터(OUT)를 생성할 수 있고, 답변 생성부(149)는 출력 데이터(OUT)에 포함된 정보에 기초하여, 정답의 포함 여부를 판정할 수 있다. 도 9에 도시된 바와 같이, 그래프 데이터(GRA)에 정답이 포함되지 아니한 것으로 판정된 경우 단계 S96가 후속하여 수행될 수 있는 한편, 그래프 데이터(GRA)에 정답이 포함된 것으로 판정된 경우 단계 S94이 후속하여 수행될 수 있다.
단계 S94에서, 답변(ANS)의 신뢰도를 미리 정의된 문턱값과 비교하는 동작이 수행될 수 있다. 예를 들면, 분류 모델(147)은 답변(ANS)의 위치 정보와 함께 답변(ANS)의 신뢰도를 포함하는 출력 데이터(OUT)를 생성할 수 있고, 답변 생성부(149)는 출력 데이터(OUT)에 포함된 신뢰도를 문턱값과 비교할 수 있다. 도 9에 도시된 바와 같이, 신뢰도가 문턱값 미만인 경우 단계 S96이 후속하여 수행될 수 있는 한편, 신뢰도가 문턱값 이상인 경우 단계 S98이 후속하여 수행될 수 있다.
그래프 데이터(GRA)에 정답이 포함되지 아니한 것으로 판정되거나 답변(ANS)의 신뢰도가 문턱값 미만인 경우, 단계 S96에서 답변의 추출 실패를 판정하는 동작이 수행될 수 있다. 예를 들면, 답변 생성부(1549)는 답변의 추출 실패를 나타내는 판정 결과(DET)를 생성할 수 있고, 지식 추출 시스템(100)에 포함된 다른 구성요소들에 판정 결과(DET)를 제공할 수 있다. 지식 추출 시스템(100)에 포함된 구성요소들은 추출 실패를 나타내는 판정 결과(DET)에 응답하여, 다음 지식을 추출하기 위한 동작을 수행될 수 있다. 예를 들면, 개체 추출부(110)는 이전 개체와 다른 개체를 입력 문서(DIN)로부터 추출할 수도 있고, 다른 입력 문서(DIN)를 수신할 수도 있다. 질의 생성부(120)는 터 이전 속성과 다른 속성을 속성 리스트(PL)로부터 획득함으로써 질의(QUE)를 생성할 수 있다. 지식 생성부(150)는 현재 개체(ENT) 및 속성(PRO)에 대한 지식 인스턴스의 생성을 중단할 수 있다.
다른 한편으로, 그래프 데이터(GRA)에 정답이 포함된 것으로 판정되고 답변(ANS)의 신뢰도가 문턱값 이상인 경우, 단계 S98에서 답변(ANS)을 생성하는 동작이 수행될 수 있다. 예를 들면, 답변 생성부(149)는 도 7 및 도 8을 참조하여 전술된 바와 같이, 출력 데이터(OUT)에 포함된 정답의 위치 정보에 기초하여 그래프 데이터(GRA)로부터 답변(ANS)을 추출할 수 있다.
도 10은 본 발명의 예시적 실시예에 따른 지식 생성부의 예시를 나타내는 블록도이고, 도 11은 본 발명의 예시적 실시예에 따라 지식 생성부의 동작의 예시를 나타내는 도면이다. 도 1을 참조하여 전술된 바와 같이, 도 10의 지식 생성부(150')는 개체(ENT), 속성(PRO) 및 답변(ANS)으로부터 지식 인스턴스(INS)(예컨대, 트리플)을 생성할 수 있다. 이하에서, 도 10 및 도 11는 도 1을 참조하여 설명될 것이다.
도 10을 참조하면, 지식 생성부(150')는 후보 인스턴스 생성부(152) 및 인스턴스 비교부(154)를 포함할 수 있다. 후보 인스턴스 생성부(152)는 개체(ENT), 속성(PRO) 및 답변(ANS)을 수신할 수 있고, 후보 지식 인스턴스(CAN)를 생성할 수 있다. 일부 실시예들에서, 후보 인스턴스 생성부(152)는 지식베이스(200)의 형식, 즉 지식베이스(200)에 포함된 지식 인스턴스들(예컨대 트리플들)의 형식에 기초하여 개체(ENT), 속성(PRO) 및 답변(ANS)을 후처리할 수 있다. 예를 들면, 개체(ENT), 속성(PRO) 및 답변(ANS)으로서 "이순신", "생일" 및 "1545년 4월 28일"이 수신된 경우, 후보 인스턴스 생성부(152)는 지식베이스(200)에서 날짜를 나타내기 위한 형식 "YYYY-MM-DD"에 기초하여 답변(ANS)인 "1545년 4월 28일"을 "1545-04-28"으로 변환할 수 있다.
인스턴스 비교부(154)는 후보 지식 인스턴스(CAN)를 수신할 수 있고, 지식베이스(200)에 포함된 지식 인스턴스들에 기초하여 지식 인스턴스(INS)를 생성할 수 있다. 일부 실시예들에서, 인스턴스 비교부(154)는, 본원과 동일한 출원인에 의해서 출원되고 본 명세서에 전체로서 참조되어 포함되는 한국특허출원 제10-2018-0151222호에서 설명된 "유사도 계산부"와 같이, 후보 지식 인스턴스(CAN)와 지식베이스(200)에 포함된 지식 인스턴스들 사이 유사도를 계산할 수 있다. 인스턴스 비교부(154)는 계산된 유사도에 기초하여 후보 인스턴스에 포함된 주어, 술어 및 목적어에 대응하는 지식베이스(200)의 개체들을 검출할 수 있고, 검출 결과에 기초하여 주어, 술어 및 목적어에 대응하는 식별자, 예컨대 URI(Uniform Resource Identifier)를 지식베이스(200)로부터 추출함으로써 지식 인스턴스(INS)를 생성할 수 있다.
도 11를 참조하면, 개체(ENT'), 속성(PRO') 및 답변(ANS')으로서 "손흥민", "직업" 및 "축구선수"가 수신된 경우, 후보 인스턴스 생성부(152)는 "손흥민-직업-축구선수"에 대응하는 후보 지식 인스턴스(CAN')를 생성할 수 있다. 또한, 지식베이스(200)는 "손흥민", "직업" 및 "축구선수"를 모두 포함하는 반면, 인물 "손흥민"의 직업이 축구선수임을 의미하는 지식, 즉 지식 인스턴스는 포함하지 아니할 수 있다. 이 경우, 인스턴스 비교부(154)는 지식베이스(200)에 포함된 지식 인스턴스들 중 후보 지식 인스턴스(CAN')와 유사한 지식 인스턴스들, 예컨대, 동일하거나 유사한 명칭을 포함하는 지식 인스턴스, 후보 지식 인스턴스(CAN')와 유사한 종류(예컨대, 클래스)의 개체들을 포함하는 지식 인스턴스 등을 추출할 수 있다. 인스턴스 비교부(154)는 추출된 지식 인스턴스들에 기초하여 "손흥민", "직업" 및 "축구선수"에 각각 대응하는 식별자들 "addr:0001", "addr:1012" 및 "addr:0156"을 획득할 수 있고, 이에 따라 지식 인스턴스(INS')로서 "addr:0001-addr:1012-addr:0156"을 생성할 수 있다. 이와 같이, 지식 인스턴스(INS)는 개체들 사이 혹은 개체와 값 사이 관계를 정의할 수 있고, 이에 따라 지식 인스턴스들을 포함하는 지식베이스(200)는 지식 그래프를 포함하는 것으로서 지칭될 수도 있다.
도 11의 예시와 상이하게, 후보 지식 인스턴스(CAN)의 주어, 술어 및 목적어 중 적어도 하나가 지식베이스(200)에 포함되지 아니한 대상인 경우, 인스턴스 비교부(154)는 지식베이스(200)에 포함되지 아니한 신규 식별자를 생성함으로써 지식 인스턴스(INS)를 생성할 수도 있다. 이에 따라, 인스턴스 비교부(154)는 식별자들을 포함하는 지식 인스턴스(INS')를 생성할 수 있다. 또한, 인스턴스 비교부(154)는 후보 지식 인스턴스(CAN')와 매우 유사한 지식 인스턴스가 지식베이스(200)에서 검색된 경우, 입력 문서(DIN)로부터 추출된 지식이 중복된 지식으로 판정할 수 있고, 지식 인스턴스의 생성을 중단할 수도 있다. 일부 실시예들에서, 인스턴스 비교부(154)는 중복되지 아니한 지식 인스턴스(INS)를 지식베이스(200)에 추가함으로써 지식베이스(200)를 보강할 수도 있다.
도 12는 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다. 구체적으로, 도 12의 순서도는 추출된 지식에 대응하는 지식 인스턴스를 검증하는 방법을 나타낸다. 일부 실시예들에서, 도 12의 방법은 도 1의 지식 검증부(160)에 의해서 수행될 수 있고, 지식 검증부(160)의 동작 방법으로 지칭될 수도 있다. 도 12에 도시된 바와 같이, 도 12의 방법은 복수의 단계들(S121, S122, S123, S124, S125, S126)을 포함할 수 있고, 이하에서 도 12는 도 1을 참조하여 설명될 것이며, 도 12에 대한 설명 중 도 9에 대한 설명과 중복되는 내용은 생략될 것이다.
단계 S121에서, 지식 인스턴스(INS)게 기초하여 네트워크(300)를 통해 문서를 검색하는 동작이 수행될 수 있다. 예를 들면, 지식 검증부(160)는 지식 인스턴스(INS)의 명칭들, 예컨대 "손흥민", "직업" 및 "축구선수" 중 적어도 하나를 포함하는 문서를 네트워크(300)에 접속된 시스템들에서 검색할 수 있다. 일부 실시예들에서, 입력 문서(DIN)를 제공하는 소스들과 유사하게, 지식 검증부(160)는 다양한 정보를 포함하는 문서들을 제공하는 시스템들에 접속함으로써 문서를 검색할 수 있다.
단계 S122에서, 검색된 문서 및 질의(QUE)를 기계 독해 엔진에 제공하는 동작이 수행될 수 있다. 예를 들면, 지식 검증부(160)는 단계 S121에서 검색된 문서를 기계 독해 엔진에 제공할 수 있는 한편, 지식 인스턴스(INS)의 생성에 사용된 질의(QUE)를 기계 독해 엔진에 직접 제공하거나 질의 생성부(120)로 하여금 제공하게 할 수 있다. 이에 따라, 기계 독해 엔진은 검색된 문서에서 질의(QUE)의 정답을 찾을 수 있다.
단계 S123에서, 정답의 포함 여부를 판정하는 동작이 수행될 수 있다. 예를 들면, 지식 검증부(160)는 도 7의 출력 데이터(OUT)를 직접 수신할 수 있고, 출력 데이터(OUT)에 기초하여 정답의 포함 여부를 판정할 수 있다. 다른 예시로서, 지식 검증부(160)는 도 7의 답변 생성부(149)가 제공하는 판정 결과(DET)에 기초하여 정답의 포함 여부를 판정할 수도 있다. 도 12에 도시된 바와 같이, 검색된 문서에 정답이 포함되지 아니한 것으로 판정된 경우 단계 S125가 후속하여 수행될 수 있는 한편, 검색된 문서에 정답이 포함된 것으로 판정된 경우 단계 S126이 후속하여 수행될 수 있다.
단계 S124에서, 검색된 문서에서 추출된 답변의 신뢰도를 미리 정의된 문턱값과 비교하는 동작이 수행될 수 있다. 일부 실시예들에서, 도 12의 문턱값은 도 9의 문턱값과 상이할 수 있고, 예컨대 도 12의 문턱값이 도 9의 문턱값 보다 높을 수 있다. 도 12에 도시된 바와 같이, 신뢰도가 문턱값 미만인 경우 단계 S125가 후속하여 수행될 수 있는 한편, 신뢰도가 문턱값 이상인 경우 단계 S126이 후속하여 수행될 수 있다.
검색된 문서에 정답이 포함되지 아니하거나, 검색된 문서로부터 추출된 답변의 신뢰도가 낮은 경우, 단계 S125에서 지식 인스턴스(INS)의 검증 실패가 판정될 수 있다. 예를 들면, 지식 검증부(160)는 검증 실패가 판정된 경우, 다른 검색된 문서를 사용하여 지식 인스턴스(INS)의 검증을 다시 수행할 수 있다. 검색된 문서들 전부 혹은 미리 정의된 양의 문서들을 사용하여 지식 인스턴스(INS)의 검증이 실패하는 경우, 지식 검증부(160)는 최종적으로 지식 인스턴스(INS)의 검증 실패를 판정할 수 있고, 이를 지식 생성부(150)에 알릴 수 있다.
다른 한편으로, 검색된 문서에 정답이 포함되거나 검색된 문서로부터 추출된 답변의 신뢰도가 높은 경우, 단계 S126에서 지식 인스턴스(INS)의 검증 성공이 판정될 수 있다. 예를 들면, 지식 검증부(160)는 하나의 검색된 문서를 사용하여 검증 성공이 판정된 경우, 최종적으로 지식 인스턴스(INS)의 검증 성공을 판정할 수 있다. 다른 예시로서, 지식 검증부(160)는 미리 정의된 개수나 비율의 검색된 문서들을 사용하여 검증 성공이 판정된 경우, 최종적으로 지식 인스턴스(INS)의 검증 성공을 판정할 수도 있다.
도 13은 본 발명의 예시적 실시예에 따른 지식 추출을 위한 방법을 나타내는 순서도이다. 일부 실시예들에서, 도 13의 방법은 도 1의 지식 추출 시스템(100)에 의해서 수행될 수 있다. 도 13에 도시된 바와 같이, 도 13의 방법은 복수의 단계들(S100, S300, S500, S700, S900)을 포함할 수 있고, 이하에서 도 13은 도 1을 참조하여 설명될 것이다.
단계 S100에서, 입력 문서(DIN)로부터 개체(ENT)가 추출될 수 있다. 예를 들면, 입력 문서(DIN)는 제목을 포함할 수 있고, 개체 추출부(110)는 입력 문서(DIN)의 제목으로부터 개체(ENT)를 추출할 수 있다.
단계 S300에서, 개체(ENT)를 포함하는 질의(QUE)가 생성될 수 있다. 예를 들면, 질의 생성부(120)는 속성 리스트(PL)에서 개체(ENT)의 클래스가 가질 수 있는 속성들 중 하나를 선택할 수 있다. 질의 생성부(120)는 워드 벡터 모델을 참조하여 선택된 속성(PRO) 및 개체(ENT)로부터 워드 벡터들(예컨대, 도 3의 V1, V2)을 생성할 수 있고, 딥 러닝 네트워크(예컨대, 도 3의 124)에 워드 벡터들을 제공함으로써 획득된 워드 벡터(예컨대, 도 3의 V3)에 기초하여 질의(QUE)를 생성할 수 있다.
단계 S500에서, 표로부터 그래프 데이터(GRA)가 생성될 수 있다. 예를 들면, 그래프 생성부(130)는 입력 문서(DIN)로부터 표를 추출할 수 있고, 표의 내용 및 구조에 대한 정보를 포함하는 그래프 데이터(GRA)를 생성할 수 있다. 도면들을 참조하여 전술된 바와 같이, 표에 포함된 지식은 셀들의 컨텐츠 뿐만 아니라 셀들의 위치에도 의존할 수 있고, 이에 따라 셀들의 위치 정보를 포함하는 그래프 데이터(GRA)가 지식 추출을 위해 사용될 수 있다.
단계 S700에서, 그래프 데이터(GRA)로부터 질의(QUE)의 답변(ANS)이 추출될 수 있다. 예를 들면, 그래프 독해 엔진(140)은 그래프 데이터(GRA) 및 질의(QUE)를 자연어 처리함으로서 입력 데이터를 생성할 수 있고, 적어도 하나의 학습된 모델을 사용하여 입력 데이터로부터 출력 데이터(OUT)를 생성할 수 있다. 출력 데이터(OUT)는 답변(ANS)에 대한 정보뿐만 아니라 추가적인 정보를 포함할 수 있고, 출력 데이터(OUT)에 기초하여 답변(ANS)이 생성될 수 있다.
단계 S900에서, 개체(ENT), 속성(PRO) 및 답변(ANS)에 기초하여 지식 인스턴스(INS)를 생성하는 동작이 수행될 수 있다. 예를 들면, 지식 생성부(150)는 개체(ENT), 속성(PRO) 및 답변(ANS)에 기초하여 후보 지식 인스턴스(예컨대, 도 10의 CAN)를 생성할 수 있다. 지식 생성부(150)는 후보 지식 인스턴스를 지식베이스(200)에 포함된 지식 인스턴스들과 비교함으로써, 후보 지식 인스턴스로부터 지식 인스턴스(INS)를 생성할 수도 있고, 지식 인스턴스(INS)에 기초한 지식베이스(200)가 보강 여부를 판정할 수도 있다. 일부 실시예들에서, 단계 S900에 후속하여, 단계 S900에서 생성된 지식 인스턴스(INS)를 검증하는 동작이 더 수행될 수도 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들이 설명되었으나, 이는 단지 본 발명의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (10)

  1. 표를 포함하는 문서로부터 지식을 추출하기 위한 지식 추출 시스템으로서,
    입력 문서로부터 개체(entity)를 추출하도록 구성된 개체 추출부;
    상기 개체의 속성 리스트에 포함된 속성에 기초하여, 상기 개체를 포함하는 질의를 생성하도록 구성된 질의 생성부;
    상기 표로부터 그래프 데이터를 생성하도록 구성된 그래프 생성부;
    상기 그래프 데이터로부터 상기 질의의 답변을 추출하도록 구성된 그래프 독해 엔진; 및
    지식베이스의 형식에 기초하여, 상기 개체, 상기 속성 및 상기 답변으로부터 지식 인스턴스를 생성하도록 구성된 지식 생성부를 포함하는 지식 추출 시스템.
  2. 청구항 1에 있어서,
    상기 개체 추출부는, 상기 입력 문서의 제목으로부터 상기 개체를 추출하도록 구성된 것을 특징으로 하는 지식 추출 시스템.
  3. 청구항 1에 있어서,
    상기 질의 생성부는,
    상기 속성 리스트에 포함된 복수의 속성들 각각을 순차적으로 선택하고, 상기 개체에 대응하는 제1 워드 벡터 및 선택된 속성에 대응하는 제2 워드 벡터를 생성하도록 구성된 전처리부;
    샘플 객체들 및 샘플 속성들에 따라 샘플 질의들을 생성하도록 학습되고, 상기 제1 워드 벡터 및 상기 제2 워드 벡터로부터 상기 질의에 대응하는 제3 워드 벡터를 생성하도록 제1 딥 러닝 네트워크; 및
    상기 제3 워드 벡터로부터 상기 질의를 생성하도록 구성된 후처리부를 포함하는 것을 특징으로 하는 지식 추출 시스템.
  4. 청구항 1에 있어서,
    상기 그래프 독해 엔진은,
    상기 그래프 데이터를 자연어 처리함으로써 제1 입력 데이터를 생성하고, 상기 질의를 자연어 처리함으로써 제2 입력 데이터를 생성하도록 구성된 자연어 처리부;
    제1 입력 데이터의 샘플들에 따라 샘플 그래프 벡터들을 출력하도록 학습된 제2 딥 러닝 네트워크;
    제2 입력 데이터의 샘플들에 따라 샘플 워드 벡터들을 출력하도록 학습된 제3 딥 러닝 네트워크;
    상기 샘플 그래프 벡터들 및 상기 샘플 워드 벡터들에 따라 출력 데이터의 샘플들을 출력하도록 학습된 제4 딥 러닝 네트워크; 및
    상기 제4 딥 러닝 네트워크의 출력 데이터에 기초하여, 상기 답변을 생성하도록 구성된 답변 생성부를 포함하고,
    상기 출력 데이터는, 상기 표에서 정답의 포함 여부, 정답의 위치, 정답의 신뢰도 중 적어도 하나를 포함하는 것을 특징으로 하는 지식 추출 시스템.
  5. 청구항 4에 있어서,
    상기 답변 생성부는, 상기 입력 문서에 정답이 포함되지 아니하거나 상기 신뢰도가 미리 정의된 문턱값 미만인 경우, 상기 답변의 추출 실패를 판정하도록 구성된 것을 특징으로 하는 지식 추출 시스템.
  6. 청구항 5에 있어서,
    상기 질의 생성부는, 상기 답변의 추출 실패에 응답하여, 상기 속성 리스트에 포함된 다음 속성에 기초하여 상기 질의를 생성하도록 구성된 것을 특징으로 하는 지식 추출 시스템.
  7. 청구항 1에 있어서,
    상기 지식베이스는, 주어(subject), 술어(predicate) 및 목적어(object)를 포함하는 트리플(triple)을 포함하고,
    상기 지식 생성부는, 상기 개체, 상기 속성 및 상기 답변을, 상기 주어, 술어 및 상기 목적어로서 포함하는 트리플을 상기 지식 인스턴스로서 생성하도록 구성된 것을 특징으로 하는 지식 추출 시스템.
  8. 청구항 1에 있어서,
    상기 그래프 데이터는,
    상기 표에 포함된 셀들 각각의 인덱스, 좌표 및 컨텐츠를 포함하는 노드들; 및
    상기 표에 포함된 셀들의 배치에 기초하여, 상기 노드들을 연결하는 에지들을 포함하는 것을 특징으로 하는 지식 추출 시스템.
  9. 청구항 1에 있어서,
    상기 지식 생성부는,
    상기 지식베이스에 포함된 지식 인스턴스의 형식에 기초하여 상기 개체, 상기 속성 및 상기 답변을 후처리하고, 상기 개체, 상기 속성 및 상기 답변 중 적어도 하나에 대응하는 식별자를 상기 지식베이스에서 추출함으로써 상기 지식 인스턴스를 생성하도록 구성된 지식 인스턴스 생성부; 및
    생성된 상기 지식 인스턴스를 상기 지식베이스에 포함된 지식 인스턴스들과 비교함으로써 상기 지식베이스에 선택적으로 통합하도록 구성된 인스턴스 비교부를 포함하는 것을 특징으로 하는 지식 추출 시스템.
  10. 문서로부터 지식을 추출하기 위한 지식 추출 방법으로서,
    입력 문서로부터 개체(entity)를 추출하는 단계;
    상기 개체의 속성 리스트에 포함된 속성에 기초하여, 상기 개체를 포함하는 질의를 상기 입력 문서로부터 생성하는 단계;
    상기 입력 문서에 포함된 표로부터 그래프 데이터를 생성하는 단계;
    상기 그래프 데이터로부터 상기 질의의 답변을 추출하는 단계; 및
    지식베이스의 형식에 기초하여, 상기 개체, 상기 속성 및 상기 답변으로부터 지식 인스턴스를 생성하는 단계를 포함하는 지식 추출 방법.
KR1020210157084A 2021-11-15 2021-11-15 그래프 독해 기반 지식 추출을 위한 시스템 및 방법 KR20230070968A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210157084A KR20230070968A (ko) 2021-11-15 2021-11-15 그래프 독해 기반 지식 추출을 위한 시스템 및 방법
PCT/KR2021/018458 WO2023085500A1 (ko) 2021-11-15 2021-12-07 그래프 독해 기반 지식 추출을 위한 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210157084A KR20230070968A (ko) 2021-11-15 2021-11-15 그래프 독해 기반 지식 추출을 위한 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20230070968A true KR20230070968A (ko) 2023-05-23

Family

ID=86336222

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210157084A KR20230070968A (ko) 2021-11-15 2021-11-15 그래프 독해 기반 지식 추출을 위한 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR20230070968A (ko)
WO (1) WO2023085500A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229883B2 (en) * 2009-03-30 2012-07-24 Sap Ag Graph based re-composition of document fragments for name entity recognition under exploitation of enterprise databases
US9817823B2 (en) * 2013-09-17 2017-11-14 International Business Machines Corporation Active knowledge guidance based on deep document analysis
CN109271525A (zh) * 2018-08-08 2019-01-25 北京百度网讯科技有限公司 用于生成知识图谱的方法、装置、设备以及计算机可读存储介质
KR102309375B1 (ko) * 2019-06-26 2021-10-06 주식회사 카카오 지식그래프 색인 방법 및 장치
KR102292040B1 (ko) * 2019-10-11 2021-08-23 주식회사 솔트룩스 기계 독해 기반 지식 추출을 위한 시스템 및 방법

Also Published As

Publication number Publication date
WO2023085500A1 (ko) 2023-05-19

Similar Documents

Publication Publication Date Title
RU2628436C1 (ru) Классификация текстов на естественном языке на основе семантических признаков
WO2019229769A1 (en) An auto-disambiguation bot engine for dynamic corpus selection per query
US7953754B2 (en) Method and system for finding the focus of a document
RU2626555C2 (ru) Извлечение сущностей из текстов на естественном языке
US10503830B2 (en) Natural language processing with adaptable rules based on user inputs
KR102292040B1 (ko) 기계 독해 기반 지식 추출을 위한 시스템 및 방법
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
US10614093B2 (en) Method and system for creating an instance model
RU2640297C2 (ru) Определение степеней уверенности, связанных со значениями атрибутов информационных объектов
US20230030086A1 (en) System and method for generating ontologies and retrieving information using the same
CN113157930A (zh) 基于多源异构数据的知识图谱构建方法、系统以及终端
Stancheva et al. A model for generation of test questions
CN109840255A (zh) 答复文本生成方法、装置、设备及存储介质
US11893347B2 (en) Contrastive meta-learning for zero-shot learning
US20220300831A1 (en) Context-aware entity linking for knowledge graphs
US20220358379A1 (en) System, apparatus and method of managing knowledge generated from technical data
Kalo et al. Knowlybert-hybrid query answering over language models and knowledge graphs
Jabalameli et al. Ontology‐lexicon–based question answering over linked data
JP2013250926A (ja) 質問応答装置、方法、及びプログラム
Palshikar et al. RINX: A system for information and knowledge extraction from resumes
KR20230070968A (ko) 그래프 독해 기반 지식 추출을 위한 시스템 및 방법
Sumithra et al. Information retrieval in financial documents
Murugesh et al. Retracted article: an integrated approach towards automated software requirements elicitation from unstructured documents
KR102130779B1 (ko) 기계 독해를 위한 문서를 제공하는 시스템 및 이를 포함하는 질의 응답 시스템
US11017172B2 (en) Proposition identification in natural language and usage thereof for search and retrieval