KR20220039576A - 요약 생성 방법, 장치, 전자 기기 및 기록 매체 - Google Patents

요약 생성 방법, 장치, 전자 기기 및 기록 매체 Download PDF

Info

Publication number
KR20220039576A
KR20220039576A KR1020210113179A KR20210113179A KR20220039576A KR 20220039576 A KR20220039576 A KR 20220039576A KR 1020210113179 A KR1020210113179 A KR 1020210113179A KR 20210113179 A KR20210113179 A KR 20210113179A KR 20220039576 A KR20220039576 A KR 20220039576A
Authority
KR
South Korea
Prior art keywords
node
word
text
representation
processed
Prior art date
Application number
KR1020210113179A
Other languages
English (en)
Inventor
원하오 우
웨이 리
씬옌 씨아오
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20220039576A publication Critical patent/KR20220039576A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 출원은 요약 생성 방법, 장치, 전자 기기 및 기록 매체를 개시하였으며, 자연어 처리, 딥 러닝 및 지식 그래프 분야에 관한 것이다. 그중 방법은 처리될 텍스트에 대응하는 지식 그래프를 획득하고 지식 그래프 중 노드는 처리될 텍스트 중 시맨틱 개념을 표시하고 지식 그래프 중 에지는 시맨틱 개념 간의 시맨틱 관계를 표시하며; 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻으며; 각각의 단어의 문맥 인코딩 표현에 따라 지식 그래프 중 각각의 노드의 초기 표현을 결정하며; 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻으며; 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻는 단계를 포함할 수 있다. 본 출원 상기 방안을 응용하여 생성된 요약의 시맨틱 일관성 및 정확성 등을 향상시킬 수 있다.

Description

요약 생성 방법, 장치, 전자 기기 및 기록 매체 {ABSTRACTION GENERATION METHOD AND DEVICE, ELECTRONIC EQUIPMENT AND STORAGE MEDIUM}
본 출원은 컴퓨터 응용 기술에 관한 것이며, 구체적으로 자연어 처리(natural language processing), 딥러닝(deep learning) 및 지식 그래프(knowledge graph) 분야의 요약 생성 방법, 장치, 전자 기기 및 기록 매체에 관한 것이다.
자동 요약 기술은 하나 이상의 주제와 관련된 텍스트(문서)에 대한 요약을 자동으로 생성하는 것을 말한다. 오늘날의 정보 폭발에서 자동 요약 기술은 독자에게 간결하고 중요한 요약 정보를 제공하여 독자의 읽기 시간을 크게 절약하고 정보 획득의 효율성을 향상시킬 수 있다.
현재 가장 일반적으로 사용되는 자동 요약 방법에는 추출 방법과 생성 방법이 있다. 그중 추출 방법은 텍스트에서 복수개의 중요한 문장을 추출하여 요약하는 것을 말한다. 생성 방법은 일반적으로 종단 간 생성 아키텍처(end-to-end generating architecture)를 채택한다. 먼저 디코더를 사용하여 텍스트 정보를 고차원 벡터에 매핑한 다음 디코더를 사용하여 고차원 벡터를 디코딩하여 요약을 생성한다.
그러나 추출 방법으로 추출한 문장은 시맨틱 일관성과 정확성이 부족한 경우가 많다. 또한 생성 방법은 사람처럼 텍스트의 시맨틱을 제대로 이해하지 못하고 생성된 요약의 정확도도 떨어진다.
이에 감안하여, 본 출원은 요약 생성 방법, 장치, 전자 기기 및 기록 매체를 제공한다.
요약 생성 방법은:
처리될 텍스트에 대응하는 지식 그래프를 획득하고, 상기 지식 그래프 중 노드는 상기 처리될 텍스트 중 시맨틱 개념을 표시하고, 상기 지식 그래프 중 에지는 시맨틱 개념 간의 시맨틱 관계를 표시하는 단계;
상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻는 단계;
각각의 단어의 문맥 인코딩 표현에 따라 상기 지식 그래프 중 각각의 노드의 초기 표현을 각각 결정하는 단계;
각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는 단계;
각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는 단계를 포함한다.
요약 생성 장치는 그래프 파싱 모듈, 단어 인코딩 모듈, 융합 모듈, 그래프 인코딩 모듈 및 그래프 디코딩 모듈을 포함한다;
상기 그래프 파싱 모듈은 처리될 텍스트에 대응하는 지식 그래프를 획득하는데 사용되고, 상기 지식 그래프 중 노드는 상기 처리될 텍스트 중 시맨틱 개념을 표시하고, 상기 지식 그래프 중 에지는 시맨틱 개념 간 시맨틱 관계를 표시하며;
상기 단어 인코딩 모듈은 상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻는데 사용되며;
상기 융합 모듈은 각각의 단어의 문맥 인코딩 표현에 따라 상기 지식 그래프 중 각각의 노드의 초기 표현을 각각 결정하는데 사용되며;
상기 그래프 인코딩 모듈은 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는데 사용되며;
상기 그래프 디코딩 모듈은 각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는데 사용된다.
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어 상기 적어도 하나의 프로세서로 하여금 상기 방법을 수행하도록 한다.
컴퓨터 명령이 기억되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 컴퓨터 명령은 상기 컴퓨터로 하여금 상기 방법을 수행하도록 한다.
상기 출원의 하나의 실시예는 다음과 같은 이점 또는 유익한 효과를 가진다: 종단 간 생성 아키텍처에 기반하여 텍스트 정보를 지식 그래프 구조 정보로 전환하고, 문맥 정보를 고려한 단어 수준 인코딩을 기반으로 텍스트 중 시맨틱 개념 및 시맨틱 개념 간 시맨틱 관계를 명시적으로 모델링하여 텍스트 중 중요한 정보를 보다 명확하고 정확하게 이해하고 필터링할 수 있으며, 생성된 요약의 시맨틱 일관성 및 정확성 등을 향상시킨다.
본 명세서에서 설명된 내용은 본 개시의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 개시의 범위를 제한하기 위한 것도 아님을 이해해야 한다. 본 개시의 다른 특징은 이하의 설명을 통하여 용이하게 이해될 것이다.
도면은 본 방안을 더 잘 이해하기 위해서만 사용되며 본 출원을 제한하지 않는다. 여기서:
도 1은 본 출원에 따른 요약 생성 방법 실시예의 흐름도이다;
도 2는 본 출원에 따른 지식 그래프의 개략도이다;
도 3은 본 출원에 따른 요약 생성 방법의 전체 구현 과정 개략도이다;
도 4는 본 출원에 따른 요약 생성 장치 실시예(40)의 조성 구조 개략도이다;
도 5는 본 출원 실시예에 따른 방법의 전자 기기의 블럭도이다.
이하, 도면을 참조하여 본 출원의 시범적인 실시예를 기술하는 바, 본 출원에 대한 이해를 돕기 위해 여기에는 본 출원 실시예의 다양한 세부 사항이 포함되며, 이러한 세부 사항을 단지 시범적인 것으로 간주해야 할 것이다. 따라서, 당업자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에서, 여기서 설명되는 실시예에 대해 다양한 변경 및 수정을 수행할 수 있음을 인식해야 한다. 마찬가지로, 명확성 및 간결성을 위하여 이하의 기술에서는 잘 알려진 기능 및 구조의 기술을 생략하였다.
또한 본 명세서에서 "및/또는"이라는 용어는 연관된 개체를 설명하는 연관 관계일 뿐이며, 이는 세 가지 관계가 있을 수 있음을 의미한다. 예를 들어 A 및/또는 B는 A가 단독으로 존재함, A와 B가 동시에 존재함, B가 단독으로 존재함 3가지 경우를 나타낸다. 또한 본 명세서에서 문자 "/"는 일반적으로 전후의 관련 개체가 "또는" 관계가 있음을 나타낸다.
도 1은 본 출원에 따른 요약 생성 방법 실시예의 흐름도이다. 도 1에 나타낸 바와 같이 아래의 구체적인 구현 방식을 포함한다.
단계 101: 처리될 텍스트에 대응하는 지식 그래프를 획득하고 지식 그래프의 노드는 처리될 텍스트의 시맨틱 개념(semantic concept)을 나타내고, 지식 그래프의 에지는 시맨틱 개념 간의 시맨틱 관계(semantic relation)를 나타낸다.
단계 102: 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현(context encoding representation)을 얻는다.
단계 103: 각각의 단어의 문맥 인코딩 표현에 따라 지식 그래프(knowledge graph)의 각각의 노드의 초기 표현(initial representation)이 각각 결정된다.
단계 104: 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현(node representation)을 얻는다.
단계 105: 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻는다.
상기 실시예에서 종단 간 생성 아키텍처에 기반하여 텍스트 정보를 지식 그래프 구조 정보로 전환한다. 문맥 정보를 고려한 단어 수준 인코딩을 기반으로 텍스트 중 시맨틱 개념 및 시맨틱 개념 간의 시맨틱 관계를 명시적으로 모델링하여 텍스트 중 중요한 정보를 보다 명확하고 정확하게 이해하고 필터링할 수 있으며, 생성된 요약의 시맨틱 일관성 및 정확성 등을 향상시킨다.
처리될 텍스트는 N개 텍스트를 포함할 수 있으며, N은 양의 정수이며, 구체적인 값은 실제 수요에 따라 결정될 수 있다. 즉, 처리될 텍스트는 하나의 텍스트만 포함할 수도 있고, 복수개 텍스트를 포함할 수도 있으며, 텍스트가 복수개인 경우 복수개 텍스트는 주제 관련 텍스트이다.
단계 101에 설명된 바와 같이, 처리될 텍스트에 대응하는 지식 그래프를 얻을 수 있고, 지식 그래프의 노드는 처리될 텍스트의 시맨틱 개념을 나타내고, 지식 그래프의 에지는 시맨틱 개념 간의 시맨틱 관계를 나타낸다.
텍스트의 시맨틱 개념 및 시맨틱 개념 간의 시맨틱 관계는 텍스트 이해 및 요약 생성 시 정보 선택 등에 중요한 역할을 한다. 처리될 텍스트에 대하여 그래프 파서와 같은 텍스트 분석 도구를 통해 해당 지식 그래프를 얻을 수 있다. 즉 텍스트 구조를 시맨틱 구조를 가진 그래프 표현으로 전환한다. 구문 분석에 기반하여 전환된 지식 그래프는 텍스트에서 더 작고 완전한 시맨틱 개념을 노드로 효과적으로 추출하고, 시맨틱 개념 간 시맨틱 관계를 에지로 표현한다. 시맨틱 개념은 나눌 수 있는 가장 작은 시맨틱 단위로 이해될 수도 있다.
도 2는 본 출원에 따른 지식 그래프의 개략도이다. 도 2에 나타낸 바와 같이, 처리될 텍스트에 하나의 텍스트를 포함한다고 가정할 때 상기 텍스트에는 아래의 내용을 포함한다: 독일의 이론 물리학자(a German theoretical physicist)인 알베르트 아인슈타인(Albert Einstein)은 상대론(published the theory of relativity)을 발표하여 노벨상(He won the Nobel Prize)을 수상했으며, 상대론은 현대 물리학의 두 기둥 중 하나(The theory of relativity is one of the two pillars of modern physics)이다. 이 위대한 수상은 광전효과에 대한 설명을 표창하기 위한 것이다(The great Prize was for his explanation of the photoelectric effect). 상기 텍스트에 대해 도 2와 같은 지식 그래프를 얻을 수 있다. 서로 다른 문장의 시맨틱 개념 등을 융합하고 시맨틱 관계를 도입함과 동시에 지식 그래프는 또한 문장 간 관계 및 신경망 모델로 모델링하기 어려운 긴 종속 관계를 제공한다.
단계 102에 설명된 바와 같이, 처리될 텍스트에 대하여 단어(token) 수준에서 인코딩되어 각각의 단어의 문맥 인코딩 표현(벡터 표현)을 얻는다. 구체적으로, 미리 훈련된 모듈을 이용하여 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 처리될 텍스트 중 각각의 단어의 문맥 인코딩 표현을 얻는다. 처리될 텍스트에 대해 단어 수준의 인코딩을 수행함으로써 텍스트 문맥 관련 시맨틱을 보존할 수 있다.
단계 103에 설명된 바와 같이, 각각의 단어의 문맥 인코딩 표현을 얻은 후, 또한 각각의 단어의 문맥 인코딩 표현에 따라 지식 그래프 중 각각의 노드의 초기 표현(벡터 표현)을 각각 결정할 수 있다.
그 중 임의의 노드에 대해, 상기 노드에 대응하는 융합될 단어를 얻을 수 있다면 융합될 단어의 문맥 인코딩 표현에 따라 상기 노드의 초기 표현을 결정할 수 있고, 융합될 단어의 수는 1보다 크다. 그렇지 않다면 상기 노드에 대응하는 시맨틱 개념의 문맥 인코딩 표현을 상기 노드의 초기 표현으로 할 수 있고, 상기 노드에 대응하는 시맨틱 개념은 하나의 단어이다.
구체적으로, 대응하는 시맨틱 개념이 단어인 임의의 노드에 대해, 상기 단어가 처리될 텍스트 중 적어도 두 개 서로 다른 위치에 나타나는 것으로 판단되면, 서로 다른 위치에 나타나는 상기 단어는 해당 노드에 대응하는 융합될 단어로 간주될 수 있다. 상기 단어의 표현 방식과 다르지만 표현되는 시맨틱이 같은 다른 단어가 존재함이 확인되면, 상기 다른 단어 및 상기 단어를 상기 노드에 대응하는 융합될 단어로 사용할 수 있다.
동일한 단어에 대해, 처리될 텍스트 중 서로 다른 위치에 나타날 경우, 그 문맥 인코딩 표현은 다를 수도 있다. 예를 들면, 특정 노드 a에 대해, 이에 대응하는 시맨틱 개념이 단어 a이고, 단어 a가 처리될 텍스트의 3개 서로 다른 위치에 나타날 경우 이 3개 서로 다른 위치에 나타난 단어 a를 모두 노드 a에 대응하는 융합될 단어로 할 수 있다.
또한 특정 노드 a에 대해, 이에 대응하는 시맨틱 개념이 단어 a이고, 단어 b와 단어 a의 표현 방식이 다르나 표현하는 시맨틱이 단어 a이고, 즉 양자가 표현하는 시맨틱이 같으면 단어 b와 단어 a는 모두 노드 a에 대응하는 융합될 단어로 사용할 수 있다.
또한, 대응하는 시맨틱 개념이 구(phrase)(둘 이상의 단어의 결합)인 임의의 노드에 대해, 처리될 텍스트의 각각의 위치에 나타나는, 상기 구를 조성하는 각각의 단어를 모두 상기 노드에 대응하는 융합될 단어로 하며, 상기 노드에 대응하는 시맨틱 개념과 표현 방식이 다르지만 표현하는 시맨틱이 같은 단어가 존재함이 확인되면 결정된 단어도 상기 노드에 대응하는 융합될 단어로 할 수 있다.
도 2에 나타낸 노드 “Albert Einstein”를 예로 들면, 이에 대응하는 시맨틱 개념이 구이고, “Albert”와 “Einstein” 두 개 단어로 조성되면 이 두 개 단어를 모두 상기 노드에 대응하는 융합될 단어로 할 수 있고, 이 두 개 단어가 모두 처리될 텍스트의 두 개 서로 다른 위치에 나타나면 서로 다른 위치에 나타난 이 두 개 단어를 모두 상기 노드에 대응하는 융합될 단어로 할 수 있다. 또한 도 2에 나타낸 바와 같이, 단어 “he” 및 “his”와 “Albert Einstein”의 표현 방식은 다르나 표현하는 시맨틱은 모두 “Albert Einstein” 이면 “he” 및 “his”도 상기 노드에 대응하는 융합될 단어로 사용할 수 있다.
지식 그래프 중 임의의 노드에 대해, 이에 대응하는 시맨틱 개념과 표현 방식이 상이하나 표현하는 시맨틱이 같은 단어가 있다고 결정될 경우, 상기 노드를 공지칭(共指, coreference) 관계 노드라고 부를 수 있다. 도 2에 나타낸 노드 “Albert Einstein” 및 “the Nobel Prize” 등에서 노드 “the Nobel Prize”에 대해, “the great Prize”와 그 표현 방식은 다르나 표현되는 시맨틱은 “the Nobel Prize”이다.
이상 융합될 단어를 결정하는 방식은 예시일 뿐이며, 본 출원의 기술적 방안을 제한하기 위해 사용되는 것은 아니며 구체적인 구현 방법은 실제 필요에 따라 결정될 수 있다.
임의의 노드에 대해, 노드의 초기 표현은 이에 대응하는 융합될 단어의 문맥 인코딩 표현에 따라 결정될 수 있다. 예를 들어, 상기 노드에 대응하는 각각의 융합될 단어의 문맥 인코딩 표현의 합을 계산하고, 그 합과 상기 노드에 대응하는 융합될 단어의 수의 몫을 계산하고, 계산된 몫을 상기 노드의 초기 표현으로 사용할 수 있다.
처리될 텍스트는 상술한 “Albert Einstein, a German theoretical physicist, published the theory of relativity; He won the Nobel Prize; The theory of relativity is one of the two pillars of modern physics; The great Prize was for his explanation of the photoelectric effect.”이고, 이에 대응하는 지식 그래프는 도 2에 나타낸 바와 같다고 가정한다. 그중 노드 “Albert Einstein”를 예로 들면, 두 개 단어 “Albert”와 “Einstein”로 조성되고, 이 두 개 단어는 처리될 텍스트에서 모두 하나의 위치에만 나타나면 이들을 모두 상기 노드의 융합될 노드로 사용할 수 있다. 또한, 단어 “he” 및 “his”는 “Albert Einstein”의 표현 방식과 다르나 표현하는 시맨틱은 “Albert Einstein”이므로 상기 노드에 대응하는 융합될 단어로 사용할 수 있다. 이렇게 모두 4개 융합될 단어를 얻을 수 있고, 이 4개 융합될 단어의 문맥 인코딩 표현을 합하고 4로 그 합을 나누어 얻은 몫을 노드 “Albert Einstein”의 초기 표현으로 사용할 수 있다.
상기 처리를 통해 지식 그래프의 각각의 노드의 초기 표현을 정확하게 획득할 수 있으며 후속 처리를 위한 좋은 기반을 마련할 수 있다.
단계 104에 설명된 바와 같이, 각각의 노드의 초기 표현 및 각각의 노드 간의 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현(벡터 표현)을 얻으며, 그래프 인코더를 이용해 지식 그래프에 대해 노드 수준의 인코딩을 수행하여 지식 그래프 구조를 고려한 노드 표현을 얻는다.
그래프 신경망을 기반으로 한 기존의 그래프 인코더는 다중 홉 관계(multi-hop relationship)를 잘 모델링할 수 없는 경우가 많지만 다중 홉 관계는 실제 응용 프로그램에서 종종 매우 중요하다. 특히 본 출원에서는 처리될 텍스트를 지식 그래프로 전환한 후, 문장의 주어와 목적어가 2차 이웃 관계인 경우가 많으며 주어와 목적어의 관계가 주어와 술어 및 술어와 목적어보다 더 중요한 경우가 많다.
따라서, 본 출원에서는 지식 그래프에서 노드와 2차 이웃 노드 사이에 첩경(shortcut) 에지를 추가하는 것을 제안한다. 임의의 노드에 대해, 그 2차 이웃 노드는 다른 노드를 통해 상기 노드에 연결된다. 도 2에 표시된 노드 “Albert Einstein”를 예로 들면, 노드 “the Nobel Prize” 등은 그 2차 이웃 노드이고, 2차 이웃 노드 “the Nobel Prize” 등과 노드 “Albert Einstein”를 에지를 통해 직접 연결할 수 있다. 또한 각각의 노드의 초기 표현 및 첩경 에지 추가 후의 각각의 노드 간의 연결 관계에 따라 인코딩을 수행하여 각각의 노드의 노드 표현을 얻을 수 있다.
상기 처리 방법에서 노드에서 그 2차 이웃 노드로의 첩경 에지를 추가함으로써 그래프 인코더의 그래프 중 다중 홉 관계에 대한 모델링을 강화할 수 있으므로 획득한 노드 표현의 정확성 등을 향상시킬 수 있다.
단계 105에 설명된 바와 같이, 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻을 수도 있다. 즉 그래프 디코더를 이용하여 지식 그래프의 각각의 노드의 노드 표현에 따라 디코딩하여 최종적으로 필요한 처리될 텍스트의 요약을 얻을 수 있다.
바람직하게는, 그래프에 의해 전달되는 주의력 메커니즘(attention mechanism)에 기반하여 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻을 수 있다. 기존의 주의력 메커니즘은 종종 그래프의 구조를 고려하지 않고 코딩 정보에 대한 선형 직렬화 처리이다. 본 출원은 그래프가 전달하는 주의력 메커니즘을 사용할 수 있음을 제안한다. 즉 기존의 주의력 메커니즘과 같이 먼저 각각의 노드의 중요도를 선형으로 예측한 다음 중요도를 그래프에서 확산하여 그래프 구조를 고려한 주의를 얻음으로써 디코딩 결과의 정확성 등을 향상시킨다.
또한 지식 그래프의 도움으로 인코딩 및 디코딩하고 상기 그래프가 전달하는 주의력 메커니즘 등의 도움으로 기존 방법보다 더 효과적이고 정확하게 긴 텍스트를 입력할 수 있다.
상술한 설명에 기반하여 도 3은 본 출원에 따른 요약 생성 방법의 전체 구현 과정 개략도이다. 도 3에 나타낸 바와 같이, 전 처리 단계에서 그래프 파서를 사용하여 처리될 텍스트에 대응하는 지식 그래프를 파싱하여 얻을 수 있으며, 처리될 텍스트에 대해, 미리 훈련된 모델을 사용하여 단어 수준의 인코딩을 수행하여 처리될 텍스트의 각각의 단어의 문맥 인코딩 표현을 얻을 수 있다. 다음 얻은 각각의 단어의 문맥 인코딩 표현에 따라 융합 등 처리를 통해 지식 그래프 중 각각의 노드의 초기 표현을 얻은 후 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계 등에 따라 인코딩하여 각각의 노드의 노드 표현을 얻고, 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻고, 그중 디코딩 시 그래프가 전달한 주의력 메커니즘 등을 사용할 수 있다.
처리할 텍스트에 대응하는 지식 그래프를 얻는 방법, 각 단어의 컨텍스트 인코딩 표현을 얻는 방법, 인코딩 및 디코딩을 수행하는 방법은 모두 기존 기술이며, 기타 구체적인 구현에 대해서는 앞서 언급한 관련 설명을 참조하고 설명을 생략한다.
또한 설명해야 할 점은 전술한 방법 실시예의 경우 간단한 설명을 위해 일련의 동작 조합으로 표현하였지만 당업자는 본 출원이 설명된 순서에 의해 제한되지 않음을 알아야 한다. 본 출원에 따르면 특정 단계는 기타 순서를 사용하거나 또는 동시에 수행할 수 있기 때문이다. 둘째, 당업자라면 명세서에 기술된 실시예가 모두 바람직한 실시예이며 관련된 동작 및 모듈이 본 출원에서 반드시 필요한 것은 아님을 알 수 있다.
이상 방법 실시예에 대한 설명이고 아래에 장치 실시예를 통해 본 출원에 따른 방안을 추가로 설명한다.
도 4는 본 출원에 따른 요약 생성 장치 실시예(40)의 조성 구조 개략도이다. 도 4에 나타낸 바와 같이 그래프 파싱 모듈(401), 단어 인코딩 모듈(402), 융합 모듈(403), 그래프 인코딩 모듈(404) 및 그래프 디코딩 모듈(405)을 포함한다.
그래프 파싱 모듈(401)은 처리될 텍스트에 대응하는 지식 그래프를 획득하는데 사용된다. 지식 그래프의 노드는 처리될 텍스트의 시맨틱 개념을 표시하고, 지식 그래프의 에지는 시맨틱 개념 간의 시맨틱 관계를 표현한다.
단어 인코딩 모듈(402)은 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻는데 사용된다.
융합 모듈(403)은 각각의 단어의 문맥 인코딩 표현에 따라 지식 그래프 중 각각의 노드의 초기 표현을 결정하는데 사용된다.
그래프 인코딩 모듈(404)은 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는데 사용된다.
그래프 디코딩 모듈(405)은 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻는데 사용된다.
그중에서 처리될 텍스트는 N개 텍스트를 포함하고, N은 자연수이다. 즉, 처리될 텍스트에는 하나의 텍스트만 포함될 수 있고, 복수개 텍스트를 포함할 수도 있고, 복수개일 경우 이 복수개 텍스트는 통상적으로 주제에 관련된 텍스트이다.
처리될 텍스트에 대해, 그래프 파싱 모듈(401)은 그래프 파서와 같은 텍스트 분석 도구를 통해 이에 대응하는 지식 그래프를 얻을 수 있다. 즉 텍스트 구조를 시맨틱 구조를 갖는 그래프 표현으로 변환할 수 있다.
처리될 텍스트에 대해, 단어 인코딩 모듈(402)은 미리 훈련된 모델을 이용하여 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻을 수 있다.
각각의 단어의 문맥 인코딩 표현을 얻은 후, 융합 모듈(403)은 각각의 단어의 문맥 인코딩 표현에 따라 지식 그래프의 각각의 노드의 초기 표현을 각각 결정할 수 있다.
그중에서 융합 모듈(403)은 임의의 노드에 대해 상기 노드에 대응하는 융합될 단어를 얻을 수 있으면 융합될 단어의 문맥 인코딩 표현에 따라 상기 노드의 초기 표현을 결정할 수 있고, 융합될 단어의 수는 1보다 크다. 그렇지 않으면 상기 노드에 대응하는 시맨틱 개념의 문맥 인코딩 표현을 상기 노드의 초기 표현으로 사용할 수 있고, 상기 노드에 대응하는 시맨틱 개념은 하나의 단어이다.
구체적으로, 융합 모듈(403)은 대응하는 시맨틱 개념을 하나의 단어로 하는 임의의 노드에 대해 상기 단어가 처리될 텍스트에서 적어도 두 개의 서로 다른 위치에 나타나는 것으로 판단되면 서로 다른 위치에 나타나는 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 사용할 수 있고, 상기 단어의 표현 방식과 다르지만 표현되는 시맨틱은 같은 기타 단어가 있다고 판단되면 상기 기타 단어 및 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 사용할 수 있다.
또한, 융합 모듈(403)은 대응하는 시맨틱 개념을 구로 하는 임의의 노드에 대해, 처리될 텍스트 중 각각의 위치에 나타나는 상기 구를 조성하는 각각의 단어를 모두 상기 노드에 대응하는 융합될 단어로 사용하고, 상기 노드에 대응하는 시맨틱 개념 표현 방식이 서로 다르나 표현되는 시맨틱이 같은 단어가 있다고 판단되면 결정된 단어를 상기 노드에 대응하는 융합될 단어로 할 수 있다.
임의의 노드에 대해, 융합 모듈(403)은 상기 노드에 대응하는 각각의 융합될 단어의 문맥 인코딩 표현의 합을 계산할 수 있고, 합과 상기 노드에 대응하는 융합될 단어의 수의 몫을 계산하며, 계산된 몫은 상기 노드의 초기 표현으로 사용된다.
추가로, 그래프 인코딩 모듈(404)은 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는다. 바람직하게는, 그래프 인코딩 모듈(404)은 지식 그래프에서 노드와 그것의 2차 이웃 노드 사이의 첩경 에지(shortcut edge)를 추가할 수 있다. 임의의 노드에 대해, 2차 이웃 노드를 하나의 기타 노드와 상기 노드와 연결된 노드로 사용하고, 각각의 노드의 초기 표현 및 첩경 에지를 추가 후의 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는다.
그래프 디코딩 모듈(405)은 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻을 수 있다. 바람직하게는, 그래프 디코딩 모듈(405)은 그래프가 전달한 주의력 메커니즘에 기반하여 각각의 노드의 노드 표현에 따라 디코딩하여 처리될 텍스트의 요약을 얻는다.
도 4에 나타낸 장치 실시예의 구체적인 작업 과정은 전술한 방법 실시예의 관련 설명을 참조하고 설명을 생략한다.
요컨대, 본 출원 장치 실시예에서 설명된 방안을 사용하여 종단 간 생성 아키텍처를 기반으로 텍스트 정보를 지식 그래프 구조 정보로 변환하고, 문맥 정보의 단어 수준 인코딩을 고려한데 기반하여 텍스트의 시맨틱 개념 및 시맨틱 개념 사이의 시맨틱 관계를 명시적으로 모델링하여 텍스트의 중요한 정보를 보다 명확하고 정확하게 이해하고 필터링할 수 있으므로 생성된 요약의 시맨틱 일관성 및 정확성 등이 향상된다.
본 출원의 실시예에 따르면, 본 출원은 전자 기기 및 판독 가능 기록 매체를 더 제공한다.
도 5는 본 출원 실시예의 상기 방법 방법을 구현하기 위한 전자 기기의 개략도이다. 전자 기기는 예를 들면 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 나타낸다. 전자 기기 또한 예를 들면 개인 디지털 처리기, 셀폰, 스마트 전화, 웨어러블 기기 및 기타 유사한 계산 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에 나타낸 구성 요소, 이들의 연결과 관계 및 이들의 기능은 단지 예일 뿐이며, 본 명세서에서 기술하거나 및/또는 요구하는 본 출원의 구현을 한정하려는 것이 아니다.
도 5에 나타낸 바와 같이 상기 전자 기기는 하나 또는 복수의 프로세서(Y01), 메모리(Y02) 및 각각의 구성 요소를 연결하기 위한 인터페이스를 구비하며, 당해 인터페이스는 고속 인터페이스 및 저속 인터페이스를 포함한다. 각각의 구성 요소는 서로 다른 버스를 통해 상호 연결되며, 공통 마더 보드에 설치되거나 또는 수요에 따라 기타 방식으로 설치된다. 프로세서 전자 기기 내에서 수행되는 명령에 대해 처리를 수행할 수 있으며, 메모리 내에 기억되어 외부 입력/출력 장치 (예를 들면 인터페이스에 연결된 디스플레이 기기) 상에 GUI(도면 유저 계면)의 그래픽 정보를 표시하기 위한 명령을 포함한다. 기타 실시 방식에 있어서, 필요할 경우, 복수의 프로세서 및/또는 복수의 버스와 복수의 메모리를 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결할 수 있으며, 각각의 기기는 부분적인 필요한 조작 (예를 들면, 서버 어레이, 일 그룹의 블레이드 서버, 또는 다중 프로세서 시스템)을 제공한다. 도 5에서는 하나의 프로세서(Y01)의 예를 들었다.
메모리(Y02)는 본 출원에 의해 제공되는 비 일시적 컴퓨터 판독 가능 기록 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 적어도 하나의 프로세서로 하여금 본 출원에 의해 제공되는 방법을 수행하도록 한다. 본 출원의 비 일시적 컴퓨터 판독 가능 기록 매체는 컴퓨터 명령을 기억하며, 상기 컴퓨터 명령은 컴퓨터로 하여금 본 출원에 의해 제공되는 언어 모델에 기반하여 단어 벡터를 획득하는 방법을 수행하도록 한다.
메모리(Y02)는 일종의 비 일시적 컴퓨터 판독 가능 기록 매체로서, 비 일시적 소프트웨어 프로그램, 비 일시적 컴퓨터 수행 가능 프로그램 및 모듈을 기억하는데 사용될 수 있는 바, 예를 들면 본 출원 실시예의 방법에 대응하는 프로그램 명령/모듈을 기억하는데 사용될 수 있다. 프로세서(Y01)는 메모리(Y02) 내에 기억된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 운행함으로써, 서버의 다양한 기능 응용 및 데이터 처리를 수행하는 바, 상술한 방법 실시예의 방법을 구현한다.
메모리(Y02)는 프로그램 기억 영역 및 데이터 기억 영역을 포함할 수 있으며, 여기서, 프로그램 기억 영역은 운영 체제 및 적어도 하나의 기능에 필요한 앱을 기억할 수 있고, 데이터 기억 영역은 전자 기기의 사용을 통해 생성된 데이터 등을 기억할 수 있다. 또한, 메모리(Y02)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비 일시적 메모리를 더 포함할 수 있는 바, 예를 들면 적어도 하나의 자기 디스크 저장 장치, 플래시 장치, 또는 기타 비 일시적 고체 저장 장치를 포함할 수 있다. 일부 실시예에 있어서, 메모리(Y02)는 선택적으로 프로세서(Y01)에 대해 원격 설치한 메모리를 포함할 수 있으며, 이러한 원격 메모리는 네트워크를 통해 전자 기기에 연결될 수 있다. 상술한 네트워크의 실시예는 인터넷, 기업 인트라 넷, 근거리 통신망, 이동 통신 네트워크 및 이들의 조합을 포함하나 이에 한정되지 않는다.
전자 기기는 입력 장치(Y03) 및 출력 장치(Y04)를 더 포함할 수 있다. 프로세서(Y01), 메모리(Y02), 입력 장치(Y03) 및 출력 장치(Y04)는 버스 또는 다른 방식을 통해 연결될 수 있으며, 도 5에서는 버스를 통해 연결하는 예를 들었다.
입력 장치(Y03)는 입력된 디지털 또는 문자 정보를 수신하고 또한 전자 기기의 유저 설정 및 기능 제어에 관한 키 신호 입력을 생성할 수 있다. 예를 들면 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치를 포함할 수 있다. 출력 장치(Y04)는 디스플레이 기기, 보조 조명 장치(예를 들면 LED) 및 촉각 피드백 장치(예를 들면 진동 모터) 등을 포함할 수 있다. 당해 디스플레이 기기는 액정 디스플레이 (LCD), 발광 다이오드 (LED) 디스플레이 및 등 플라즈마 디스플레이를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시 방식에 있어서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명하는 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 실시되고, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템 상에서 수행 및/또는 해석될 수 있으며, 당해 프로그램 가능 프로세서는 전용 또는 일반 프로그램 가능 프로세서일 수 있고, 기억 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 또한 데이터 및 명령을 당해 기억 시스템, 당해 적어도 하나의 입력 장치 및 당해 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 계산 프로그램 (프로그램, 소프트웨어, 소프트웨어 응용 또는 코드로도 불림)은 프로그램 가능 프로세서의 기계 명령을 포함하며, 또한 고급 과정 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 계산 프로그램을 실시할 수 있다. 본 명세서에서 사용되는 “기계 판독 가능 매체” 및 “컴퓨터 판독 가능 매체”와 같은 용어는, 기계 명령 및/또는 데이터를 프로그램 가능 프로세서의 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치 (예를 들면, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치 (PLD))에 제공하기 위한 것을 의미하며, 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. “기계 판독 가능 신호”와 같은 용어는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
유저와의 대화를 제공하기 위하여, 컴퓨터 상에서 여기서 설명하는 시스템 및 기술을 실시할 수 있으며, 당해 컴퓨터는 유저에게 정보를 표시하기 위한 디스플레이 장치 (예를 들면 CRT (음극선관) 또는 LCD (액정 디스플레이) 모니터) 및 키보드와 포인팅 장치 (예를 들면, 마우스 또는 트랙볼)를 구비할 수 있으며, 유저는 당해 키보드 및 당해 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 기타 유형의 장치는 또한 유저와의 대화를 제공하는데 사용될 수 있다. 예를 들면, 유저에 제공하는 피드백은 임의의 형태의 감각 피드백 (예를 들면, 시각적 피드백, 청각적 피드백, 또는 촉각 피드백)일 수 있으며, 또한 임의의 형태(음향 입력, 음성 입력 또는 촉각 입력을 포함함)를 통해 유저로부터의 입력을 수신할 수 있다.
여기서 설명하는 시스템 및 기술을 백엔드 구성 요소를 포함하는 계산 시스템 (예를 들면 데이터 서버), 또는 미들웨어 구성 요소를 포함하는 계산 시스템 (예를 들면 응용 서버), 또는 프런트 엔드 구성 요소를 포함하는 계산 시스템 (예를 들면 그래픽 유저 인터페이스 또는 웹 브라우저를 구비하는 유저 컴퓨터인 바, 유저는 당해 그래픽 유저 인터페이스 또는 당해 웹 브라우저를 통해 여기서 설명하는 시스템 및 기술의 실시 방식과 대화함), 또는 이러한 백엔드 구성 요소, 미들웨어 구성 요소, 또는 프런트 엔드 구성 요소의 임의의 조합을 포함하는 계산 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신 (예를 들면, 통신 네트워크)을 통해 시스템의 구성 요소를 상호 연결할 수 있다. 통신 네트워크의 예는 근거리 통신망 (LAN), 광역 통신망 (WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있고, 또한 일반적으로 통신 네트워크를 통해 대화를 수행한다. 해당되는 컴퓨터 상에서 운행되고, 또한 클라이언트 - 서버 관계를 갖는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 발생시킬 수 있다. 서버는 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 하는 클라우드 서버가 될 수 있으며 기존 물리적 호스트 및 VPS 서비스의 어려운 관리 및 취약한 비즈니스 확장성을 해결하기 위해 클라우드 컴퓨팅 서비스 시스템의 호스트 제품이다.
상기에 나타낸 다양한 형태의 흐름을 이용하여 단계를 재정렬, 증가 또는 삭제할 수 있음을 이해해야 한다. 예를 들면, 본 출원에 기재된 각각의 단계는 병렬로 수행되거나 또는 차례로 수행되거나 또는 다른 순서로 수행될 수 있으며, 본 출원이 개시하는 기술 방안이 원하는 결과를 구현할 수 있는 한, 본 명세서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은 본 출원의 보호 범위를 한정하지 않는다. 당업자는 설계 요건 및 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체를 수행할 수 있음을 이해해야 한다. 본 출원의 정신 및 원칙 내에서 이루어진 임의의 수정 동등한 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (17)

  1. 요약 생성 방법에 있어서,
    처리될 텍스트에 대응하는 지식 그래프를 획득하는 단계 - 상기 지식 그래프 중의 노드는 상기 처리될 텍스트 중의 시맨틱 개념을 표시하고, 상기 지식 그래프 중의 에지(edge)는 시맨틱 개념 간의 시맨틱 관계를 표시함 -;
    상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻는 단계;
    각각의 단어의 문맥 인코딩 표현에 따라 상기 지식 그래프 중 각각의 노드의 초기 표현을 각각 결정하는 단계;
    각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는 단계; 및
    각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는 단계;
    를 포함하는,
    요약 생성 방법.
  2. 제1항에 있어서,
    상기 처리될 텍스트는 N개 텍스트를 포함하고, 상기 N은 자연수이며;
    상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하는 단계는:
    미리 훈련된 모델을 이용하여 상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하는 단계;
    를 포함하는,
    요약 생성 방법.
  3. 제1항에 있어서,
    상기 각각의 단어의 문맥 인코딩 표현에 따라 상기 지식 그래프 중 각각의 노드의 초기 표현을 결정하는 단계는:
    임의의 노드에 대하여 상기 노드에 대응하는 융합될 단어를 획득할 수 있으면, 상기 융합될 단어의 문맥 인코딩 표현에 따라 상기 노드의 초기 표현을 결정하고, 획득할 수 없으면, 상기 노드에 대응하는 시맨틱 개념의 문맥 인코딩 표현을 상기 노드의 초기 표현으로 사용하는 단계; 를 포함하고,
    상기 노드에 대응하는 시맨틱 개념은 하나의 단어이며, 상기 융합될 단어의 수는 1보다 큰,
    요약 생성 방법.
  4. 제3항에 있어서,
    상기 노드에 대응하는 융합될 단어를 획득할 수 있는 단계는:
    대응하는 시맨틱 개념이 하나의 단어인 임의의 노드에 대해, 상기 단어가 상기 처리될 텍스트 중 적어도 2개 서로 다른 위치에 나타남이 확인되면, 서로 다른 위치에 나타난 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 하고, 상기 단어와 표현 방식이 다르나 표현되는 시맨틱이 같은 기타 단어가 존재함이 확인되면, 상기 기타 단어 및 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 하는 단계;
    대응하는 시맨틱 개념이 하나의 구(phase)인 임의의 노드에 대해, 상기 처리될 텍스트 중 각각의 위치에 나타나는, 상기 구를 조성하는 각각의 단어를 상기 노드에 대응하는 융합될 단어로 하고, 상기 노드에 대응하는 시맨틱 개념과 표현 방식이 다르지만 표현하는 시맨틱이 같은 단어가 존재함이 확인되면, 확인된 단어도 상기 노드에 대응하는 융합될 단어로 하는 단계;
    를 포함하는,
    요약 생성 방법.
  5. 제3항에 있어서,
    상기 융합될 단어의 문맥 인코딩 표현에 따라 상기 노드의 초기 표현을 결정하는 단계는:
    임의의 노드에 대해, 상기 노드에 대응하는 각각의 융합될 단어의 문맥 인코딩 표현의 합을 계산하고, 상기 합과 상기 노드에 대응하는 융합될 단어의 수의 몫을 계산하고, 계산된 몫을 상기 노드의 초기 표현으로 하는 단계;
    를 포함하는,
    요약 생성 방법.
  6. 제1항에 있어서,
    상기 지식 그래프에 노드와 그 2차 이웃(second-order neighbors) 노드 사이의 첩경 에지(shortcut edge)를 추가하는 단계 - 임의의 노드에 대해 그 2차 이웃 노드는 하나의 기타 노드를 통해 상기 노드와 연결하는 노드임 -;
    각각의 노드의 초기 표현 및 상기 첩경 에지 추가 후의 각각의 노드 간 연결 관계에 따라 인코딩하여, 각각의 노드의 노드 표현을 얻는 단계;
    를 더 포함하는,
    요약 생성 방법.
  7. 제1항에 있어서,
    상기 각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는 단계는:
    그래프에 의해 전달되는 주의력 메커니즘(attention mechanism)에 기반하여, 각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는 단계;
    를 포함하는,
    요약 생성 방법.
  8. 요약 생성 장치에 있어서,
    그래프 파싱 모듈, 단어 인코딩 모듈, 융합 모듈, 그래프 인코딩 모듈 및 그래프 디코딩 모듈을 포함하며;
    상기 그래프 파싱 모듈은 처리될 텍스트에 대응하는 지식 그래프를 획득하는데 사용되며, 상기 지식 그래프 중의 노드는 상기 처리될 텍스트 중의 시맨틱 개념을 표시하고, 상기 지식 그래프 중 에지는 시맨틱 개념 간 시맨틱 관계를 표시하며;
    상기 단어 인코딩 모듈은 상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하여 각각의 단어의 문맥 인코딩 표현을 얻으며;
    상기 융합 모듈은 각각의 단어의 문맥 인코딩 표현에 따라 상기 지식 그래프 중 각각의 노드의 초기 표현을 각각 결정하며;
    상기 그래프 인코딩 모듈은 각각의 노드의 초기 표현 및 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻으며;
    상기 그래프 디코딩 모듈은 각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는,
    요약 생성 장치.
  9. 제8항에 있어서,
    상기 처리될 텍스트는 N개 텍스트를 포함하며, 상기 N은 자연수이고;
    상기 단어 인코딩 모듈은 미리 훈련된 모델을 이용하여 상기 처리될 텍스트에 대해 단어 수준의 인코딩을 수행하는,
    요약 생성 장치.
  10. 제8항에 있어서,
    상기 융합 모듈은 임의의 노드에 대해 상기 노드에 대응하는 융합될 단어를 획득할 수 있으면, 상기 융합될 단어의 문맥 인코딩 표현에 따라 상기 노드의 초기 표현을 결정하고, 상기 융합될 단어의 수는 1보다 크며, 획득할 수 없으면, 상기 노드에 대응하는 시맨틱 개념의 문맥 인코딩 표현을 상기 노드의 초기 표현으로 하고, 상기 노드에 대응하는 시맨틱 개념은 하나의 단어인,
    요약 생성 장치.
  11. 제10항에 있어서,
    상기 융합 모듈은 대응하는 시맨틱 개념이 하나의 단어인 임의의 노드에 대해, 상기 단어가 상기 처리될 텍스트 중 적어도 2개 서로 다른 위치에 나타남이 확인되면, 서로 다른 위치에 나타나는 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 하고, 상기 단어의 표현 방식과 다르나 표현되는 시맨틱이 같은 기타 단어가 존재함이 확인되면, 상기 기타 단어 및 상기 단어를 모두 상기 노드에 대응하는 융합될 단어로 하며;
    상기 융합 모듈은 대응하는 시맨틱 개념이 하나의 구인 임의의 노드에 대해, 상기 처리될 텍스트 중 각각의 위치에 나타나는, 상기 구를 조성하는 각각의 단어를 모두 상기 노드에 대응하는 융합될 단어로 하고, 상기 노드에 대응하는 시맨틱 개념 표현 방식이 다르나 표현되는 시맨틱이 같은 단어가 존재함이 확인되면, 확인된 단어를 상기 노드에 대응하는 융합될 단어로 하는,
    요약 생성 장치.
  12. 제10항에 있어서,
    상기 융합 모듈은 임의의 노드에 대해, 상기 노드에 대응하는 각각의 융합될 단어의 문맥 인코딩 표현 합을 계산하고, 상기 합과 상기 노드에 대응하는 융합될 단어의 수의 몫을 계산하고, 계산하여 얻은 몫을 상기 노드의 초기 표현으로 하는,
    요약 생성 장치.
  13. 제8항에 있어서,
    상기 그래프 인코딩 모듈은:
    상기 지식 그래프에 노드와 그 2차 이웃 노드 간 첩경 에지를 추가하고, 임의의 노드에 대해 그 2차 이웃 노드는 하나의 기타 노드를 통해 상기 노드와 연결하는 노드이고, 각각의 노드의 초기 표현 및 상기 첩경 에지 추가 후의 각각의 노드 간 연결 관계에 따라 인코딩하여 각각의 노드의 노드 표현을 얻는,
    요약 생성 장치.
  14. 제8항에 있어서,
    상기 그래프 디코딩 모듈은 그래프에 의해 전달되는 주의력 메커니즘에 기반하여 각각의 노드의 노드 표현에 따라 디코딩하여 상기 처리될 텍스트의 요약을 얻는,
    요약 생성 장치.
  15. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제7항 중 어느 한 항에 기재된 방법을 수행하도록 하는 ,
    전자 기기.
  16. 컴퓨터 명령이 기억되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항 내지 제7항 중 어느 한 항에 기재된 방법을 수행하도록 하는 ,
    기록 매체.
  17. 비 일시적 컴퓨터 판독 가능 기록 매체에 기억되어 있는 프로그램에 있어서,
    상기 프로그램은 상기 컴퓨터로 하여금 제1항 내지 제7항 중 어느 한 항에 기재된 방법을 수행하도록 하는 ,
    비 일시적 컴퓨터 판독 가능 기록 매체에 기억되어 있는 프로그램.
KR1020210113179A 2020-09-21 2021-08-26 요약 생성 방법, 장치, 전자 기기 및 기록 매체 KR20220039576A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010993704.9A CN112148871B (zh) 2020-09-21 2020-09-21 摘要生成方法、装置、电子设备及存储介质
CN202010993704.9 2020-09-21

Publications (1)

Publication Number Publication Date
KR20220039576A true KR20220039576A (ko) 2022-03-29

Family

ID=73893401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210113179A KR20220039576A (ko) 2020-09-21 2021-08-26 요약 생성 방법, 장치, 전자 기기 및 기록 매체

Country Status (5)

Country Link
US (1) US20220092252A1 (ko)
EP (1) EP3971761A1 (ko)
JP (1) JP7178441B2 (ko)
KR (1) KR20220039576A (ko)
CN (1) CN112148871B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595192A (zh) * 2023-05-18 2023-08-15 中国科学技术信息研究所 科技前沿信息获取方法、装置、电子设备和可读存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114580354B (zh) * 2022-05-05 2022-10-28 阿里巴巴达摩院(杭州)科技有限公司 基于同义词的信息编码方法、装置、设备和存储介质
CN116484870B (zh) * 2022-09-09 2024-01-05 北京百度网讯科技有限公司 提取文本信息的方法、装置、设备及介质
CN115905598B (zh) * 2023-02-24 2023-05-16 中电科新型智慧城市研究院有限公司 一种社会事件摘要生成的方法、装置、终端设备及介质
CN116484010B (zh) * 2023-03-15 2024-01-16 北京擎盾信息科技有限公司 知识图谱构建方法、装置、存储介质及电子装置
CN116562275B (zh) * 2023-06-09 2023-09-15 创意信息技术股份有限公司 一种结合实体属性图的自动文本摘要方法
CN116561299B (zh) * 2023-07-10 2023-10-20 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 代码摘要生成方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES1049384Y (es) 2001-06-12 2002-09-01 Figueras Int Seating Sa Respaldo para butacas perfeccionado.
US7774198B2 (en) * 2006-10-06 2010-08-10 Xerox Corporation Navigation system for text
US9886501B2 (en) * 2016-06-20 2018-02-06 International Business Machines Corporation Contextual content graph for automatic, unsupervised summarization of content
JP6635307B2 (ja) 2016-10-20 2020-01-22 日本電信電話株式会社 要約生成装置、テキスト変換装置、方法、及びプログラム
JP6622236B2 (ja) 2017-03-06 2019-12-18 株式会社日立製作所 発想支援装置及び発想支援方法
CN109657051A (zh) * 2018-11-30 2019-04-19 平安科技(深圳)有限公司 文本摘要生成方法、装置、计算机设备及存储介质
US11615240B2 (en) * 2019-08-15 2023-03-28 Salesforce.Com, Inc Systems and methods for a transformer network with tree-based attention for natural language processing
CN111506725B (zh) * 2020-04-17 2021-06-22 北京百度网讯科技有限公司 生成摘要的方法和装置
US11397575B2 (en) * 2020-12-15 2022-07-26 Sap Se Microservices graph generation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595192A (zh) * 2023-05-18 2023-08-15 中国科学技术信息研究所 科技前沿信息获取方法、装置、电子设备和可读存储介质
CN116595192B (zh) * 2023-05-18 2023-11-21 中国科学技术信息研究所 科技前沿信息获取方法、装置、电子设备和可读存储介质

Also Published As

Publication number Publication date
JP7178441B2 (ja) 2022-11-25
EP3971761A1 (en) 2022-03-23
US20220092252A1 (en) 2022-03-24
CN112148871A (zh) 2020-12-29
JP2022051666A (ja) 2022-04-01
CN112148871B (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
KR20220039576A (ko) 요약 생성 방법, 장치, 전자 기기 및 기록 매체
JP7481251B2 (ja) テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
KR102521765B1 (ko) 인과 관계의 판별 방법, 장치, 전자 기기 및 저장 매체
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
KR20190073525A (ko) 기계 학습 작업의 암시적 브리징
KR20210092152A (ko) 핵심 엔티티를 레이블링하는 방법, 장치 및 전자 기기
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
JP2023007367A (ja) 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体
KR20220011082A (ko) 자연 언어 처리 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체
US20210319335A1 (en) Question analysis method, device, knowledge base question answering system and electronic equipment
CN110597959A (zh) 文本信息抽取方法、装置以及电子设备
CN111144108A (zh) 情感倾向性分析模型的建模方法、装置和电子设备
KR20210158815A (ko) 트리플 샘플 생성 방법, 장치, 전자 기기 및 기록 매체
KR102561951B1 (ko) 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체
CN112560846B (zh) 纠错语料的生成方法、装置及电子设备
JP2022006173A (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
CN112507697A (zh) 事件名的生成方法、装置、设备及介质
CN114281968A (zh) 一种模型训练及语料生成方法、装置、设备和存储介质
CN111831814A (zh) 摘要生成模型的预训练方法、装置、电子设备和存储介质
KR102606514B1 (ko) 유사도 처리 방법, 장치, 서버, 저장 매체 및 컴퓨터 프로그램
CN112507705B (zh) 一种位置编码的生成方法、装置及电子设备
CN112269884B (zh) 信息抽取方法、装置、设备及存储介质
JP2022017173A (ja) 情報を出力するための方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
CN112507188A (zh) 候选搜索词的生成方法、装置、设备及介质