KR101882906B1 - Device and method to generate abstractive summaries from large multi-paragraph texts, recording medium for performing the method - Google Patents

Device and method to generate abstractive summaries from large multi-paragraph texts, recording medium for performing the method Download PDF

Info

Publication number
KR101882906B1
KR101882906B1 KR1020170030546A KR20170030546A KR101882906B1 KR 101882906 B1 KR101882906 B1 KR 101882906B1 KR 1020170030546 A KR1020170030546 A KR 1020170030546A KR 20170030546 A KR20170030546 A KR 20170030546A KR 101882906 B1 KR101882906 B1 KR 101882906B1
Authority
KR
South Korea
Prior art keywords
neural network
mtgru
paragraph
unit
generating
Prior art date
Application number
KR1020170030546A
Other languages
Korean (ko)
Other versions
KR20180084580A (en
Inventor
이민호
데니스사이 모이랑뎀
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to PCT/KR2017/011747 priority Critical patent/WO2018135723A1/en
Publication of KR20180084580A publication Critical patent/KR20180084580A/en
Application granted granted Critical
Publication of KR101882906B1 publication Critical patent/KR101882906B1/en

Links

Images

Classifications

    • G06F17/2705
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Document Processing Apparatus (AREA)

Abstract

복수 문단 텍스트의 추상적 요약문 생성 장치는, 문서를 문단들로 자동 구분하여 전달하는 입력부; 상기 입력부로부터 전달된 문단을 내부표현 벡터로 변환하고, 다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)를 포함하는 회귀신경망을 통해 변환된 벡터를 내부표현(representation)으로 생성하여 전달하는 부호화 처리부; MTGRU를 포함하는 회귀신경망을 통해 상기 부호화 처리부로부터 전달받은 내부표현을 복호화하고, 언어 모델링을 이용하여 문장들을 생성하는 복호화 처리부; 및 각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력하는 출력부를 포함한다. 이에 따라, 추상적 표현을 생성함으로써 보다 사람이 작성한 요약에 가까운 요약문을 생성할 수 있다.An apparatus for generating an abstract summary of a plurality of paragraph texts includes an input unit for automatically classifying a document into paragraphs and transmitting the same; Converts a paragraph transferred from the input unit into an internal representation vector, and generates a representation of the transformed vector through a regression neural network including multiple timescales gated recurrent units (GRUs) having multiple time constants An encoding processing unit; A decoding processing unit for decoding the internal representation received from the encoding processing unit through a regression neural network including the MTGRU and generating sentences using language modeling; And an output unit for collecting the summary output of each paragraph and outputting the final abstract summary. Accordingly, by generating an abstract expression, it is possible to generate a summary close to a man-made summary.

Description

복수 문단 텍스트의 추상적 요약문 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체{DEVICE AND METHOD TO GENERATE ABSTRACTIVE SUMMARIES FROM LARGE MULTI-PARAGRAPH TEXTS, RECORDING MEDIUM FOR PERFORMING THE METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for generating an abstract summary of a plurality of paragraphs of text, and a recording medium for performing the method. BACKGROUND ART < RTI ID = 0.0 >

본 발명은 복수 문단 텍스트의 추상적 요약문 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체에 관한 것으로서, 더욱 상세하게는 복수 개의 문단을 가지는 텍스트의 문단 별 자동 요약 시스템으로써, 심화 의미의 이해가 가능하고, 단순 단어 추출이 아닌 사람이 작성한 것과 같은 추상적 요약이 가능한 기술에 관한 것이다.The present invention relates to an apparatus and method for generating an abstract summary of a multi-paragraph text, and a recording medium for performing the method. More particularly, the present invention relates to an automatic summary system for paragraphs of text having a plurality of paragraphs, And abstract abstractions such as those written by people other than simple word extraction.

요약(Summarization)은 지난 수십 년 동안 광범위하게 연구되어 왔다. 포괄적으로, 요약 방법은 계산 작업의 유형에 따라 추출 접근법과 추상 접근법으로 분류할 수 있다. 추출(extractive) 요약은 선택 문제인 반면, 추상적(abstractive) 요약은 텍스트의 의미 및 담론에 대한 더 깊은 이해와 새로운 텍스트 생성 과정을 필요로 한다. 과거에는 추출 요약에 초점이 맞추어져 있고, 추상적 요약은 아직 해결해야 할 과제가 많이 있다.Summarization has been extensively studied over the last few decades. In summary, summary methods can be categorized into an extraction approach and an abstract approach, depending on the type of calculation task. While abstracted summaries are a matter of choice, abstract summaries require a deeper understanding of the semantics and discourse of the text and the process of creating a new text. In the past, focus has been focused on extraction summaries, and abstract summaries still have a number of challenges that need to be addressed.

최근에, 시퀀스-투-시퀀스(sequence-to-sequence, 이하 seq2seq) 반복적 신경망(RNNs)은 많은 작업에서 폭넓게 응용되고 있다. 이러한 RNN 인코더-디코더(Cho et al., 2014; Bahdanau et al., 2014)는 표현 학습 인코더와 언어 모델링 디코더를 결합하여 두 시퀀스 간의 매핑을 수행한다. Recently, sequence-to-sequence (SEQ2SEQ) repetitive neural networks (RNNs) have been widely applied in many tasks. Such an RNN encoder-decoder (Cho et al., 2014; Bahdanau et al., 2014) combines an expression learning encoder and a language modeling decoder to perform a mapping between two sequences.

유사하게, 최근의 연구는 입력 시퀀스와 요약 시퀀스 간의 매핑 문제로 요약을 캐스팅할 것을 제안했다. Rush et al. (2015); Nallapati et al. (2016)은 RNN 인코더-디코더가 짧은 텍스트를 요약하는데 매우 뛰어나다는 것을 보여 주었다. 이러한 seq2seq 접근 방식은 의미 및 담화 이해와 텍스트 생성 모두에 대해 완벽한 데이터 중심 솔루션을 제공한다.Similarly, recent research suggested casting a summary as a mapping problem between the input sequence and the summary sequence. Rush et al. (2015); Nallapati et al. (2016) showed that the RNN encoder-decoder is very good at summarizing short text. This seq2seq approach provides a complete data-centric solution for both semantic and discourse understanding and text generation.

seq2seq는 추상적 요약에 대한 유망한 방법을 제공하지만, 과학 기술 문서 요약과 같은 다른 작업으로 방법론을 외삽(extrapolating)하는 것은 쉽지 않으며, 실질적이고 이론적인 아래와 같은 여러 가지 문제가 발생한다.While seq2seq provides a promising way to abstract abstracts, it is not easy to extrapolate the methodology to other tasks, such as a summary of scientific documents, and there are a number of practical and theoretical problems:

1) 전체 기사에 대해 RNN 인코더-디코더를 단순히 학습하기는 어렵다. 현재 GPU의 메모리 용량에 비해, 과학 기사가 너무 길어 RNN을 통해 전체를 처리할 수 없기 때문이다. 2) 한 두 문장에서 여러 문장 또는 여러 단락으로 이동하면, 조합가능성 및 풍부한 담화 구조의 추가 레벨(level)이 도입된다. 이 경우, 어떻게 RNN 인코더-디코더를 더 잘 캡처할 수 있도록 개선할 수 있을까 하는 문제가 발생한다. 3) 딥 러닝(Deep learning)은 좋은 품질, 큰 규모의 데이터 세트에 매우 의존적으로 접근한다. 소스 요약 데이터 쌍을 수집하는 것은 어렵고, 데이터 세트는 뉴스 와이어 도메인 외부에서 부족하다.1) It is difficult to simply learn the RNN encoder-decoder for the entire article. Because the science article is too long compared to the current memory capacity of the GPU, it can not process the whole through the RNN. 2) Moving from one or two sentences to multiple sentences or paragraphs introduces additional levels of combinability and rich discourse structure. In this case, there is a problem of how to improve the RNN encoder-decoder to be able to capture better. 3) Deep learning is highly dependent on good quality, large data sets. It is difficult to collect the source summary data pairs, and the data sets are insufficient outside the news wire domain.

정리하면, 최근 딥러닝 기반 인공지능 기술의 발달로 다수의 딥러닝 모델들이 제안되었으나 여전히 몇몇 어려운 문제들이 남아있다. 자연어 처리 분야에서 추상적(abstractive) 요약은 그 중 하나로, 기존의 요약 시스템은 원문에 존재하는 단어들의 선택적 추출(extraction)을 통해 요약하는 방법을 사용하여 그 표현력에 한계가 명백하였다.In summary, a number of deep learning models have been proposed recently due to the development of deep learning based artificial intelligence technology, but still some difficult problems remain. One of them is the abstractive summary in the field of natural language processing. The existing summary system has a limit to expressiveness by using the method of extracting by extracting the words existing in the original text.

KR 10-2013-0116908 AKR 10-2013-0116908A KR 10-0785927 B1KR 10-0785927 B1

Minsoo Kim, Moirangthem Dennis Singh, and Minho Lee, "Towards Abstraction from Extraction: Multiple Timescale Gated Recurrent Unit for Summarization", Association for Computational Linguistics (2016). Minsoo Kim, Moirangthem Dennis Singh, and Minho Lee, "Towards Abstraction from Extraction: Multiple Timescale Gated Recurrent Unit for Summarization", Association for Computational Linguistics (2016).

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 복수 문단 텍스트의 추상적 요약문 생성 장치를 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made in view of the above problems, and it is an object of the present invention to provide an apparatus for generating an abstract summary of plural paragraph texts.

본 발명의 다른 목적은 복수 문단 텍스트의 추상적 요약문 생성 방법을 제공하는 것이다.Another object of the present invention is to provide a method for generating an abstract summary of a multi-paragraph text.

본 발명의 또 다른 목적은 상기 복수 문단 텍스트의 추상적 요약문 생성 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.It is still another object of the present invention to provide a recording medium on which a computer program for recording an abstract summary of a plurality of paragraph texts is recorded.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 장치는, 문서를 문단들로 자동 구분하여 전달하는 입력부; 상기 입력부로부터 전달된 문단을 내부표현 벡터로 변환하고, 다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)를 포함하는 회귀신경망을 통해 변환된 벡터를 내부표현(representation)으로 생성하여 전달하는 부호화 처리부; MTGRU를 포함하는 회귀신경망을 통해 상기 부호화 처리부로부터 전달받은 내부표현을 복호화하고, 언어 모델링을 이용하여 문장들을 생성하는 복호화 처리부; 및 각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력하는 출력부를 포함한다.According to an embodiment of the present invention, there is provided an apparatus for generating an abstract summary of a plurality of paragraph texts, the apparatus comprising: an input unit for automatically classifying a document into paragraphs; Converts a paragraph transferred from the input unit into an internal representation vector, and generates a representation of the transformed vector through a regression neural network including multiple timescales gated recurrent units (GRUs) having multiple time constants An encoding processing unit; A decoding processing unit for decoding the internal representation received from the encoding processing unit through a regression neural network including the MTGRU and generating sentences using language modeling; And an output unit for collecting the summary output of each paragraph and outputting the final abstract summary.

본 발명의 실시예에서, 상기 부호화 처리부는, 상기 입력부로부터 전달된 문단을 내부표현 벡터로 변환하는 내재 벡터화부; 및 MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성하여 상기 복호화 처리부에 전달하는 부호화 신경망을 포함할 수 있다.In an embodiment of the present invention, the encoding processing unit may include: an inherent vectorization unit that converts a paragraph transferred from the input unit into an internal representation vector; And MTGRU, and may include a coding neural network that generates a representation of the transformed vector based on the deep learning technique and transmits the representation to the decoding processing unit.

본 발명의 실시예에서, 상기 복호화 처리부는, MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 상기 부호화 처리부로부터 전달받은 상기 내부표현을 복호화하는 복호화 신경망; 및 언어 모델링을 이용한 학습 내용에 따라 상기 복호화 신경망으로부터 전달받은 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성하는 자연어 생성부를 포함할 수 있다.In an embodiment of the present invention, the decoding processing unit includes a decoding neural network that includes a regression neural network composed of multiple layers of MTGRUs and decodes the internal representation received from the encoding processing unit; And a natural language generation unit for generating sentences to be expressed in a natural language from the decrypted internal representation received from the decryption neural network according to learning contents using language modeling.

본 발명의 실시예에서, 상기 회귀신경망은 MTGRU을 기본 유닛으로 하는 시간적 계층 모델을 사용한 시퀀스-투-시퀀스(sequence-to-sequence) 모델을 이용할 수 있다.In an embodiment of the present invention, the regression neural network may use a sequence-to-sequence model using a temporal hierarchical model with MTGRU as a base unit.

본 발명의 실시예에서, 상기 MTGRU는 각 계층마다 설정된 시상수를 가지며, 상기 시상수가 클수록 느린 컨텍스트 단위를 구성할 수 있다.In the embodiment of the present invention, the MTGRU has a time constant set for each layer, and the larger the time constant, the slower the context unit can be constructed.

본 발명의 실시예에서, 계층이 올라갈수록 상기 시상수가 커질 수 있다.In an embodiment of the present invention, the time constant may increase as the layer rises.

본 발명의 실시예에서, 상기 회귀신경망은 다중 시상수 기반의 조합가능성(compositionality)을 구비할 수 있다.In an embodiment of the present invention, the regression neural network may have multiple temporal-based compositionality.

본 발명의 실시예에서, 상기 입력부는 LaTeX 소스 파일로부터 소개(Introductions)를 추출할 수 있다.In an embodiment of the invention, the input may extract introductions from a LaTeX source file.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법은, 문서를 문단들로 자동 구분하는 단계; 상기 문단을 내부표현 벡터로 변환하는 단계; 다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)의 다중층으로 이루어진 회귀신경망을 통해, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성하는 단계; MTGRU의 다중층으로 이루어진 회귀신경망을 통해 상기 내부표현을 복호화하는 단계; 언어 모델링을 이용한 학습 내용에 따라 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성하는 단계; 및 각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for generating an abstract summary of a plurality of paragraph texts, the method comprising: automatically classifying a document into paragraphs; Converting the paragraph into an internal representation vector; Generating a transformed vector as an internal representation based on a deep learning technique through a multi-layered regression neural network of Multiple Timescales Gated Recurrent Unit (GRU) with multiple time constants; Decoding the internal representation through a multi-layer regression neural network of MTGRU; Generating sentences expressed in natural language from the decoded internal expression according to learning contents using language modeling; And collecting the summary output of each paragraph and outputting a final abstract summary.

본 발명의 실시예에서, 상기 회귀신경망은 MTGRU을 기본 유닛으로 하는 시간적 계층 모델을 사용한 시퀀스-투-시퀀스(sequence-to-sequence) 모델을 이용할 수 있다.In an embodiment of the present invention, the regression neural network may use a sequence-to-sequence model using a temporal hierarchical model with MTGRU as a base unit.

본 발명의 실시예에서, 상기 MTGRU는 각 계층마다 설정된 시상수를 가지며, 상기 시상수가 클수록 느린 컨텍스트 단위를 구성할 수 있다.In the embodiment of the present invention, the MTGRU has a time constant set for each layer, and the larger the time constant, the slower the context unit can be constructed.

본 발명의 실시예에서, 계층이 올라갈수록 상기 시상수가 커질 수 있다.In an embodiment of the present invention, the time constant may increase as the layer rises.

본 발명의 실시예에서, 상기 회귀신경망은 다중 시상수 기반의 조합가능성(compositionality)을 구비할 수 있다.In an embodiment of the present invention, the regression neural network may have multiple temporal-based compositionality.

본 발명의 실시예에서, 상기 복수 문단 텍스트의 추상적 요약문 생성 방법은, LaTeX 소스 파일로부터 소개(Introductions)를 추출하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the method of generating an abstract summary of the multi-paragraph text may further comprise extracting Introductions from the LaTeX source file.

상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 복수 문단 텍스트의 추상적 요약문 생성 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다. According to another aspect of the present invention, there is provided a computer-readable storage medium storing a computer program for performing a method for generating an abstract summary of a plurality of paragraphs of text.

이와 같은 복수 문단 텍스트의 추상적 요약문 생성 장치 및 방법에 따르면, 문단에 존재하는 단어를 조합하는 것이 아니라 요약에 필요한 단어를 기존에 학습한 내용으로부터 생성함으로써 추상적 요약이 가능하다. 기존 시스템은 추출 및 압축과 같은 효과만 가져오기 때문에 문장이 어색하고 사람이 생성한 요약과는 거리가 있다. 본 발명은 딥러닝 기술 기반의 내부표현 과정을 도입함으로써 긴 텍스트를 이해하고 이해한 내용을 기반으로 추상적 요약문을 생성해낼 수 있다. According to such an apparatus and method for generating an abstract summary of a multi-paragraph text, an abstract summary can be obtained by generating words necessary for summary rather than combining words existing in a paragraph from previously learned contents. Existing systems are awkward and distant from human-generated summaries because they only bring out the same effects as extraction and compression. The present invention can generate an abstract summary based on the understanding and understanding of long text by introducing an internal representation process based on the deep learning technology.

본 발명은 인간 두뇌에 대해 널리 연구된 내용을 딥러닝 기반 인공지능에 적용하여 별도의 기억장치나 구조적 복합성을 추가하지 않고도 추상적 요약이 가능하도록 한다. 또한, 본 발명은 단순 추출이 아닌 추상적 요약으로써 복수개의 문단으로 이루어진 장문의 텍스트 또한 요약 가능하다.The present invention applies abstract learning to deep learning-based artificial intelligence to enable abstract summarization without adding additional storage or structural complexity. Further, the present invention can also summarize a long text composed of a plurality of paragraphs as an abstract summary rather than a simple extraction.

도 1은 본 발명의 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 장치의 블록도이다.
도 2는 게이트 반복 단위(GRU)를 도시한 도면이다.
도 3은 본 발명에서 제안된 다중 시상수를 갖는 GRU(multiple timescale gated recurrent unit)를 보여주는 도면이다.
도 4는 본 발명의 요약 모델의 구조를 보여준다.
도 5는 GRU와 MTGRU 간의 학습 속도 비교를 보여주는 그래프이다.
도 6은 MTGRU를 사용하여 생성된 요약의 예를 보여주는 도면이다.
도 7은 출력 요약과 추출된 타겟의 예를 보여주는 도면이다.
도 8은 다중 시간 상수 간의 학습 성능을 비교한 그래프이다.
도 9는 본 발명의 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법의 흐름도이다.
1 is a block diagram of an apparatus for generating an abstract summary of a multi-paragraph text according to an embodiment of the present invention.
2 is a diagram showing a gate repetition unit (GRU).
FIG. 3 is a diagram illustrating a multiple timescale gated recurrent unit (GRU) having multiple time constants proposed in the present invention.
Figure 4 shows the structure of the summary model of the present invention.
5 is a graph showing a learning speed comparison between GRU and MTGRU.
6 is a diagram showing an example of a summary generated using the MTGRU.
7 is a diagram showing an output summary and an example of an extracted target.
8 is a graph comparing learning performance between multiple time constants.
9 is a flowchart of a method for generating an abstract summary of a multi-paragraph text according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 장치의 블록도이다.1 is a block diagram of an apparatus for generating an abstract summary of a multi-paragraph text according to an embodiment of the present invention.

본 발명에 따른 복수 문단 텍스트의 추상적 요약문 생성 장치(10, 이하 장치)는 복수개 문단을 가지는 텍스트의 문단별 자동 요약 시스템으로써, 심화 의미의 이해가 가능하고, 단순 단어 추출이 아닌 사람과 같은 추상적 요약이 가능하다. An apparatus for generating abstract abstract texts (hereinafter abbreviated as apparatuses) of a plurality of paragraphs of text according to the present invention is an automatic abstract system for each paragraph of text having a plurality of paragraphs. It can understand deepening meaning, This is possible.

이러한 기능을 구현하기 위해서 새로 제안한 MTGRU(Multiple Timescales Gated Recurrent Unit)를 사용한 회귀신경망을 기본 구성요소로 하는 자가부호화망(Auto Encoder)을 사용한다.In order to realize such a function, a self-coded network (Auto Encoder) is used as a basic component of a regression neural network using a newly proposed MTGRU (Multiple Timescales Gated Recurrent Unit).

도 1을 참조하면, 본 발명에 따른 장치(10)는 입력부(100), 부호화 처리부(300), 복호화 처리부(500) 및 출력부(700)를 포함한다.Referring to FIG. 1, an apparatus 10 according to the present invention includes an input unit 100, an encoding processing unit 300, a decoding processing unit 500, and an output unit 700.

본 발명에 따른 장치(10)는 복수개의 문단으로 이루어진 텍스트로부터 추상적 요약문을 작성한다. 본 발명에 따른 장치(10)는 다중 시상수를 갖는 MTGRU(Multiple Timescale Gated Recurrent Unit)을 기본요소로 하는 시간적 계층 모델을 사용하여 시퀀스 투 시퀀스(sequence to sequence, 이하 seq2seq) 모델을 구현한다. A device (10) according to the present invention creates abstract abstracts from text consisting of a plurality of paragraphs. The apparatus 10 according to the present invention implements a sequence to sequence (hereinafter referred to as a seq2seq) model using a temporal hierarchical model having MTGRU (Multiple Timescale Gated Recurrent Unit) having multiple time constants as a basic element.

본 발명의 상기 장치(10)는 복수 문단 텍스트의 추상적 요약문을 생성하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 입력부(100), 상기 부호화 처리부(300), 상기 복호화 처리부(500) 및 상기 출력부(700)의 구성은 상기 장치(10)에서 실행되는 상기 복수 문단 텍스트의 추상적 요약문을 생성하기 위한 소프트웨어에 의해 제어될 수 있다.  The apparatus 10 of the present invention can be installed and executed by a software application for generating abstract abstract texts of a plurality of paragraphs of text and the input unit 100, the encoding processing unit 300, the decryption processing unit 500, The configuration of the output 700 may be controlled by software for generating an abstract summary of the multi-paragraph text that is executed in the device 10. [

상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 또한, 상기 입력부(100), 상기 부호화 처리부(300), 상기 복호화 처리부(500) 및 상기 출력부(700)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어 질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The device 10 may be a separate terminal or some module of the terminal. The configuration of the input unit 100, the encoding processing unit 300, the decoding processing unit 500, and the output unit 700 may be an integrated module or may be composed of one or more modules. However, conversely, each configuration may be a separate module.

상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다. The device 10 may be mobile or stationary. The device 10 may be in the form of a server or an engine and may be a device, an apparatus, a terminal, a user equipment (UE), a mobile station (MS) a wireless device, a handheld device, and the like.

상기 장치(10)는 운영체제(Operation System; OS), 즉 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 상기 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, iOS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.The device 10 may execute or produce various software based on an operating system (OS), i.e., a system. The operating system is a system program for allowing software to use the hardware of a device. The operating system includes a mobile computer operating system such as Android OS, iOS, Windows Mobile OS, Sea OS, Symbian OS, Blackberry OS, MAC, AIX, and HP-UX.

상기 입력부(100)는 문서를 문단들로 자동 구분하여 상기 부호화 처리부(300)로 전달한다. 예를 들어, 상기 입력부(100)는 ArXiv.org에서 컴퓨터 과학(CS) 기사들의 새로운 데이터 세트를 작성하고, LaTeX 소스 파일로부터 소개(Introductions)를 추출하여 단락으로 구분할 수 있다.The input unit 100 automatically classifies the document into paragraphs and transmits the same to the encoding processing unit 300. For example, the input unit 100 can create a new data set of computer science (CS) articles at ArXiv.org, and extract introductions from LaTeX source files and segment them into paragraphs.

상기 부호화 처리부(300)는 상기 입력부(100)로부터 전달된 문단을 내부표현 벡터로 변환하고, 다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)를 포함하는 회귀신경망을 통해 변환된 벡터를 내부표현(representation)으로 생성하여 상기 복호화 처리부(500)로 전달할 수 있다.The encoding processing unit 300 converts a paragraph transferred from the input unit 100 into an internal representation vector and converts the vector converted through the regression neural network including multiple timescales gated recurrent units (GRUs) having multiple time constants And can transmit the decoded result to the decryption processing unit 500. [

이를 위해, 상기 부호화 처리부(300)는 상기 입력부(100)로부터 전달된 문단을 내부표현 벡터로 변환하는 내재 벡터화부(310)와 MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성하여 상기 복호화 처리부에 전달하는 부호화 신경망(330)을 포함할 수 있다.To this end, the encoding processing unit 300 includes an inherent vectorization unit 310 for converting a paragraph transferred from the input unit 100 into an internal representation vector, and a regression neural network composed of multiple layers of the MTGRU. And a coding neural network 330 for generating an internal representation of the transformed vector and delivering the transformed vector to the decoding processing unit.

본 발명에서는 내부적 표현 문법을 생성하고 난 후 문장생성 기법을 적용하여 추상적 표현을 생성함으로써, 보다 사람이 작성한 요약에 가까운 요약문을 생성한다. 본 발명은 단순 추출이 아닌 추상적 요약으로써 복수개의 문단으로 이루어진 장문의 텍스트 또한 요약이 가능하다.In the present invention, an internal representation grammar is generated, and then an abstract expression is generated by applying a sentence generation technique to generate a summary similar to a human-created summary. The present invention can also summarize a long text composed of a plurality of paragraphs as an abstract summary rather than a simple extraction.

본 발명에서는 과학 기사의 종단 간 추상 요약을 위한 첫 번째 중간 단계를 제시한다. 본 발명의 목표는 seq2seq 기반 요약을 보다 복잡한 요약 작업인 더 큰 텍스트로 확장하는 것이다.The present invention presents a first intermediate step for an end-to-end abstract summary of a scientific article. The goal of the present invention is to extend the seq2seq-based summary to larger text, a more complex summary task.

위의 과제를 해결하기 위해, 본 발명은 문단 핵심의 문장 체계를 통해 학습되는 문단성 요약 시스템을 제안한다. 용어 주파수 역 문서 빈도(Term Frequency-Inverse Document Frequency, TF-IDF) (Luhn, 1958; Jones, 1972)를 사용하여 각 문단에서 핵심 문장을 추출하는데 사용한다. In order to solve the above problem, the present invention proposes a paragraph summarization system which is learned through the sentence system of the paragraph key. The term frequency-inverse document frequency (TF-IDF) (Luhn, 1958; Jones, 1972) is used to extract key sentences in each paragraph.

또한, 새로운 모델인 다중 시상수를 갖는 GRU(multiple timescale gated recurrent unit)를 제안한다. MTGRU는 다중 계층의 조합가능성(compositionality)을 처리할 수 있는 시간적 계층 구성 요소를 추가한다. 이것은 인간의 두뇌에서 발견되는 시간적 계층 조직과 유사한 개념이며, 다중 RNN의 다른 계층을 다른 시간 스케일로 변조함으로써 구현된다(Yamashita and Tani, 2008). We also propose a new model, GRU (multiple timescale gated recurrent unit) with multiple time constants. The MTGRU adds a temporal layer component that can handle the compositionality of multiple layers. This is a concept similar to the temporal hierarchy found in the human brain and is implemented by modulating different layers of multiple RNNs to different time scales (Yamashita and Tani, 2008).

본 발명이 제안한 모델은 다중 문장 소스 텍스트의 의미를 이해하고 그것에 대해 중요한 것을 알 수 있으며, 이는 추상적 요약으로의 필수적인 첫 번째 단계이다. The model proposed by the present invention understands the meaning of the multi-sentence source text and knows what is important to it, which is an essential first step to an abstract summary.

일 실시예로, 본 발명은 ArXiv.org에서 컴퓨터 과학(CS) 기사들의 새로운 데이터 세트를 작성하고, LaTeX 소스 파일에서 소개를 추출한다. 서론은 단락으로 분해되며, 각 단락은 담론의 자연스러운 단위가 된다.In one embodiment, the present invention creates a new data set of computer science (CS) articles at ArXiv.org and extracts an introduction from a LaTeX source file. Introduction is broken down into paragraphs, each paragraph being a natural unit of discourse.

마지막으로, 각 단락에 대해 생성된 요약을 연결하여 기사 소개의 비 전문가 요약을 작성하고, 실제 요약과 비교하여 결과를 평가한다. 본 발명의 모델은 보이지 않는 데이터에서 가장 중요한 부분으로 여러 문장을 요약할 수 있다는 것을 보여주며, seq2seq 매핑 작업으로 더 큰 요약보기를 지원한다. Finally, link the summary generated for each paragraph to create a non-expert summary of the article introduction, and compare the results with the actual summary. The model of the present invention shows that it is possible to summarize several sentences as the most important part of invisible data, and seq2seq mapping supports a larger summary view.

본 발명은 MTGRU 모델이 추상적 요약 시스템의 주요 요구사항 중 일부를 충족함을 입증한다. 또한, MTGRU는 기존의 RNN 인코더-디코더와 비교하여 학습 시간을 크게 단축할 수 있다.The present invention demonstrates that the MTGRU model meets some of the key requirements of the abstract summary system. Also, MTGRU can significantly reduce learning time compared to existing RNN encoder-decoder.

이하, 본 발명의 모델과 관련된 배경에 대해 설명하고, 본 발명에서 새로 제시된 아키텍처와 요약에 대한 적용을 자세히 설명한다.Hereinafter, the background related to the model of the present invention will be described, and the application of the architecture and summary newly presented in the present invention will be described in detail.

도 2는 게이트 반복 단위(GRU)를 도시한 도면이다.2 is a diagram showing a gate repetition unit (GRU).

조합가능성(compositionality)의 원칙은 구성 단위의 구문 조합의 함수로서 언어 표현에 의해 전달되는 의미를 정의한다. 즉, 문장의 의미는 단어들이 서로 결합되는 방식에 따라 결정된다. 다중 문장 텍스트에서, 문장 수준의 조합가능성(문장이 서로 결합되는 방식)은 전체 텍스트에 의미를 부여하는 추가 함수이다. The principle of compositionality defines the meaning conveyed by language expressions as a function of the syntactic combination of constituent units. That is, the meaning of a sentence is determined by how words are combined with each other. In multi-sentence text, the possibility of combining at the level of the sentence (the way the sentences are combined together) is an additional function that gives meaning to the whole text.

큰 텍스트를 다룰 때, 텍스트의 의미를 완전히 파악하기 위해서는 문장의 조합가능성 및 단락 수준까지 고려해야 한다. 최근 문헌에서 연구된 접근법은 계층적 형식으로 전용 아키텍처를 만들어 이후의 조합가능성 수준을 파악하는 것이다. Li et al. (2015) 및 Nallapati et al. (2016)은 성능을 향상시키기 위해 텍스트 단위의 다른 수준(level)에서의 조합가능성을 파악한다.When dealing with large texts, to fully understand the meaning of the text, we must consider the possibility of combining the sentences and the paragraph level. The approach that has been studied in recent literature is to build a dedicated architecture in a hierarchical format to determine the level of future combinability. Li et al. (2015) and Nallapati et al. (2016) grasps the possibility of combining at different levels of text units to improve performance.

그러나, 이와 같은 RNN 인코더-디코더에 대한 구조적인 변경은 학습 시간 및 메모리 사용 모두 증가한다는 결점이 있다. 따라서, 본 발명은 이러한 오버 헤드 없이 성능을 향상시킬 수 있는 아키텍처에 대한 대안을 제안한다. 본 발명은 인간의 뇌에서 기능적 분화가 자연적으로 발생하여, 시간적인 계층을 발생시키는 신경 과학으로부터 영감을 얻었다(Meunier et al., 2010; Botvinick, 2007). However, such a structural change to the RNN encoder-decoder has the drawback of increasing both learning time and memory usage. Thus, the present invention proposes an alternative to an architecture that can improve performance without this overhead. The present invention is inspired by the neuroscience that generates a temporal stratum naturally occurring in functional differentiation in the human brain (Meunier et al., 2010; Botvinick, 2007).

뉴런은 자극에 대한 각기 다른 적응 속도를 가진 계층으로 스스로를 계층적으로 조직할 수 있다는 것이 잘 알려져 있다. 이 현상의 전형적인 예는 짧은 시간 창(window)에서 음절 수준 정보가 더 긴 시간 창에서 단어 수준 정보로 통합되는 등의 청각 시스템이다. 이전 연구들은 이 개념을 운동 추적(Paine and Tani, 2004) 및 음성 인식(Heinrich et al., 2012)에서 RNN에 적용하였다.It is well known that neurons can organize themselves hierarchically with different adaptation rates to stimuli. A typical example of this phenomenon is an auditory system in which syllable level information is integrated into word level information in a longer time window in a short time window. Previous studies have applied this concept to RNNs in motion tracking (Paine and Tani, 2004) and speech recognition (Heinrich et al., 2012).

도 3은 본 발명에서 제안된 다중 시상수를 갖는 GRU(multiple timescale gated recurrent unit)를 보여주는 도면이다.FIG. 3 is a diagram illustrating a multiple timescale gated recurrent unit (GRU) having multiple time constants proposed in the present invention.

본 발명에서 제안된 다중 시상수(timescale)를 갖는 GRU(multiple timescale gated recurrent unit, MTGRU) 모델은 RNN 인코더-디코더의 프레임 워크에서 seq2seq 텍스트 요약의 문제에 시간적 계층 개념을 적용한다. Multiple Timescale Recurrent Neural Network(MTRNN)와 같은 이전 연구(Yamashita and Tani, 2008)들은 움직임 예측에 시간적 계층 구조를 사용했다.The GRU (multiple timescale gated recurrent unit) model with multiple timescale proposed by the present invention applies the temporal layer concept to the problem of seq2seq text summarization in the RNN encoder-decoder framework. Previous studies such as Multiple Timescale Recurrent Neural Network (MTRNN) (Yamashita and Tani, 2008) used a temporal hierarchy for motion prediction.

그러나, MTRNN은 RNN에 존재하는 동일한 문제, 예를 들어 장기 종속성을 포착하는데 어려움이 있고, 경사도(gradient) 문제가 사라지는 경향이 있다(Hochreiter et al., 2001). 단기 장기 기억 네트워크(Hochreiter et al., 2001)는 장기 의존성에 대한 학습을 돕기 위해 복잡한 게이팅 아키텍처를 사용하며, 기계 번역(Sutskever et al., 2014)과 같은 장기간의 시간 종속성을 갖는 작업에서 RNN보다 훨씬 우수한 성능을 보였다.However, MTRNN has difficulty in capturing the same problems that exist in RNNs, such as long-term dependencies, and the gradient problem tends to disappear (Hochreiter et al., 2001). The short-term long-term memory network (Hochreiter et al., 2001) uses a complex gating architecture to help learn about long-term dependence, and is more efficient than RNN in tasks with long time dependencies such as machine translation (Sutskever et al., 2014) And showed much better performance.

LSTM(Chung et al., 2014)과 비교될 수 있는 것으로 입증된 Gated Recurrent Unit(Cho et al., 2014)은 유사한 복잡한 게이팅 아키텍처를 가지고 있지만 메모리가 더 적다. 표준 GRU 아키텍처는 도 2에 도시된다.The Gated Recurrent Unit (Cho et al., 2014), which has proven to be comparable to LSTM (Chung et al., 2014), has a similar complex gating architecture but has less memory. The standard GRU architecture is shown in FIG.

seq2seq 요약은 잠재적으로 많은 장거리 시간 종속성을 포함하기 때문에 본 발명의 모델은 시간적 계층을 GRU에 적용한다. 본 발명은 GRU의 단부에 시상수를 적용하여 본질적으로 과거와 현재 숨겨진 상태의 혼합을 조정하는 또 다른 상수 게이팅 단위를 추가한다. 리셋 게이트 rt, 업데이트 게이트 zt 및 후보 활성화 ut는 아래의 수학식 1에 보여지는 바와 같이 원래의 GRU의 것과 유사하게 계산된다.Since the seq2seq summary contains potentially many long-distance time dependencies, the model of the present invention applies a temporal hierarchy to the GRU. The present invention adds another constant gating unit that applies a time constant to the end of the GRU to essentially adjust the mix of past and present hidden states. The reset gate r t , the update gate z t, and the candidate activation u t are calculated similar to those of the original GRU, as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112017024065537-pat00001
Figure 112017024065537-pat00001

시상수 τ가 MTGRU의 활성화 ht에 추가되는 것은 아래의 수학식 2와 같다.The time constant τ is added to the activation h t of the MTGRU as shown in Equation 2 below.

[수학식 2]&Quot; (2) "

Figure 112017024065537-pat00002
Figure 112017024065537-pat00002

τ는 각 GRU 셀의 시상수를 제어하는데 사용된다. 큰 τ는 느린 셀 출력을 의미하지만 동적 시퀀스 입력의 느린 기능에 중점을 두는 셀을 생성한다. 본 발명에서 제안된 MTGRU 모델은 도 3에 도시된다. 기존의 GRU는 τ=1일 때, MTGRU의 특별한 경우이며, 다른 시상수로 계층을 구성하려는 시도가 없다.is used to control the time constant of each GRU cell. A large τ denotes a slow cell output, but creates a cell that focuses on the slow function of the dynamic sequence input. The MTGRU model proposed in the present invention is shown in FIG. The existing GRU is a special case of MTGRU when τ = 1, and there is no attempt to construct a hierarchy with different time constants.

아래의 수학식 3은 정의된 순방향 프로세스와 시간 규칙을 통한 역 전파에 따라 MTGRU에 대해 유도된 학습 알고리즘을 보여준다.Equation 3 below shows a learning algorithm derived for MTGRU according to the defined forward process and back propagation through time rules.

[수학식 3]&Quot; (3) "

Figure 112017024065537-pat00003
Figure 112017024065537-pat00003

Figure 112017024065537-pat00004
는 시간 t-1에서 셀 출력의 오차이고,
Figure 112017024065537-pat00005
는 셀 출력의 현재 기울기이다. 서로 다른 시상수는 각 계층 마다 설정된다. 큰 τ는 느린 컨텍스트 단위를 의미하고, τ=1은 디폴트 또는 입력 시상수를 정의한다.
Figure 112017024065537-pat00004
Is the error of the cell output at time t-1,
Figure 112017024065537-pat00005
Is the current slope of the cell output. Different time constants are set for each layer. A large τ denotes a slow context unit, and τ = 1 defines a default or input time constant.

추후 계층이 더 느린 시상수에서 동작하는 특징을 학습해야 한다는 가설에 기반하여 계층을 올라갈수록, 큰 τ를 설정하였다.Based on the hypothesis that later classes should learn features that operate at slower time constants, we set a larger τ as we move up the hierarchy.

이때, 문제는 RNN에 의해 분석되는 단어 시퀀스가 인간 청각 시스템에 의해 수신된 연속 오디오 신호의 경우와 같이, 상이한 시간적 계층 구조를 통해 동작하는 정보를 소유하는지 여부이다. At this point, the problem is whether the word sequence analyzed by the RNN possesses information operating over a different temporal hierarchy, such as in the case of a continuous audio signal received by the human auditory system.

본 발명은 RNN이 사용하는 가설과 단어 수준, 절 수준 및 문장 수준 조합가능성이 강력한 후보라고 가정한다. 이 점에서, 다중 시상수 수정은 신경망의 각 계층을 명시적으로 안내하여 구성 계층의 후속 레벨에 해당하는 점차적으로 느린 시상수에서 동작하는 기능의 학습을 용이하게 한다.The present invention assumes that the hypotheses used by the RNN and the word level, clause level and sentence level combination possibilities are strong candidates. In this regard, the multiple time-constant modification facilitates the learning of functions that operate at increasingly slower time constants corresponding to subsequent levels of the constituent hierarchy by explicitly guiding each layer of the neural network.

본 발명에서 새로 제안된 다중 시상수 모델을 요약에 적용하기 위해, 학술 자료의 새로운 데이터 세트를 구축한다. 일 예로, arXiv preprint 서버의 CS. {CL, CV, LG, NE} 도메인에 있는 기사의 LaTeX 소스 파일을 수집하여 서론 및 초록을 추출한다. 서론을 단락으로 분해하고, 각 단락을 가장 중요한 문장을 타겟 요약으로 연결한다. 이러한 타겟 요약은 널리 채택된 TF-IDF 채점을 사용하여 생성된다.In order to apply the newly proposed multiple time-constant model to the summary in the present invention, a new data set of academic data is constructed. As an example, the arXiv preprint server CS. Collect LaTeX source files of articles in the {CL, CV, LG, NE} domain to extract intros and abstracts. Breaks an introduction into paragraphs, and links each paragraph to the most important sentence into a target summary. These target summaries are generated using widely adopted TF-IDF scoring.

도 4는 본 발명의 요약 모델의 구조를 보여준다.Figure 4 shows the structure of the summary model of the present invention.

도 4를 참조하면, 구축한 데이터 세트는 풍부한 조합가능성 및 긴 텍스트 시퀀스를 포함하고 있어, 요약 문제의 복잡성을 증가시킨다. 시간적 계층 기능은 복잡한 구성 계층 구조가 입력 데이터에 있을 때 가장 큰 영향을 미친다. 그러므로, 다중 시상수 개념은 Rush et al. (2015)과 같은 이전의 요약 작업과 비교할 때 본 발명의 문맥에서 더 큰 역할을 할 것이다.Referring to FIG. 4, the constructed data set includes rich combinability and long text sequences, which increases the complexity of the summary problem. The temporal layer function has the greatest effect when a complex configuration hierarchy is present in the input data. Therefore, the concept of multiple time constants is described by Rush et al. Will play a greater role in the context of the present invention when compared to previous summarization work, such as (2015).

MTGRU를 사용하는 본 모델은 이러한 단락과 그들의 타겟을 사용하여 학습된다. 각 서론의 생성된 요약은 수집된 기사의 초록을 사용하여 평가된다. 초록은 골드 요약으로 선택되었는데, 그 이유는 일반적으로 목표, 관련 저작물, 방법 및 결과와 같은 중요한 담화 구조를 포함하기 때문에 요약을 좋은 기준선으로 만들기 때문이다. This model using MTGRU is learned using these paragraphs and their targets. The generated summary of each introductory is evaluated using the abstract of the collected articles. The abstract was chosen as a gold summary because it makes the abstract a good baseline because it usually contains important discourse structures such as goals, related works, methods and results.

상기 복호화 처리부(500)는 마찬가지로 MTGRU를 포함하는 회귀신경망을 통해 상기 부호화 처리부(300)로부터 전달받은 내부표현을 복호화하고, 언어 모델링을 이용하여 문장들을 생성한다.The decryption processing unit 500 decrypts the internal representation received from the encoding processing unit 300 through the regression neural network including the MTGRU, and generates sentences using language modeling.

이를 위해, 상기 복호화 처리부(500)는 MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 상기 부호화 처리부(300)로부터 전달받은 상기 내부표현을 복호화하는 복호화 신경망(510)과 언어 모델링을 이용한 학습 내용에 따라 상기 복호화 신경망으로부터 전달받은 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성하는 자연어 생성부(530)를 포함한다.For this, the decoding processing unit 500 includes a regression neural network composed of multiple layers of the MTGRU, and includes a decoding neural network 510 for decoding the internal representation received from the encoding processing unit 300, and a learning content using language modeling And a natural language generation unit 530 for generating sentences expressed in a natural language from the decoded internal representation received from the decryption neural network.

상기 출력부(700)는 상기 자연어 생성부(530)로부터 각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력한다.The output unit 700 collects the summary output of each paragraph from the natural language generation unit 530 and outputs a final abstract summary.

본 발명은 다중 시상수기반의 조합 가능성(compositionalities)을 구비함으로써 복수개의 문단으로 이루어진 긴 텍스트를 요약할 수 있는 기능을 가진다. 본 발명에 따라 생성된 추상적 요약은 기존 추출식 요약 시스템이 생성한 요약문과는 달리 사람이 직접 작성한 요약과 유사하며 딥러닝 기술을 사용하여 자연스러운 문법을 가진다.The present invention has the ability to summarize long texts consisting of a plurality of paragraphs by having multiple compositionalities based on time constants. The abstract summary generated in accordance with the present invention is similar to a human-generated summary, unlike the abstracts generated by the existing extractive summary system, and has a natural grammar using the deep-run technique.

이하에서는, 본 발명에서 제안된 방법의 유효성을 검증하기 위해 기존의 RNN 인코더-디코더와 학습 속도 및 성능 측면에서 비교하였다.Hereinafter, in order to verify the effectiveness of the method proposed in the present invention, a comparison was made with a conventional RNN encoder-decoder in terms of learning speed and performance.

실험을 위해, 두 개의 seq2seq 모델, 즉 RNN 인코더 디코더에서 기존 GRU를 사용하는 첫 번째 모델과 본 발명에서 제안된 MTGRU를 사용하는 두 번째 모델을 학습하였다. 두 모델 모두 기존의 하드웨어 기능에 맞는 최적의 구성으로 동일한 하이퍼파라미터 설정을 사용하여 학습된다.For the experiment, we studied two seq2seq models, the first model using the existing GRU in the RNN encoder decoder and the second model using the proposed MTGRU in the present invention. Both models are learned using the same hyperparameter settings in an optimal configuration for existing hardware functions.

Sutskever et al. (2014)에 따라, 입력은 여러 개의 버킷으로 나뉜다. GRU 및 MTSGRU 모델은 모두 아래의 표 1과 같이 4개의 계층과 1792개의 숨겨진 유닛으로 구성된다. Sutskever et al. (2014), the input is divided into several buckets. The GRU and MTSGRU models consist of four layers and 1792 hidden units, as shown in Table 1 below.

[표 1][Table 1]

Figure 112017024065537-pat00006
Figure 112017024065537-pat00006

모델이 더 긴 입력 및 타겟 시퀀스 크기를 사용하므로, 숨겨진 유닛 크기와 계층 수가 제한된다. 두 네트워크 모두에 대해 512의 내장 크기가 사용되었다. 각 계층의 시상수 τ는 각각 1, 1.25, 1.5, 1.7로 설정된다. 모델은 110,000 개의 텍스트 요약 쌍에 대해 학습된다. 원본 텍스트는 학술 논문의 서론에서 추출한 단락이고, 타겟은 TF-IDF 점수를 사용하여 단락에서 추출한 가장 현저한 문장이다. Because the model uses longer input and target sequence sizes, the number of hidden unit sizes and hierarchies is limited. 512 built-in sizes were used for both networks. The time constant τ of each layer is set to 1, 1.25, 1.5, and 1.7, respectively. The model is learned for 110,000 text summary pairs. The original text is a paragraph extracted from an introduction to an academic paper, and the target is the most prominent sentence extracted from the paragraph using the TF-IDF score.

도 5는 GRU와 MTGRU 간의 학습 속도 비교를 보여주는 그래프이다.5 is a graph showing a learning speed comparison between GRU and MTGRU.

모델의 학습 속도를 비교하기 위해, 도 5는 연속 퍼플릭시티(perplexity)가 9.5에 도달 할 때까지의 학습 곡선의 플롯을 보여준다. 두 모델 모두 대략 4일 및 3일이 소요되는 Nvidia Ge-Force GTX Titan X GPU를 사용하여 학습된다. 테스트하는 동안, 갈망하는(greedy) 디코딩을 사용하여 원본 서론에서 가장 가능성 있는 출력을 생성한다.To compare the learning speed of the model, Figure 5 shows a plot of the learning curve until successive perplexity reaches 9.5. Both models are learned using the Nvidia Ge-Force GTX Titan X GPU, which takes approximately 4 and 3 days. During testing, greedy decoding is used to generate the most probable output from the original intro.

평가를 위해 Lin and Hovy (2003)가 제안한 Recall-Oriented Understudy for Gisting Evaluation (ROUGE) metrics(Lin, 2004)을 채택한다. ROUGE는 인간 평가와 강한 상관 관계가 있는 것으로 입증된 시스템 요약에 점수를 매기는 리콜 중심 측정이다. 후보 요약과 골드 요약 사이의 n-gram 회수율을 측정한다. For the evaluation, we adopt Recall-Oriented Understudy for Gisting Evaluation (ROUGE) metrics (Lin, 2004) proposed by Lin and Hovy (2003). ROUGE is a recall-centric measure that scores on a system summary that has been proven to be highly correlated with human assessment. Measure the n-gram recovery between the candidate summary and the gold summary.

본 발명 논문의 초록인 하나의 골드 요약만 가지므로, ROUGE 점수는 Li et al. (2015)에 주어진 대로 계산된다. ROUGE-1, ROUGE-2 및 ROUGE-L은 모델의 성능을 보고하는데 사용된다. 성능 평가를 위해, 두 모델 모두 GRU 및 MTGRU의 학습 퍼플릭시티(perplexity)가 표 2에 나와있는 74750 단계로 학습된다.The ROUGE score is given by Li et al. (2015). ROUGE-1, ROUGE-2, and ROUGE-L are used to report model performance. For performance evaluation, the learning perplexity of both GRU and MTGRU is learned in step 74750, which is shown in Table 2 for both models.

[표 2][Table 2]

Figure 112017024065537-pat00007
Figure 112017024065537-pat00007

이 단계에서 조기 정지 지점으로 선택되었으므로, GRU 모델의 가장 낮은 테스트 퍼플릭시티(perplexity)를 얻는다. 이러한 학습된 네트워크를 사용하여 계산된 ROUGE 점수는 각각 GRU 및 MTGRU 모델에 대해 표 3 및 표 4에 보여진다.At this stage we have chosen the early stopping point, so we get the lowest test perplexity of the GRU model. The ROUGE scores calculated using these learned networks are shown in Table 3 and Table 4 for the GRU and MTGRU models, respectively.

[표 3][Table 3]

Figure 112017024065537-pat00008
Figure 112017024065537-pat00008

[표 4][Table 4]

Figure 112017024065537-pat00009
Figure 112017024065537-pat00009

본 발명의 MTGRU 모델에 의해 생성된 샘플 요약은 도 6에 보여진다.A sample summary generated by the MTGRU model of the present invention is shown in FIG.

도 6은 MTGRU를 사용하여 생성된 요약의 예를 보여주는 도면이다. 도 7은 출력 요약과 추출된 타겟의 예를 보여주는 도면이다. 도 8은 다중 시간 상수 간의 학습 성능을 비교한 그래프이다.6 is a diagram showing an example of a summary generated using the MTGRU. 7 is a diagram showing an output summary and an example of an extracted target. 8 is a graph comparing learning performance between multiple time constants.

도 5 내지 도 7을 참조하면, GRU와 MTGRU를 사용하여 요약 모델에 대해 얻은 ROUGE 점수는 다중 시상수 개념이 고도로 복잡한 아키텍처 계층이 없는 기존의 seq2seq 모델의 성능을 향상시킨다는 것을 보여준다.Referring to FIGS. 5-7, the ROUGE score obtained for the summary model using GRU and MTGRU shows that the multiple time-constant concept improves the performance of existing seq2seq models without a highly complex architecture layer.

또 하나의 큰 장점은 1 에포크(epoch) 정도의 학습 속도 향상이다. 더욱이, 도 6은 모델이 큰 단락을 한 줄의 요약으로 요약하는 어려운 작업을 성공적으로 일반화했다는 것을 보여준다.Another big advantage is the learning speed improvement of one epoch. Moreover, Figure 6 shows that the model successfully generalized the difficult task of summarizing large paragraphs into a one-line summary.

시상수 τ의 매개 변수에 따라 다음과 같이 설명한다(Yamashita and Tani, 2008). 상위 계층이 더 느린 컨텍스트 단위를 갖도록 계층을 올라 갈수록 τ는 점진적으로 증가한다. Depending on the parameter of the time constant τ, it is explained as follows (Yamashita and Tani, 2008). As we move up the hierarchy so that the upper layer has slower context units, τ gradually increases.

또한, 도 8에 보여지는 바와 같이, τ의 다중 설정을 실험하고 학습 성능을 비교한다. MTRGU-2 및 MTRGU-3의 τ는 각각 {1, 1.42, 2, 2.5} 및 {1,1,1.25,1.25}로 설정된다.Also, as shown in FIG. 8, the multiple setting of? Is experimented and the learning performance is compared. The τ of MTRGU-2 and MTRGU-3 are set to {1, 1.42, 2, 2.5} and {1,1,1.25,1.25}, respectively.

MTGRU-1은 앞서 설명한 실험에서 채택한 최종 모델이다. MTGRU-2는 상대적으로 느린 컨텍스트 계층을 가지고 있으며, MTGRU-3은 두 개의 빠른 컨텍스트 계층과 두 개의 느린 컨텍스트 계층을 가지고 있다. 비교에서 볼 수 있듯이, MTRGU-1의 학습 성능은 다른 두 개보다 뛰어나므로 시상수 설정을 뒷받침하는 근거가 될 수 있다.MTGRU-1 is the final model adopted in the experiments described above. MTGRU-2 has a relatively slow context layer, and MTGRU-3 has two fast context layers and two slow context layers. As can be seen from the comparison, the learning performance of the MTRGU-1 is superior to the other two, which can be the basis for setting the time constant.

실험의 결과는 기능적 차별화와 같은 조직적 프로세스가 언어 작업에서 RNN에서 발생한다는 증거를 제공한다. MTGRU는 기존 GRU보다 1 에포크(epoch) 만큼 빠르게 학습할 수 있다. MTRGU가 RNN에서 계층을 다중 시상수로 안내함에 의해 이미 발생하고 있는 일종의 기능 분화 프로세스를 촉진한다고 예상되며, 그렇지 않은 경우 이 시간적 계층 구조는 더 점진적으로 발생한다.The results of the experiments provide evidence that organizational processes such as functional differentiation occur in RNNs in language tasks. MTGRU can learn faster than an existing GRU by one epoch. It is expected that the MTRGU will facilitate a sort of functional differentiation process already occurring by routing the hierarchy to multiple time constants in the RNN, otherwise this temporal hierarchy will occur more gradually.

도 7을 참조하면, 추출된 요약에 대한 입력 단락의 생성된 요약의 비교를 나타낸다. 예제에서 볼 수 있듯이, 본 발명에 따른 모델은 여러 문장에서 주요 정보를 성공적으로 추출하여 한 줄 요약으로 재현한다. 시스템은 추출 요약에 대해서만 학습되었지만 모델의 일반화 능력으로 인해 전체 단락의 추상화가 가능하다. seq2seq 목적은 소스 시퀀스에서 컨디셔닝된 타겟 시퀀스의 조인트 확률을 최대화하는 것이다. Referring to FIG. 7, there is shown a comparison of the generated summary of the input paragraphs for the extracted summary. As can be seen from the example, the model according to the present invention successfully extracts key information from multiple sentences and reproduces it as a one line summary. The system was learned only for the extraction summary, but the generalization ability of the model makes it possible to abstract the entire paragraph. The purpose of the seq2seq is to maximize the joint probability of the conditioned sequence of targets in the source sequence.

요약 모델이 소스-추출된 현저한 문장 쌍에 대해 학습되면, 목적은 두 가지 부 목적으로 구성되는 것으로 볼 수 있다. 하나는 가장 현저한 내용을 식별하기 위해 현출성 조사(중요도 추출)를 정확하게 수행하는 것이고, 다른 하나는 문장 타겟의 정확한 순서를 생성하는 것이다. 실제로, 학습 도중, 첫 번째 부 목적의 최적화가 두 번째 부 목표 이전에 달성된다는 것을 관찰하였다. 두 번째 부 목적은 학습 세트와 적합이 발생할 때만 완전히 달성된다. When the summary model is learned for a source-extracted salient sentence pair, it can be seen that the purpose consists of two sub-purposes. One is to correctly perform salvation research (criticality extraction) to identify the most prominent content, and the other is to generate the correct sequence of sentence targets. Indeed, during learning, we observed that the first sub-objective optimization was achieved before the second sub-goal. The second sub-goal is achieved only when the learning set and fitness occur.

모델의 일반화 능력은 모델이 많은 학습 예가 보여 지듯이 주어진 단락 입력(단일 문장에 해당하는 단 하나의 현저한 섹션 만이 아님) 당 여러 가지 현저한 포인트를 학습할 것으로 예상된다는 사실에 기인한다. 이는 도 7과 같은 결과가 본 모델로부터 어떻게 얻어지는지 설명한다. The ability to generalize a model is due to the fact that the model is expected to learn several prominent points per given paragraph input (not just one significant section corresponding to a single sentence), as many learning examples show. This explains how the results from Fig. 7 are obtained from the model.

본 발명에 따른 작업은 seq2seq 추상화 요약에 의미 있는 영향을 미칠 것으로 예상된다. 첫째, 본 발명의 결과는 테스트 시간에 외부 코퍼스를 참조하지 않고도 현저성(saliency) 식별을 수행하도록 인코더-디코더 모델을 학습할 수 있음을 확인한다. 이는 Rush et al. (2015); Nallapati et al. (2016)과 같은 연구에서 이미 암시되었고, 단락-현저한 문장 쌍으로 구성된 데이터의 선택으로 인해 본 발명에서 명백해졌다.The work according to the invention is expected to have a meaningful impact on the seq2seq abstraction summary. First, the results of the present invention confirm that an encoder-decoder model can be learned to perform saliency identification without reference to external corpus at test time. Rush et al. (2015); Nallapati et al. (2016), and has become apparent in the present invention due to the selection of data consisting of short-striking sentence pairs.

둘째, 확률론적 언어 모델은 추상적 요약의 핵심 기준 설정에 있어서 새로운 단어 생성의 과제를 해결할 수 있다. Bengio et al. (2003)은 원래 확률론적 언어 모델이 유사한 단어에 대해 훨씬 더 일반화를 달성할 수 있음을 보여 주었다. 이것은 확률 함수가 단어 임베딩 벡터의 매끄러운 함수라는 사실에 기인한다.Second, the stochastic language model can solve the task of generating new words in the setting of core criteria of abstract summary. Bengio et al. (2003) showed that original probabilistic language models can achieve much more generalization of similar words. This is due to the fact that the probability function is a smooth function of the word-embedding vector.

유사한 단어가 유사한 임베딩 벡터를 갖기 때문에, 특징의 작은 변화는 예측된 확률의 작은 변화를 유도한다. 이것은 새로운 문장을 생성하는데 필요한 RNN 언어 모델의 추상적 요약을 위한 가장 유용한 솔루션으로 만든다.Since similar words have similar embedding vectors, a small change in feature leads to a small change in the predicted probability. This makes it the most useful solution for abstract summaries of the RNN language model needed to generate new sentences.

예를 들어, 도 6에서 첫 번째 요약은 본 발명의 모델이 문서에 존재하지 않는 "explored"라는 단어를 생성함을 보여준다. 더욱이, 본 발명의 결과는 주어진 추상적 타겟이 있다면, 동일한 모델이 완전히 추상적인 요약 시스템을 학습시킬 수 있음을 시사한다.For example, the first summary in Figure 6 shows that the model of the invention creates the word "explored " that does not exist in the document. Moreover, the results of the present invention suggest that if the given abstract target is present, the same model can learn a totally abstract summary system.

이와 같이, 본 발명에서는 내부적 표현 문법을 생성하고 난 후 문장생성 기법을 적용한 후 추상적 표현을 생성함으로써 보다 사람이 작성한 요약에 가까운 요약문을 생성한다. 본 발명은 단순 추출이 아닌 추상적 요약으로써 복수개의 문단으로 이루어진 장문의 텍스트 또한 요약 가능하다.As described above, in the present invention, after generating an internal expression grammar, a sentence generation technique is applied, and then an abstract expression is generated to generate a summary similar to a human-created summary. The present invention can also summarize a long text composed of a plurality of paragraphs as an abstract summary rather than a simple extraction.

도 9는 본 발명의 일 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법의 흐름도이다.9 is a flowchart of a method for generating an abstract summary of a multi-paragraph text according to an embodiment of the present invention.

본 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다. 또한, 본 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법은 복수 문단 텍스트의 추상적 요약문 생성을 수행하기 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.The method of generating an abstract summary of a multi-paragraph text according to the present embodiment may proceed in substantially the same configuration as the apparatus 10 of FIG. Therefore, the same constituent elements as those of the apparatus 10 of FIG. 1 are denoted by the same reference numerals, and repeated description is omitted. In addition, the method of generating an abstract summary of a plurality of paragraph texts according to the present embodiment can be executed by software (application) for performing generation of an abstract summary of a plurality of paragraph texts.

도 9를 참조하면, 본 실시예에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법은, 문서를 문단들로 자동 구분한다(단계 S10). 예를 들어 ArXiv.org에서 컴퓨터 과학(CS) 기사들의 새로운 데이터 세트를 작성하고, LaTeX 소스 파일로부터 소개(Introductions)를 추출하여 단락으로 구분할 수 있다.Referring to FIG. 9, an abstract summary text generation method of a multi-paragraph text according to the present embodiment automatically classifies a document into paragraphs (step S10). For example, you can create a new set of data for Computer Science (CS) articles at ArXiv.org, extract introductions from LaTeX source files, and separate them into paragraphs.

문서를 문단들로 자동 구분한 후, 상기 문단을 내부표현 벡터로 변환한다(단계 S20). 본 발명에서는 내부적 표현 문법을 생성하고 난 후 문장생성 기법을 적용한 후 추상적 표현을 생성함으로써 보다 사람이 작성한 요약에 가까운 요약문을 생성한다. 본 발명은 단순 추출이 아닌 추상적 요약으로써 복수개의 문단으로 이루어진 장문의 텍스트 또한 요약 가능하다.The document is automatically classified into paragraphs, and then the paragraph is converted into an internal representation vector (step S20). In the present invention, after generating an internal expression grammar, a sentence generation technique is applied, and then an abstract expression is generated to generate a summary similar to a human-created summary. The present invention can also summarize a long text composed of a plurality of paragraphs as an abstract summary rather than a simple extraction.

다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)의 다중층으로 이루어진 회귀신경망을 통해, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성한다(단계 S30). 상기 회귀신경망은 다중 시상수 기반의 조합가능성(compositionality)을 구비한다.The transformed vector is generated as an internal representation based on the deep learning technique through a multi-layered regression neural network of multiple timescales gated recurrent units (GRUs) with multiple time constants (step S30). The regressive neural network has multiple instantiations based compositionality.

상기 회귀신경망은 MTGRU을 기본 유닛으로 하는 시간적 계층 모델을 사용한 시퀀스-투-시퀀스(sequence-to-sequence) 모델을 이용한다. 상기 MTGRU는 각 계층마다 설정된 시상수를 가지며, 상기 시상수가 클수록 느린 컨텍스트 단위를 구성한다. 예를 들어, 계층이 올라갈수록 상기 시상수가 커질 수 있다.The regression neural network uses a sequence-to-sequence model using a temporal hierarchical model with MTGRU as a basic unit. The MTGRU has a time constant set for each layer, and the larger the time constant, the slower the context unit. For example, the time constant may increase as the layer rises.

또한, MTGRU의 다중층으로 이루어진 회귀신경망을 통해 상기 내부표현을 복호화한다(단계 40). 이후, 언어 모델링을 이용한 학습 내용에 따라 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성한다(단계 50).In addition, the internal representation is decoded through a regression neural network composed of multiple layers of MTGRU (step 40). Thereafter, sentences expressed in natural language are generated from the decoded internal expressions according to the learning contents using the language modeling (step 50).

결과적으로, 각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력한다(단계 60).As a result, the summary output of each paragraph is collected and the final abstract summary is output (step 60).

본 발명은 다중 시상수기반의 조합 가능성(compositionalities)을 구비함으로써 복수개의 문단으로 이루어진 긴 텍스트를 요약할 수 있는 기능을 가진다. 본 발명에 따라 생성된 추상적 요약은 기존 추출식 요약 시스템이 생성한 요약문과는 달리 사람이 직접 작성한 요약과 유사하며 딥러닝 기술을 사용하여 자연스러운 문법을 가진다.The present invention has the ability to summarize long texts consisting of a plurality of paragraphs by having multiple compositionalities based on time constants. The abstract summary generated in accordance with the present invention is similar to a human-generated summary, unlike the abstracts generated by the existing extractive summary system, and has a natural grammar using the deep-run technique.

이와 같은, 복수 문단 텍스트의 추상적 요약문 생성 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. As such, the method of generating an abstract summary of a plurality of paragraph texts may be implemented in an application or may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims. You will understand.

본 발명에서 제안하는 장치는, 오늘날 요약이 필요한 모든 영역에서 핵심 기반기술로서 사용될 수 있다. 예를 들면, 구글의 검색 시스템이 그 예가 될 수 있다. 주 응용 시스템으로는 자동적으로 긴 문장에서 중요한 내용을 찾아 요약해주는 시스템이 될 것이다. 특히, 빅데이터 시장이 확대됨에 따라 이러한 기능을 구비함으로써 큰 경쟁력을 가질 수 있을 것으로 전망한다. 또한, IT 및 HCI(Human Computer Interface) 등의 분야에 활용 될 수 있는 핵심 원천 기술. 자연어처리(NLP: Natural Language Processing) 기반 응용 시스템, 검색엔진, 스마트홈 대화 에이전트 등에 적용 가능하다.The device proposed in the present invention can be used as a core infrastructure technology in all areas where a summary is needed today. For example, Google's search system can be an example. The main application system will be a system that automatically summarizes important contents in long sentences and summarizes them. In particular, as the big data market expands, it will be able to have a great competitive edge by providing such functions. In addition, core source technology that can be used in fields such as IT and HCI (Human Computer Interface). It can be applied to natural language processing (NLP) -based application system, search engine, smart home conversation agent, and the like.

10: 복수 문단 텍스트의 추상적 요약문 생성 장치
100: 입력부
300: 부호화 처리부
310: 내재 벡터화부
330: 부호화 신경망
500: 복호화 처리부
510: 복호화 신경망
530: 자연어 생성부
700: 출력부
10: abstract abstract text generator for multiple paragraph text
100: Input unit
300:
310: Inner vectorization unit
330: Coded Neural Network
500: Decryption processor
510: Decoded neural network
530: Natural language generating unit
700: Output section

Claims (15)

문서를 문단들로 자동 구분하여 전달하는 입력부;
상기 입력부로부터 전달된 문단을 내부표현 벡터로 변환하고, 다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)를 포함하는 회귀신경망을 통해 변환된 벡터를 내부표현(representation)으로 생성하여 전달하는 부호화 처리부;
MTGRU를 포함하는 회귀신경망을 통해 상기 부호화 처리부로부터 전달받은 내부표현을 복호화하고, 언어 모델링을 이용하여 문장들을 생성하는 복호화 처리부; 및
각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력하는 출력부를 포함하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
An input unit for automatically delivering a document to paragraphs;
Converts a paragraph transferred from the input unit into an internal representation vector, and generates a representation of the transformed vector through a regression neural network including multiple timescales gated recurrent units (GRUs) having multiple time constants An encoding processing unit;
A decoding processing unit for decoding the internal representation received from the encoding processing unit through a regression neural network including the MTGRU and generating sentences using language modeling; And
And an output unit for collecting the summary output of each paragraph and outputting a final abstract summary.
제1항에 있어서, 상기 부호화 처리부는,
상기 입력부로부터 전달된 문단을 내부표현 벡터로 변환하는 내재 벡터화부; 및
MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성하여 상기 복호화 처리부에 전달하는 부호화 신경망을 포함하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
The apparatus according to claim 1,
An internal vectorization unit for converting a paragraph transferred from the input unit into an internal representation vector; And
Generating an abstract summary of a plurality of paragraphs of text including a regression neural network consisting of multiple layers of MTGRU and generating a representation of the transformed vector based on a deep learning technique and delivering the representation to the decoding processor; Device.
제2항에 있어서, 상기 복호화 처리부는,
MTGRU의 다중층으로 이루어진 회귀신경망을 포함하고, 상기 부호화 처리부로부터 전달받은 상기 내부표현을 복호화하는 복호화 신경망; 및
언어 모델링을 이용한 학습 내용에 따라 상기 복호화 신경망으로부터 전달받은 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성하는 자연어 생성부를 포함하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
The decoding apparatus according to claim 2,
A decoding neural network that includes a regression neural network composed of multiple layers of MTGRU and decodes the internal representation received from the encoding processing unit; And
And a natural language generation unit for generating sentences to be expressed in a natural language from the decrypted internal expression received from the decryption neural network according to learning contents using language modeling.
제3항에 있어서,
상기 회귀신경망은 MTGRU을 기본 유닛으로 하는 시간적 계층 모델을 사용한 시퀀스-투-시퀀스(sequence-to-sequence) 모델을 이용하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
The method of claim 3,
Wherein said regression neural network uses a sequence-to-sequence model using a temporal hierarchical model with MTGRU as a base unit.
제4항에 있어서,
상기 MTGRU는 각 계층마다 설정된 시상수를 가지며, 상기 시상수가 클수록 느린 컨텍스트 단위를 구성하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
5. The method of claim 4,
Wherein the MTGRU has a time constant set for each layer, and the larger the time constant, the slower the context unit.
제5항에 있어서,
계층이 올라갈수록 상기 시상수가 커지는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
6. The method of claim 5,
Wherein the time constant increases as the hierarchy increases.
제1항에 있어서,
상기 회귀신경망은 다중 시상수 기반의 조합가능성(compositionality)을 구비하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
The method according to claim 1,
Wherein the regression neural network has multiple temporal-based compositionality.
제1항에 있어서,
상기 입력부는 LaTeX 소스 파일로부터 소개(Introductions)를 추출하는, 복수 문단 텍스트의 추상적 요약문 생성 장치.
The method according to claim 1,
Wherein the input unit extracts introductions from a LaTeX source file.
문서를 문단들로 자동 구분하는 단계;
상기 문단을 내부표현 벡터로 변환하는 단계;
다중 시상수를 갖는 GRU(Multiple Timescales Gated Recurrent Unit, 이하 MTGRU)의 다중층으로 이루어진 회귀신경망을 통해, 딥러닝 기술을 기초로 상기 변환된 벡터를 내부표현(representation)으로 생성하는 단계;
MTGRU의 다중층으로 이루어진 회귀신경망을 통해 상기 내부표현을 복호화하는 단계;
언어 모델링을 이용한 학습 내용에 따라 복호화된 내부표현으로부터 자연어로 표현되는 문장들을 생성하는 단계; 및
각 문단의 요약 출력을 수집하여 최종 추상적 요약을 출력하는 단계를 포함하는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
Automatically classifying the document into paragraphs;
Converting the paragraph into an internal representation vector;
Generating a transformed vector as an internal representation based on a deep learning technique through a multi-layered regression neural network of Multiple Timescales Gated Recurrent Unit (GRU) with multiple time constants;
Decoding the internal representation through a multi-layer regression neural network of MTGRU;
Generating sentences expressed in natural language from the decoded internal expression according to learning contents using language modeling; And
Collecting the summary output of each paragraph and outputting a final abstract summary. ≪ Desc / Clms Page number 20 >
제9항에 있어서,
상기 회귀신경망은 MTGRU을 기본 유닛으로 하는 시간적 계층 모델을 사용한 시퀀스-투-시퀀스(sequence-to-sequence) 모델을 이용하는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
10. The method of claim 9,
Wherein the recursive neural network uses a sequence-to-sequence model using a temporal hierarchical model with MTGRU as a base unit.
제10항에 있어서,
상기 MTGRU는 각 계층마다 설정된 시상수를 가지며, 상기 시상수가 클수록 느린 컨텍스트 단위를 구성하는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
11. The method of claim 10,
Wherein the MTGRU has a time constant set for each layer, and the larger the time constant, the slower the context unit.
제11항에 있어서,
계층이 올라갈수록 상기 시상수가 커지는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
12. The method of claim 11,
Wherein the time constant is increased as the hierarchy is increased.
제9항에 있어서,
상기 회귀신경망은 다중 시상수 기반의 조합가능성(compositionality)을 구비하는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
10. The method of claim 9,
Wherein the regressive neural network has multiple temporal-based compositionality, wherein the recursive neural network has multiple temporal-based compositionalities.
제9항에 있어서,
LaTeX 소스 파일로부터 소개(Introductions)를 추출하는 단계를 더 포함하는, 컴퓨터 장치에 의해 수행되는 복수 문단 텍스트의 추상적 요약문 생성 방법.
10. The method of claim 9,
Further comprising extracting an Introductions from a LaTeX source file. ≪ RTI ID = 0.0 > 8. < / RTI >
제9항 내지 제14항 중 어느 하나의 항에 따른 복수 문단 텍스트의 추상적 요약문 생성 방법을 수행하기 위한, 컴퓨터 장치에 의해 수행되는 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.

A computer-readable recording medium on which a computer program for performing a method of generating an abstract summary of a plurality of paragraphs of texts according to any one of claims 9 to 14 is recorded.

KR1020170030546A 2017-01-17 2017-03-10 Device and method to generate abstractive summaries from large multi-paragraph texts, recording medium for performing the method KR101882906B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/011747 WO2018135723A1 (en) 2017-01-17 2017-10-24 Device and method for generating abstract summary of multiple-paragraph text, and recording medium for performing same method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170007888 2017-01-17
KR1020170007888 2017-01-17

Publications (2)

Publication Number Publication Date
KR20180084580A KR20180084580A (en) 2018-07-25
KR101882906B1 true KR101882906B1 (en) 2018-07-27

Family

ID=63059102

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170030546A KR101882906B1 (en) 2017-01-17 2017-03-10 Device and method to generate abstractive summaries from large multi-paragraph texts, recording medium for performing the method

Country Status (1)

Country Link
KR (1) KR101882906B1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635103B (en) * 2018-12-17 2022-05-20 北京百度网讯科技有限公司 Abstract generation method and device
CN110147532B (en) * 2019-01-24 2023-08-25 腾讯科技(深圳)有限公司 Encoding method, apparatus, device and storage medium
CN110389820B (en) * 2019-06-28 2021-09-24 浙江大学 Private cloud task scheduling method for resource prediction based on v-TGRU model
CN111026861B (en) * 2019-12-10 2023-07-04 腾讯科技(深圳)有限公司 Text abstract generation method, training device, training equipment and medium
KR102476492B1 (en) * 2020-04-08 2022-12-09 에스케이 주식회사 Deep Learning based Document Summarization Method and System
KR102495881B1 (en) * 2020-12-23 2023-02-06 주식회사 카카오 Summary evaluation device, control method thereof and summary evaluation program
CN113704457B (en) * 2021-07-23 2024-03-01 北京搜狗科技发展有限公司 Method and device for generating abstract and storage medium
CN113743082B (en) * 2021-09-16 2024-04-05 京东科技信息技术有限公司 Data processing method, system, storage medium and electronic equipment
KR20240055290A (en) * 2022-10-20 2024-04-29 주식회사 아이팩토리 Document creating device, method, computer program, computer-readable recording medium, server and system having text auto-generating functionality using natural language generation model
CN115982343B (en) * 2023-03-13 2023-08-22 阿里巴巴达摩院(杭州)科技有限公司 Abstract generation method, and method and device for training abstract generation model

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100785927B1 (en) 2006-06-02 2007-12-17 삼성전자주식회사 Method and apparatus for providing data summarization
US20120197630A1 (en) 2011-01-28 2012-08-02 Lyons Kenton M Methods and systems to summarize a source text as a function of contextual information
US10319374B2 (en) * 2015-11-25 2019-06-11 Baidu USA, LLC Deployed end-to-end speech recognition

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A.M.Rush et. al., A neural attention model for sentence summarization, Proc. of 2015 conference EMNLP, pp.379-389, 2015.
R. Nallapati et al., Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond, Proc. of 20th SIGNLL Conference, pp.280-290, 2016.08.07
S. Chopra et al., Abstractive Sentence Summarization with Attentive Recurrent Neural Networks, Proc. of NAACL-HLT 2016, pp.93-98, 2016.06
권영대 외, 문장 수반 관계 추론을 통한 문서 요약, 한국정보과학회 학술발표 논문집, pp.711-713, 2016.06

Also Published As

Publication number Publication date
KR20180084580A (en) 2018-07-25

Similar Documents

Publication Publication Date Title
KR101882906B1 (en) Device and method to generate abstractive summaries from large multi-paragraph texts, recording medium for performing the method
Zhang et al. Object relational graph with teacher-recommended learning for video captioning
CN108711421B (en) Speech recognition acoustic model establishing method and device and electronic equipment
CN111462735A (en) Voice detection method and device, electronic equipment and storage medium
CN114694076A (en) Multi-modal emotion analysis method based on multi-task learning and stacked cross-modal fusion
Chen et al. Dynamic time-aware attention to speaker roles and contexts for spoken language understanding
Dilawari et al. ASoVS: abstractive summarization of video sequences
Xue et al. A better way to attend: Attention with trees for video question answering
WO2018135723A1 (en) Device and method for generating abstract summary of multiple-paragraph text, and recording medium for performing same method
Chi et al. Speaker role contextual modeling for language understanding and dialogue policy learning
CN110991290A (en) Video description method based on semantic guidance and memory mechanism
Li et al. A deep reinforcement learning framework for Identifying funny scenes in movies
CN113392265A (en) Multimedia processing method, device and equipment
CN113609284A (en) Method and device for automatically generating text abstract fused with multivariate semantics
CN109933773A (en) A kind of multiple semantic sentence analysis system and method
Bano et al. BERT-based extractive text summarization of scholarly articles: A novel architecture
Xu et al. A comprehensive survey of automated audio captioning
CN114357124A (en) Video paragraph positioning method based on language reconstruction and graph mechanism
Hsueh et al. A Task-oriented Chatbot Based on LSTM and Reinforcement Learning
CN110717316B (en) Topic segmentation method and device for subtitle dialog flow
Xia et al. Video-guided curriculum learning for spoken video grounding
KR20220140260A (en) Apparatus and method for analyzing sentiment based on artificial neural network and learning method thereof
CN112084788A (en) Automatic marking method and system for implicit emotional tendency of image captions
Parmar et al. Abstractive text summarization using artificial intelligence
Qi et al. Video captioning via a symmetric bidirectional decoder

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant